• XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ludewig schreef op woensdag 18 mei 2022 @ 22:26:
[...]

De 6800 XT is geen Navi 22, maar een kapotte Navi 21, dus waarom zou de 7800 een Navi 32 zijn?
Dit wordt een stukje hypothetisch, maar:

Dat kan heus wel per generatie verschillen hoor. Zo had de GTX 1070/1080 een GP104 chip en was GP102 exclusief voor de Titan. Maar sinds Turing besloot Nvidia om de xx102 chip toch in te zetten voor de RTX 2080. En die trend werd doorgezet. Dus afhankelijk van wat de concurrentie gaat leveren kunnen bepaalde GPU's in een ander segment ingezet worden.

En wat AMD betreft; we zien nu bijvoorbeeld dat de RX 6800 (XT) end of life is gegaan met de introductie van de nieuwe RX 6000 refresh. Waarschijnlijk zijn er niet genoeg "kapotte" GPU's meer en wil AMD geen volledig werkende Navi 21 inzetten voor het lagere RX 6800 (XT) segment. Dat creëert wel een probleem want nu is er een groot gat ontstaan tussen de 6750 XT en 6950 XT. Dus om dat op te lossen zou een RX 7800 best wel eens een Navi 32 product kunnen zijn, mits de prestaties toelaten om te concurreren met een RTX 4080.

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op woensdag 18 mei 2022 @ 22:26:
[...]


De leaks zijn vrij consistent in het afserveren van 3D-stacked geheugen en dat lijkt me ook logisch. Bij de 5800X3D zien we dat dit de warmteafvoer lijkt te beperken, waardoor ze de boost moeten verlagen. Juist bij GPU's zijn de 1% lows belangrijk (stutters) en de keuze voor veel cache om de lagere geheugenbandbreedte te compenseren zorgt er al voor dat de AMD kaarten relatieve slechte 1% lows hebben. Het versnellen van de cache met 3D-stacking ten koste van de boost zal in principe de 1% lows nog slechter maken.
Er is een klein probleempje hiermee. RDNA2 videokaarten zijn over het algemeen juist consistenter dan Ampere...

Daarvoor gaan we naar de gouden standaard van GPU benchmarking. Kijk zelf maar naar de frame time variance grafieken kijken. De RX6800XT is vaak consenter dan een RTX3080. ;)
https://www.igorslab.de/e...ut-different-in-detail/3/
Bij de 5800X3D hebben ze ook de conservatieve optie gekozen om dit toe te voegen aan een bestaande die, waardoor ze eens rustig kunnen zien hoe de markt reageert en voor welke workloads dit in de praktijk echt meerwaarde geeft. Die ervaring komt te laat om dit al aan de volgende generatie videokaarten toe te voegen.

Ik verwacht zelf dat ze eerst intern een beetje gaan experimenteren met 3D-stacking op de RDNA3 chips en dit hoogstens toevoegen aan een refresh van de 7900 als het goed blijkt te werken voor videokaarten. Door het apart zetten van de cache in RDNA3 is dit een perfect platform om met 3D-stacking te experimenteren en doordat 3D-cache grotendeels een packaging-techniek is, is het relatief makkelijk om dit in een refresh te stoppen.
5800X3D komt van Epyc Milan X. Het is niks meer dan een bestaande techniek introduceren als high end Ryzen om Intel hun 12900K er dom eruit te laten zien. Missie geslaagd. Het zegt alleen niks over wat AMD van plan is met RDNA3.
Ethereum levert het overgrote deel (meer dan 90%) van de mininginkomsten op GPUs, dus Proof of Stake zou voor een instorting moeten zorgen. De vraag is wel hoeveel kaarten gekocht zijn door mining farms of door mensen die de aankoop van een enkele dure kaart hebben gesubsidieerd door te minen. Ik verwacht dat die laatste groep hun kaart meestal gewoon houd.
Ik heb het een paar weken geleden volgens mij al gezegd. Etherium zou al sinds 2017 echt bijna PoS gaan. Het gebeurd niet omdat crypto geen magisch wereldje is waar iedereen lekker voor elkaars belangen opkomt. Er zijn daar mensen die belang hebben dat het niet gebeurd, dus gebeurd het niet. Ze hebben inmiddels elke kans gehad om het tegendeel te bewijzen...

En het lost ook niks op. Als ETH naar PoS gaat, dan komt er wel een nieuwe "ETH" die dat niet is...
De echte meerwaarde van de 3090 is niet de snelheid, maar het grote geheugen. Het is eigenlijk een Titan en vooral geschikt voor renderen. Het is voor mij ook niet duidelijk hoeveel er gingen/gaan naar gamers en niet naar miners en content creators.
Het is absoluut geen Titan. Het is een gaming kaart die veel te veel kost. Nvidia heeft de pretenties dat het iets anders is ook laten vallen door het de RTX3090 te noemen. Als het een Titan was, een prosumer model dus, dan had Nvidia misschien die anders moeten behandelen in hun drivers door meer zaken toe te staan, zoals ze ooit deden. Dat is onderdeel van een langer proces waarbij Nvidia mensen wil dringen om een Quadro te kopen.
De 6800 XT is geen Navi 22, maar een kapotte Navi 21, dus waarom zou de 7800 een Navi 32 zijn?

De 'mid-tier' lijkt me sowieso erg interessant, want de 3080 wordt nu door veel mensen gezien als een sweet-spot qua performance en de 4070/7700 zou beter moeten presteren en meer dan 8 GB moeten krijgen.

En ik denk dat mensen er maar aan moeten wennen dat de hele range qua prijs een stapje omhoog is gegaan en dat ook nog een niveautje bij is gekomen.
Omdat als AMD dadelijk $800+ gaat vragen voor een "RX7700XT" ze tegen letterlijk meer dan een decennium aan marktconditionering ingaan dat "70" staat voor goed presterend maar relatief betaalbaar. "80" is high end en "90" is halo. Dat heeft Nvidia er bij iedereen erin gekregen en het is zinloos om hier nog van af te wijken. "80" gaat dus gewoon duur worden en "90" al helemaal.
XWB schreef op woensdag 18 mei 2022 @ 23:38:
[...]


Ik heb geen idee wat @kopite7kimi bedoelde met "I am disappointed with RDNA3", of wil jij een gok wagen?

Maar er is nog iets om rekening met te houden. Als die nieuwe RTX 4090 daadwerkelijk al in juli zou verschijnen en RDNA3 pas in september dan heeft Nvidia effectief een voorsprong én kunnen ze begin 2023 alweer een Ti uitvoering aankondigen om in de lead te blijven.
Nee. :P
Zelfs als die nu verwachte 12288 ALU's op "maar" 2000MHz draaien, dan moeten ze het ergens fors verpest hebben om niet alsnog richting 2x Navi 21 te gaan. Immers 23 om 49TF. Maar zoals @Werelds eigenlijk ook al zegt, er gaat op het moment te veel rond. Bijvoorbeeld nu weer dat de "Super SIMD"/VLIW2 er gaat komen voor RDNA3. Wil het best geloven dat AMD het van plan is vanwege een oudere discussie erover en omdat er blijkbaar ook wat referenties in Linux drivers over gevonden zijn gevonden. Maar de afgelopen weken zijn zo hectisch geweest dat gepaste scepsis voor alles op zijn plaats is. Daarom probeer ik ook altijd een slag om de arm te nemen. Dat lijkt helaas niet altijd goed over te komen, maar dat is een ander probleem. :P

Tweede is dan wat Nvidia lanceert. We weten dat AD102 een 18432 ALU chip is omdat dit uit Nvidia hun hack is gehaald. Of het nu 18432 of 18432 FP + 9216 INT is, laat ik in het midden. Lanceert Nvidia die configuratie of iets dat dichtbij die configuratie zit, dan is dat het. Paar procent gaat het verschil niet maken. Vervolgens lijkt Navi 31 niet als eerste te komen, maar ook dat is sterk aan verandering onderhevig op het moment.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op woensdag 18 mei 2022 @ 23:38:
[...]
Als die nieuwe RTX 4090 daadwerkelijk al in juli zou verschijnen en RDNA3 pas in september dan heeft Nvidia effectief een voorsprong én kunnen ze begin 2023 alweer een Ti uitvoering aankondigen om in de lead te blijven.
Ik verwacht dat er in juli alleen een aankondiging komt en dat de daadwerkelijke release pas in augustus of zelfs september is. Dus dan zit het al dichter bij elkaar. Zo deed Nvidia dat ook bij de 3090 Ti, die op CES werd aangekondigd, maar pas een tijd later echt beschikbaar was (al hadden ze daar ook nog probleempjes mee, dus was er een extra vertraging).

Volgens de geruchten komt AMD als eerste met de 7600, wat zou betekenen dat er een interessante situatie kan ontstaan waarbij Nvidia een grote voorsprong neemt aan de top, maar AMD juist een voorsprong neemt in het lagere middensegment waar veel meer gamers in shoppen.

Traditioneel kiest men ervoor om de dure kaarten eerst te maken om zo maximaal te verdienen, maar dit gaat ten koste van het aantal kaarten dat geleverd kan worden (er passen weinig grote dies op een wafer). Door eerst de goedkopere kaarten te verkopen zou AMD relatief veel volume kunnen leveren, ook kort na de release van de nieuwe generatie.

Sowieso zou ik graag zien dat AMD een doorbraak probeert te forceren door te kiezen voor wat lagere marges en groter volume, zodat ze wegkomen van het '2e keus' label, wat ze vaak parten speelt. Ik hoop op een gezondere marktsituatie waar Nvidia niet meer de standaardkeuze is van veel mensen, game-ontwikkelaars meer rekening houden met AMD, render-software ook snel werkt op AMD kaarten, etc.

Op de CPU markt kan AMD goed concurreren omdat de x86-API aardig gestandaardiseerd is, maar op de GPU markt is het een groot nadeel als je weinig markt-aandeel hebt omdat er door ontwikkelaars (waaronder engine-bouwers zoals Unreal) veel meer wordt ontwikkeld op de specifieke eigenschappen van de GPU en groter marktaandeel ervoor zorgt dat men meer moeite doet om de games/render-software goed te laten draaien op dat platform.

Intel kan trouwens ook helpen om het marktaandeel van Nvidia te verlagen en zo voor een gezondere markt te zorgen, al duurt het nog wel even voordat Intel echt concurreert.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • meljor
  • Registratie: November 2004
  • Laatst online: 14-12 18:01
Als de geruchten kloppen (max. Rtx 3070 performance) dan zal Intel de onderkant van de markt wel vooral pakken, dus veel volume hebben en er zo snel mogelijk tegen concureren
Met je low/midrange is dan voor Amd de juiste strategie.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ludewig schreef op donderdag 19 mei 2022 @ 09:32:
[...]

Intel kan trouwens ook helpen om het marktaandeel van Nvidia te verlagen en zo voor een gezondere markt te zorgen, al duurt het nog wel even voordat Intel echt concurreert.
Ik denk dat Intel Arc, zeker de eerste generatie, DOA is. De modellen voor de desktopmarkt zijn uitgesteld en komen pas in de tweede helft van het jaar wat betekent dat ze moeten concurreren met RTX-40 en RX 7000. En de benchmarks van de eerste laptops modellen zien er ook niet veelbelovend uit.

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op donderdag 19 mei 2022 @ 00:28:
[...]
Er is een klein probleempje hiermee. RDNA2 videokaarten zijn over het algemeen juist consistenter dan Ampere...

Daarvoor gaan we naar de gouden standaard van GPU benchmarking. Kijk zelf maar naar de frame time variance grafieken kijken. De RX6800XT is vaak consenter dan een RTX3080. ;)
https://www.igorslab.de/e...ut-different-in-detail/3/
Dat zie ik niet terug in de 1% lows van bijvoorbeeld deze Hardware Unboxed review: YouTube: Radeon RX 6950 XT vs. GeForce RTX 3080 Ti, RTX 3090 & RTX 3090 Ti: B...

Met name ook bij de 4k tests waar de cache van de AMD kaarten relatief slecht werkt ter compensatie van de lagere bandbreedte: YouTube: Radeon RX 6950 XT vs. GeForce RTX 3080 Ti, RTX 3090 & RTX 3090 Ti: B...

Zo heeft de 6950 XT een betere gemiddelde FPS dan de 3090, maar een lagere 1% low. Bij alle resultaten zijn de AMD kaarten slechter of gelijk qua 1% lows dan Nvidia kaarten, vergeleken met hun maximale FPS.
Ethereum zou al sinds 2017 echt bijna PoS gaan. Het gebeurd niet omdat crypto geen magisch wereldje is waar iedereen lekker voor elkaars belangen opkomt. Er zijn daar mensen die belang hebben dat het niet gebeurd, dus gebeurd het niet.
Dit is een complottheorie, waarvoor je geen echt bewijs hebt. Waarom zouden de Ethereum-ontwikkelaars er zoveel moeite in steken als ze het niet willen?

Alles wijst er gewoon op dat dit een typisch gevalletje is van een ontwikkeltraject dat van te voren extreem veel optimistischer is ingeschat dan gerechtvaardigd, wat in de IT heel vaak voorkomt.
En het lost ook niks op. Als ETH naar PoS gaat, dan komt er wel een nieuwe "ETH" die dat niet is...
Ik heb al uitgelegd dat dit niet erg waarschijnlijk lijkt. Dit lijkt meer een fatalistisch geloof, dan gebaseerd op de feiten.
Het is absoluut geen Titan.
Voor Turing bracht Nvidia de 2080 Ti uit met 11 GB voor gamers en de Titan met 24 GB voor bedrijven. Beide hadden een variant van de TU102 chip.

Voor Ampere hebben ze de 3080 met 10 GB voor gamers (en later de 3080 12 GB en de 3080 Ti ook met 12 GB). Daarnaast is er de 3090, ook gebaseerd op AD102, maar dan met dubbel het geheugen. Dit is ook het belangrijkste verschil tussen de Titan en de 2080 Ti. Dus ik zie de 3090 zeker als een Titan, maar dan met volledig andere marketing.

De 24 GB maakt de kaart vooral geschikt voor renderen. De enige gamers waarvoor de kaart echt meerwaarde biedt boven een 3080 zijn volgens mij MSFS fanaten.

Ik zie de 3090 dus als een model dat de eigenschappen heeft van een render-kaart voor bedrijven, maar die ze nu naar gamers marketen. De vraag daarbij is wel in hoeverre miners daar een rol in spelen, want dat zijn ook mensen die kopen op de consumentenmarkt en zich niet als bedrijven gedragen, ook als ze bedrijfsmatig een miningfarm runnen. Dus als ik mijn Titan kaarten aan miners zou willen verkopen, zonder daadwerkelijk de kaart aan te prijzen als een miningkaart en daarmee alle gamers op de kast te jagen, zou ik die kaart ook als gaming kaart aanprijzen.
Omdat als AMD dadelijk $800+ gaat vragen voor een "RX7700XT"
Ik verwacht ook zeker niet dat ze dat gaan doen. Heel veel wijst erop dat ze gekozen hebben voor een relatief voordelig ontwerp, dus dan kunnen ze ook met vrij lage prijzen een prima winst maken.
Bijvoorbeeld nu weer dat de "Super SIMD"/VLIW2 er gaat komen voor RDNA3.
Als ik het goed begrijp maakt dit het mogelijk om tensor core-achtige performance te krijgen met minder transistors, dus kan dit de basis zijn van de raytracing support die volgens de geruchten in RDNA3 komt. Dan kan AMD dit op een hele goedkope manier toevoegen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op donderdag 19 mei 2022 @ 11:26:
[...]
Ik denk dat Intel Arc, zeker de eerste generatie, DOA is. De modellen voor de desktopmarkt zijn uitgesteld en komen pas in de tweede helft van het jaar wat betekent dat ze moeten concurreren met RTX-40 en RX 7000. En de benchmarks van de eerste laptops modellen zien er ook niet veelbelovend uit.
Alles wijst erop dat de drivers extreem slecht zijn en dat Intel niet wil dat ze dezelfde reputatie krijgen als AMD, die nog steeds last heeft van de reputatie dat ze slechte drivers maken (al is de kwaliteit tegenwoordig behoorlijk goed).

Het zou jammer zijn als Intel pakhuizen vol met chips heeft liggen en door brakke drivers geen redelijk product kan leveren, waar het helaas op lijkt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op woensdag 18 mei 2022 @ 23:51:
[...]
Dat creëert wel een probleem want nu is er een groot gat ontstaan tussen de 6750 XT en 6950 XT. Dus om dat op te lossen zou een RX 7800 best wel eens een Navi 32 product kunnen zijn, mits de prestaties toelaten om te concurreren met een RTX 4080.
Ja, dat zou kunnen. Misschien zijn ze het beste af als ze nog een extra model introduceren tussen de 7800 en 7900 in, waar ze de kapotte Navi 31's in kunnen zetten. Want anders is het wel erg zonde als ze die chips niet kunnen gebruiken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Eli3l
  • Registratie: November 2007
  • Laatst online: 23-11 21:18
Dit heb ik nog nooit meegemaakt. Een PNY XLR8 RTX 3090 overleden na een jaar en een Inno3D IChill X4 RTX 3080Ti overleden na 6 maanden...

RTX 3090 altijd in datacenter gebruikt, dus genoeg airflow en redelijke temps. De RTX 3080Ti thuis voor gamen en werk.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Eli3l schreef op donderdag 19 mei 2022 @ 11:52:
Dit heb ik nog nooit meegemaakt. Een PNY XLR8 RTX 3090 overleden na een jaar en een Inno3D IChill X4 RTX 3080Ti overleden na 6 maanden...

RTX 3090 altijd in datacenter gebruikt, dus genoeg airflow en redelijke temps. De RTX 3080Ti thuis voor gamen en werk.
Dat is geen nieuws, dus hoort dit niet in dit topic (niet dat ik nu de meest on-topic poster ben, maar toch).

Ik zou trouwens wel een nieuwe kaart eisen. PNY schijnt 3 jaar garantie te geven en Inno3D 2 jaar (al zou ik zeggen dat je altijd minimaal 3 jaar kan eisen op basis van de wettelijke garantie).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Eli3l
  • Registratie: November 2007
  • Laatst online: 23-11 21:18
Ludewig schreef op donderdag 19 mei 2022 @ 12:01:
[...]


Dat is geen nieuws, dus hoort dit niet in dit topic (niet dat ik nu de meest on-topic poster ben, maar toch).

Ik zou trouwens wel een nieuwe kaart eisen. PNY schijnt 3 jaar garantie te geven en Inno3D 2 jaar (al zou ik zeggen dat je altijd minimaal 3 jaar kan eisen op basis van de wettelijke garantie).
Je hebt gelijk :F

Weet niet waarom, maar dacht dat het het ervaringen topic was. Mea culpa. Kan een mod het verplaatsen?

[ Voor 3% gewijzigd door Eli3l op 19-05-2022 13:15 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
DaniëlWW2 schreef op donderdag 19 mei 2022 @ 00:28:
Bijvoorbeeld nu weer dat de "Super SIMD"/VLIW2 er gaat komen voor RDNA3. Wil het best geloven dat AMD het van plan is vanwege een oudere discussie erover en omdat er blijkbaar ook wat referenties in Linux drivers over gevonden zijn gevonden.
Ook weer zoiets. En die knaap (RGT) noemt dat dan "een soort van Hyperthreading voor een FP32 ALU".

Nee. Dat is nu precies wat VLIW (ongeacht het 2, 4, 5 of 17 is) níet is. VLIW draait om ILP, "Hyperthreading" (SMT in non-merknamen) draait om TLP. Dit soort opmerkingen zijn waarom ik vraagtekens zet bij alles wat deze gasten zeggen, want ze horen allerlei termen en cijfers maar begrijpen er niet genoeg van om het correct bij elkaar te plaatsen.

Waar dit vandaan komt is AMD's Super-SIMD patent van enkele jaren geleden. Waarvan sommige leakers toen al zeiden dat RDNA1 dat zou hebben ;)

Ik kan het wel helemaal uit leggen, maar VLIW is al vaak op allerlei sites behandeld dus daarvoor kunnen diegenen die het niet kennen beter op Anandtech ofzo kijken. Die hebben dat ten tijde van GCN1 behandeld in hun reviews. En toen AMD's patent openbaar werd stond er op Beyond3D en Reddit ook het één en ander.

VLIW is ook geen "vervanging" voor SIMD - VLIW draait meer om data-packing, niet noodzakelijkerwijs over de verwerking daarvan. AMD's patent beschreef geen Cypress/Cayman units, waar je 5/4 stukjes data móest hebben om de SP's volledig aan het werk te hebben. Nee, ze beschreven juist hoe ze VLIW2 kunnen implementeren op een hedendaagse superscalar SIMD GPU, zonder de flexibiliteit van die ontwerpen te verliezen. Betere efficiëntie dus, in de zin dat een "FLOP" meer "waard" wordt. En nee, het zou absoluut geen verdubbeling betekenen - het is een soortgelijk verhaal als bij Nvidia's mixed ALU's, waar er een deel van de tijd voordeel is, maar bij lange na niet altijd. Verschil is dat wat AMD beschreef geen "all or nothing" is zoals Nvidia's FP32/INT32 :p

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Ludewig schreef op donderdag 19 mei 2022 @ 09:32:
[...]


Ik verwacht dat er in juli alleen een aankondiging komt en dat de daadwerkelijke release pas in augustus of zelfs september is. Dus dan zit het al dichter bij elkaar. Zo deed Nvidia dat ook bij de 3090 Ti, die op CES werd aangekondigd, maar pas een tijd later echt beschikbaar was (al hadden ze daar ook nog probleempjes mee, dus was er een extra vertraging).
Ik weet niet of we moeten uitgaan van de uitzondering die de RTX 3090Ti was. Normaal gesproken zijn Nvidia's topmodellen juist relatief snel verkrijgbaar na announcement.

Bij de RTX3080 zat daar zo'n 2,5 week tussen, bij de RTX 3090 zo'n 3,5 week, de gelijktijdig aangekondigde RTX 3070 meer gericht op de upper midrange deed er dan weer bijna 2 maand over om in de winkels te liggen.

Bij de 2000 serie was het +- een maand tussen announcement en availability.

Terwijl er bij de 1000 series 11 dagen tussen announcement en release zat voor de GTX 1080.

Kijkende naar het verleden zou ik dus, als half juli klopt voor de announcement, eerder uitgaan van een release tussen eind juli en half augustus voor in ieder geval enkel modellen.

Bij AMD is dat trouwens niet heel verschillend, die kondigden bijv. de 6000 serie aan op 28 oktober 2020 en de eerste 3 Sku's waren leverbaar op 18 november (6800 en 6800XT) en 8 december (6900XT).

Dus ook bij AMD moet je denk ik rekening houden met een ongeveer eenzelfde periode tussen aankondiging en leverbaar.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 19 mei 2022 @ 13:17:
[...]

Ook weer zoiets. En die knaap (RGT) noemt dat dan "een soort van Hyperthreading voor een FP32 ALU".

Nee. Dat is nu precies wat VLIW (ongeacht het 2, 4, 5 of 17 is) níet is. VLIW draait om ILP, "Hyperthreading" (SMT in non-merknamen) draait om TLP. Dit soort opmerkingen zijn waarom ik vraagtekens zet bij alles wat deze gasten zeggen, want ze horen allerlei termen en cijfers maar begrijpen er niet genoeg van om het correct bij elkaar te plaatsen.

Waar dit vandaan komt is AMD's Super-SIMD patent van enkele jaren geleden. Waarvan sommige leakers toen al zeiden dat RDNA1 dat zou hebben ;)

Ik kan het wel helemaal uit leggen, maar VLIW is al vaak op allerlei sites behandeld dus daarvoor kunnen diegenen die het niet kennen beter op Anandtech ofzo kijken. Die hebben dat ten tijde van GCN1 behandeld in hun reviews. En toen AMD's patent openbaar werd stond er op Beyond3D en Reddit ook het één en ander.

VLIW is ook geen "vervanging" voor SIMD - VLIW draait meer om data-packing, niet noodzakelijkerwijs over de verwerking daarvan. AMD's patent beschreef geen Cypress/Cayman units, waar je 5/4 stukjes data móest hebben om de SP's volledig aan het werk te hebben. Nee, ze beschreven juist hoe ze VLIW2 kunnen implementeren op een hedendaagse superscalar SIMD GPU, zonder de flexibiliteit van die ontwerpen te verliezen. Betere efficiëntie dus, in de zin dat een "FLOP" meer "waard" wordt. En nee, het zou absoluut geen verdubbeling betekenen - het is een soortgelijk verhaal als bij Nvidia's mixed ALU's, waar er een deel van de tijd voordeel is, maar bij lange na niet altijd. Verschil is dat wat AMD beschreef geen "all or nothing" is zoals Nvidia's FP32/INT32 :p
Weet je, dit voelt een beetje als shoot the messenger. :P
Ik ga ook echt niet zijn technische uitleg lopen geloven, weet echt wel beter, maar het is wel iemand die eerder met zaken kwam die niemand zag aankomen. Het kan gewoon, maar we weten het pas als AMD het ding eindelijk uitbrengt.

Zoals ik volgens mij gisteren ook al zei is het probleem met hem dat hij er een verdienmodel van maakt en heel veel maakt van heel weinig informatie. Betekent niet noodzakelijkerwijs dat het verkeerd is. Het betekent wel dat je erg sceptisch moet zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
DaniëlWW2 schreef op donderdag 19 mei 2022 @ 13:38:
[...]


Weet je, dit voelt een beetje als shoot the messenger. :P
Ik ga ook echt niet zijn technische uitleg lopen geloven, weet echt wel beter, maar het is wel iemand die eerder met zaken kwam die niemand zag aankomen. Het kan gewoon, maar we weten het pas als AMD het ding eindelijk uitbrengt.

Zoals ik volgens mij gisteren ook al zei is het probleem met hem dat hij er een verdienmodel van maakt en heel veel maakt van heel weinig informatie. Betekent niet noodzakelijkerwijs dat het verkeerd is. Het betekent wel dat je erg sceptisch moet zijn.
Haha, nee, niet op jou bedoeld :P

Het probleem voor mij is echter dat zij vervolgens cijfers verzinnen op basis van hun foute aannames. Hij heeft het namelijk ineens ook over "6114 VLIW2" als optie. Dat is gewoon onzinnig en gaat 100% zeker weten niet gebeuren en kan ook nooit in de buurt komen van die 75 TF waar hij het nog steeds over heeft voor N31. Zelfs als je VLIW2 niet begrijpt en denkt dat het SMT is, weet iedereen ook wel dat SMT geen 100% winst biedt. Sterker nog, het tegenovergestelde is vaak waar.

En dat wijst er voor mij weer op dat ze helemaal niet zo veel weten. Het zijn echt losse cijfers en "feiten" die ze "ergens" hebben gehoord of gezien, maar ze weten niet eens waar het over gaat, ze proberen dat in te vullen...en dan krijg je dit soort onzin.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op donderdag 19 mei 2022 @ 13:17:
[...]
Ook weer zoiets. En die knaap (RGT) noemt dat dan "een soort van Hyperthreading voor een FP32 ALU".
Inderdaad. Moore's Law is Dead lijkt het allemaal een stuk beter te begrijpen, wat natuurlijk niet betekent dat hij ook goede bronnen heeft.
Dennism schreef op donderdag 19 mei 2022 @ 13:23:
[...]
Kijkende naar het verleden zou ik dus, als half juli klopt voor de announcement, eerder uitgaan van een release tussen eind juli en half augustus voor in ieder geval enkel modellen.
[...]
Dus ook bij AMD moet je denk ik rekening houden met een ongeveer eenzelfde periode tussen aankondiging en leverbaar.
Dat hangt er wel erg vanaf of ze hun aankondigingen strategisch plannen. Als ik AMD was zou ik klaar staan om wat nieuws bekend te maken op een strategisch moment vlak voor of een tijdje na de aankondiging van Nvidia. Niet per se een volledige launch, maar wel een tipje van de sluier.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Ludewig schreef op donderdag 19 mei 2022 @ 13:49:
[...]


Inderdaad. Moore's Law is Dead lijkt het allemaal een stuk beter te begrijpen, wat natuurlijk niet betekent dat hij ook goede bronnen heeft.
Ik zie MLID meer als entertainment dan wat anders eigenlijk, ik heb altijd juist eerder het gevoel dat hij er vrij weinig van begrijpt wanneer het juist over zulke zaken gaat, zeker bijvoorbeeld in die podcasts met gasten. Soms vind ik die vragen of takes van hem echt tenenkrommend slecht, vooral wanneer ze in mijn vak gebied vallen (wat het wel weer leuke content maakt). Nee, echt serieus nemen kan ik hem niet, en toch kijk ik vrijwel al zijn content wat natuurlijk wel weer een kwaliteit van hem ik, bij concurrenten van hem heb ik dat bijvoorbeeld helemaal niet.

Ik heb bij MLID al tijd het gevoel dat hij erg goed oplet bij leaks op Twitter (Kopeti7Kimi, Graymon en de rest), her en der ook vast zelf wel een bron heeft, en dan daarnaast ook nog zelf er een boel bij analyseert.

En daar dan shotgun style op gaan schieten met hagel, waardoor ie altijd wel iets raakt.

[ Voor 22% gewijzigd door Dennism op 19-05-2022 14:19 ]


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Ludewig schreef op donderdag 19 mei 2022 @ 13:49:


Dat hangt er wel erg vanaf of ze hun aankondigingen strategisch plannen. Als ik AMD was zou ik klaar staan om wat nieuws bekend te maken op een strategisch moment vlak voor of een tijdje na de aankondiging van Nvidia. Niet per se een volledige launch, maar wel een tipje van de sluier.
Volgens mij is dat vaker wel dan niet andersom het geval. Bijv. toen AMD haar aankondiging deed van de 6000 serie, plaatste Nvidia uit mijn hoofd daar vrij strategisch de RTX3070 launch tegenover (door deze een week of 2 uit te stellen volgens mij).

Ik heb als AMD aandeelhouder eigenlijk mijn vertrouwen in de RTG marketing wel opgegeven, Nvidia doet dat vrijwel altijd zoveel beter en hoeveel ik beterschap hoop, verwacht ik niet dat AMD nu ineens heel slim om Nvidia's lanceringen heen gaat plannen. Ik zie dat eerder wederom andersom gebeuren.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 19 mei 2022 @ 13:46:
[...]

Haha, nee, niet op jou bedoeld :P

Het probleem voor mij is echter dat zij vervolgens cijfers verzinnen op basis van hun foute aannames. Hij heeft het namelijk ineens ook over "6114 VLIW2" als optie. Dat is gewoon onzinnig en gaat 100% zeker weten niet gebeuren en kan ook nooit in de buurt komen van die 75 TF waar hij het nog steeds over heeft voor N31. Zelfs als je VLIW2 niet begrijpt en denkt dat het SMT is, weet iedereen ook wel dat SMT geen 100% winst biedt. Sterker nog, het tegenovergestelde is vaak waar.

En dat wijst er voor mij weer op dat ze helemaal niet zo veel weten. Het zijn echt losse cijfers en "feiten" die ze "ergens" hebben gehoord of gezien, maar ze weten niet eens waar het over gaat, ze proberen dat in te vullen...en dan krijg je dit soort onzin.
Wederom, de technische onderbouwing geloof ik ook niet. Ik neig alleen naar een andere verklaring. :)
Ik vermoed namelijk dat er binnen de RTG wat mensen zijn die erg trots zijn op de enorme stappen die ze generatie op generatie maken. En daaruit lekt misschien wel eens iets, al dan niet opzettelijk. Daarnaast heb je de AIB's die traditioneel gezien zo lek als een mandje lijken te zijn. Uiteindelijk komt daar veel informatie vandaan, zowel goed als onzin. Ik vermoed dan ook dat de AIB's langzaam maar zeker meer zaken te horen hebben gekregen en het daarom nu zo losgaat. De vraag is alleen wat is nu onzin en wat niet. Helpt niet dat elke leaker die zaken gaat analyseren, meestal totaal niet begrijpt wat die analyseert. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ludewig schreef op woensdag 18 mei 2022 @ 11:50:
@DaniëlWW2

[...]

Mijn verwachting is dat AMD flink lagere productiekosten zal hebben, omdat het MCM ontwerp in principe voor substantieel betere yields zou moeten zorgen en de 6nm dies goedkoper zijn. Ze zouden een poging kunnen doen om flink marktaandeel te winnen door een extreem goede prijs/performance, waarbij ze wat lagere inkomsten accepteren. Dat vereist dan wel voldoende productiecapaciteit.
Tja, wat is "goedkoper"? Uiteindelijk is een 6nm wafer nog altijd duurder dan 7nm dus die nieuwe RDNA3 generatie zou zomaar duurder kunnen zijn dan RX 6000. En er zijn nog meer redenen waarom de prijs alleen maar omhoog kan gaan, zie DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144" voor een compleet lijstje met hedendaagse ontwikkelingen.

Verder heb ik niet de illusie dat AMD wil inzetten op een goede prijs/performance. Dat zien we namelijk ook niet terug in de huidige CPU én GPU line-up, AMD doet gewoon mee met de industrie en gaat voor maximale cash grab :p

Kort gezegd, kijkend naar alle ontwikkelingen in de markt dan is er niets wat er op wijst dat we nog moeten hopen op goedkope betaalbare videokaarten.

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op maandag 23 mei 2022 @ 23:23:
[...]
Verder heb ik niet de illusie dat AMD wil inzetten op een goede prijs/performance. Dat zien we namelijk ook niet terug in de huidige CPU én GPU line-up, AMD doet gewoon mee met de industrie en gaat voor maximale cash grab :p
Je haalt twee dingen door elkaar, productiekosten en vraagprijs. De productiekosten bepalen de minimale vraagprijs die AMD nog kan vragen voordat het voordeliger is om de productie te verlagen. De echte vraagprijs wordt bepaald door de marktomstandigheden. For-profit bedrijven proberen vaak om hun winst te maximaliseren*, maar omstandigheden dwingt ze om die te verlagen (met name concurrentie). Hoe beter de omstandigheden voor consumenten, hoe lager de prijs.

Tot nu toe was de productiecapaciteit vrij laag vergeleken met de vraag, wat betekent dat de prijzen (en winsten) erg hoog zijn. De verwachting is wel dat de productiecapaciteit beter zal zijn voor de nieuwe generatie. Daarnaast is er ook een kans op een grote dump van ex-mining kaarten op de markt nadat Ethereum naar Proof of Stake gaat.

Lage productiekosten zijn een factor die bepaalde bedrijfsstrategieën mogelijk maken, maar simplistische frames als "maximale cash grab" zijn niet zo nuttig en bovendien gewoon onjuist (want LHR van Nvidia en de 'drops' van AMD waren beide inkomstenverlagende acties, met als doel om de winst op lange termijn veilig te stellen).

* Al kan het doel ook zijn om marktaandeel te vergroten en kunnen ze tijdelijk een lagere winst accepteren om dat te bereiken. Als een bedrijf veel lagere productiekosten heeft kunnen zelfs een ander bedrijf kapot proberen te maken door hun eigen product zo goedkoop te verkopen dat het andere bedrijf onder kostprijs moet verkopen. Deze beide strategieën hebben het doel om op termijn juist meer winst te maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
@Ludewig Ik zal het anders verwoorden, er is helemaal niets wat er op wijst dat de nieuwe generatie een lagere MRSP dan de huidige generatie zal krijgen. De MSRP is tenslotte niet gebaseerd op vraag en aanbod maar gaat wel elke keer omhoog.
* Al kan het doel ook zijn om marktaandeel te vergroten en kunnen ze tijdelijk een lagere winst accepteren om dat te bereiken. Als een bedrijf veel lagere productiekosten heeft kunnen zelfs een ander bedrijf kapot proberen te maken door hun eigen product zo goedkoop te verkopen dat het andere bedrijf onder kostprijs moet verkopen. Deze beide strategieën hebben het doel om op termijn juist meer winst te maken.
Maar dat is allemaal speculatie, nergens heeft AMD gezegd dat dit hun doelstelling zou zijn. We zien echter wel dat er geen ontwikkelingen spelen om een lagere MSRP te kunnen hanteren, de prijzen van wafers en andere materialen gaan alleen maar omhoog.
maar omstandigheden dwingt ze om die te verlagen (met name concurrentie). Hoe beter de omstandigheden voor consumenten, hoe lager de prijs.
Er zijn dus geen betere omstandigheden voor consumenten in het vooruitzicht: DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

AMD en Nvidia komen in feite in een duopolie terecht, en ze kunnen elkaar gewoon in stand houden met hoge prijzen. Dat zie je bv. ook bij Boeing en Airbus, er is geen derde speler die groot genoeg is om echte concurrentie aan te bieden.

[ Voor 4% gewijzigd door XWB op 24-05-2022 12:34 ]

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

offtopic:
Ik ben inmiddels bang dat er nog een factor is, de CCP...
Je hoort het nauwelijks in de Nederlandse media, maar die constante lockdowns in China moeten ook voor gigantische verstoring aan het zorgen zijn tot het punt dat ik me begin af te vragen hoe je daar nog iets moet produceren? Nu lijkt shenzhen bewust uitgesloten te worden om maar electronica te blijven produceren. Maar daar heeft niemand wat aan als de havensteden wel op slot gaan voor weken of meer. China verlaten zal ook een langdurig proces zijn waar zeker niet alle fabrikanten inmiddels klaar mee zullen zijn.

Vrachtvervoer was verder toch al veel duurder geworden door een gebrek aan schepen en containers die op de verkeerde plaats staan. Komt inmiddels bij dat je voor vrachtvervoer per vliegtuig, je niet meer over Rusland kan vliegen naar Europa. Vervolgens gaat de olieprijs ook niet verbeteren. Die zal eerder nog slechter worden als Rusland hun productie offline gaat omdat ze het niet meer kunnen exporteren.

Ik zou in ieder geval niet verbaast zijn als je opeens kleinere dozen gaat krijgen voor videokaarten zodat ze er meer in een container kunnen stoppen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op dinsdag 24 mei 2022 @ 12:32:
@Ludewig Ik zal het anders verwoorden, er is helemaal niets wat er op wijst dat de nieuwe generatie een lagere MRSP dan de huidige generatie zal krijgen. De MSRP is tenslotte niet gebaseerd op vraag en aanbod maar gaat wel elke keer omhoog.
De MSRP is op zich niet superrelevant, het gaat om de prijs/performance. Stel dat (het onwaarschijnlijke gebeurd en) de 7600 2 keer zo snel is als een 6900, maar de MRSP 400 euro is, dan is de MSRP wel iets hoger, maar de prijs/performance veel beter.

En ooit slaat de markt wel weer om en krijgen we bodemprijzen, maar is dat eind 2022, 2024, 2030?
Maar dat is allemaal speculatie, nergens heeft AMD gezegd dat dit hun doelstelling zou zijn. We zien echter wel dat er geen ontwikkelingen spelen om een lagere MSRP te kunnen hanteren, de prijzen van wafers en andere materialen gaan alleen maar omhoog.
Ja, deels door inflatie en deels doordat de nieuwe processen weliswaar betere prijs/performance bieden, maar doordat de performance meer omhoog gaat dan de prijs. Dat laatste betekent dat je kunt kiezen voor dezelfde performance voor minder geld, iets meer performance voor hetzelfde geld of meer performance voor hetzelfde geld. Als de consument dan kiest om meer te betalen, is dat een keuze van de consument en niet de schuld van de fabrikanten.

Beide hebben trouwens weinig te maken met de strategie van AMD. AMD zorgt niet voor inflatie en bepaald de waferkosten niet. AMD kan er wel voor kiezen om een relatief goedkoop te produceren ontwerp te maken.
Er zijn dus geen betere omstandigheden voor consumenten in het vooruitzicht: DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
In dat verhaal van Daniel mis ik nou net de hoofdoorzaak waarom de prijzen van GPUs zo extreem zijn gestegen (en ook weer zo hard zijn gedaald): de sterk toegenomen vraag (onder meer door mining) en de totaal verkeerde lange termijninschattingen van de producenten. Volgens de producenten zelf wordt de productie steeds hoger en de winstgevendheid van minen is flink gedaald.

Daarnaast is er specifiek voor Europa het probleem van de dalende waarde van de Euro, door het monetaire beleid.

Feit is dat het nog steeds prima mogelijk is om de bestaande ontwerpen voor MRSP te verkopen, want in de VS kun je op dit moment de 6600 voor 1 euro boven MSRP krijgen. En die komt trouwens net zo goed uit China. Dus wat mij betreft mist Daniel de bomen door het bos een beetje en kijkt hij vooral naar relatief marginale effecten en juist niet naar de hoofdoorzaken.
AMD en Nvidia komen in feite in een duopolie terecht, en ze kunnen elkaar gewoon in stand houden met hoge prijzen. Dat zie je bv. ook bij Boeing en Airbus, er is geen derde speler die groot genoeg is om echte concurrentie aan te bieden.
Intel heeft de doelstelling om die derde speler te worden. Twee spelers kunnen trouwens genoeg zijn voor een vrije markt (en volgens de ACM is het zelfs voldoende als 1 van die spelers slechts een zeer minderwaardig product kan aanbieden, maar die incompetente club moeten we maar niet geloven).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 24 mei 2022 @ 13:32:
die constante lockdowns in China moeten ook voor gigantische verstoring aan het zorgen zijn tot het punt dat ik me begin af te vragen hoe je daar nog iets moet produceren?
Ze schijnen daar nu in de fabrieken zelf te overnachten en in hotels in de buurt. Het scheelt dat de Chinezen nogal makkelijk te sturen/misbruiken zijn, dus die laten veel meer gebeuren dan wat wij zouden accepteren.

Het grotere probleem is de havens, al zorgt dat volgens mij vooral voor vertragingen en inflatie, niet zozeer dat de goederen helemaal niet bij ons aankomen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op woensdag 18 mei 2022 @ 22:26:
[...]


De leaks zijn vrij consistent in het afserveren van 3D-stacked geheugen en dat lijkt me ook logisch. Bij de 5800X3D zien we dat dit de warmteafvoer lijkt te beperken, waardoor ze de boost moeten verlagen. Juist bij GPU's zijn de 1% lows belangrijk (stutters) en de keuze voor veel cache om de lagere geheugenbandbreedte te compenseren zorgt er al voor dat de AMD kaarten relatieve slechte 1% lows hebben. Het versnellen van de cache met 3D-stacking ten koste van de boost zal in principe de 1% lows nog slechter maken.

Bij de 5800X3D hebben ze ook de conservatieve optie gekozen om dit toe te voegen aan een bestaande die, waardoor ze eens rustig kunnen zien hoe de markt reageert en voor welke workloads dit in de praktijk echt meerwaarde geeft. Die ervaring komt te laat om dit al aan de volgende generatie videokaarten toe te voegen.

Ik verwacht zelf dat ze eerst intern een beetje gaan experimenteren met 3D-stacking op de RDNA3 chips en dit hoogstens toevoegen aan een refresh van de 7900 als het goed blijkt te werken voor videokaarten. Door het apart zetten van de cache in RDNA3 is dit een perfect platform om met 3D-stacking te experimenteren en doordat 3D-cache grotendeels een packaging-techniek is, is het relatief makkelijk om dit in een refresh te stoppen.


[...]


En ik denk dat mensen er maar aan moeten wennen dat de hele range qua prijs een stapje omhoog is gegaan en dat ook nog een niveautje bij is gekomen.
Wat is het verschil dan volgens jou tussen 3D V-cache en een mcd, memory chiplet die? Ik denk dat ze juist gaan stapelen met Navi31 en Navi32. Het voordeel is dat er geen N5 verloren gaat aan L2 cache, voor AMD.

AMD's Infinity cache zagen we eerder aankomen dan nVidia's verdubbeling van hun shader CUDA cores, met de alles of niets FP32 INT truck. Dat lijkt nVidia nu weer flexibel te maken, maar RDNA3 verdubbelt ook de FP32 capaciteit, dus komt het weer vergelijkbaar uit.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 26 mei 2022 @ 16:36:
Wat is het verschil dan volgens jou tussen 3D V-cache en een mcd, memory chiplet die? Ik denk dat ze juist gaan stapelen met Navi31 en Navi32. Het voordeel is dat er geen N5 verloren gaat aan L2 cache, voor AMD.
Bij 3D V-cache zit de cache bovenop de processor. Ze maken eerst de processor met daarin verbindingen naar boven. Vervolgens schaven ze bovenkant superglad en plakken er vervolgens een cache-die op, die een supergladde onderkant heeft. Als metalen superglad zijn en elkaar raken, gedraagd het zich als 1 geheel, dus gaan de signalen supersnel heen en weer.

Bij de meeste chiplet ontwerpen zitten de dies naast elkaar ipv op elkaar. Dat heeft als nadeel dat de verbindingen minder goed zijn, maar als voordeel dat de dies hun warmte beter kwijt kunnen. De 5800X3D heeft dan ook een lagere clocksnelheid dan de 5800X, volgens mij vanwege warmteproblemen. De 3D-V-cache werkt als een soort dekentje over de processor heen, waardoor hij de warmte minder goed kwijt kan.

Ik betwijfel ook of het mogelijk is om 3D-stacking te doen met dies die met verschillende processen worden gemaakt.

Mijn verwachting is dat zowel Zen-4 als RDNA3 de dies naast elkaar hebben en geen 3D V-cache gaan hebben. Ze willen namelijk voor beide flink hogere kloksnelheden gaan halen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op donderdag 26 mei 2022 @ 22:20:
[...]


Bij 3D V-cache zit de cache bovenop de processor. Ze maken eerst de processor met daarin verbindingen naar boven. Vervolgens schaven ze bovenkant superglad en plakken er vervolgens een cache-die op, die een supergladde onderkant heeft. Als metalen superglad zijn en elkaar raken, gedraagd het zich als 1 geheel, dus gaan de signalen supersnel heen en weer.

Bij de meeste chiplet ontwerpen zitten de dies naast elkaar ipv op elkaar. Dat heeft als nadeel dat de verbindingen minder goed zijn, maar als voordeel dat de dies hun warmte beter kwijt kunnen. De 5800X3D heeft dan ook een lagere clocksnelheid dan de 5800X, volgens mij vanwege warmteproblemen. De 3D-V-cache werkt als een soort dekentje over de processor heen, waardoor hij de warmte minder goed kwijt kan.

Ik betwijfel ook of het mogelijk is om 3D-stacking te doen met dies die met verschillende processen worden gemaakt.

Mijn verwachting is dat zowel Zen-4 als RDNA3 de dies naast elkaar hebben en geen 3D V-cache gaan hebben. Ze willen namelijk voor beide flink hogere kloksnelheden gaan halen.
Die minder goede verbindingen lijken me bij een GPU toch wel cruciaal. Latency is a b*tch. Ik schaar me bij Coreteks, met zijn kritiek op een passive interposer om 6 memory chiplets and 1 compute chiplet te koppelen:
YouTube: Navi 31 has SEVEN chiplets?! Here’s how
Al die moeite doen voor chiplets, om vervolgens net zo veel of meer latency te krijgen dan met een monolitisch ontwerp. Dat zou niet logisch zijn.

Het kan in theorie nog steeds (en het is en blijft AMD), maar Robert Hallock gaf 1 grote hint weg over 3D V-cache:
YouTube: How It's Built: AMD 3D V-Cache Technology

"It's not just cache.. we can use this technology on. We can use hybrid bond 3D for more, than cache, it could be, GPUs, CPUs, memory, flash, the possibilities are endless, with this technology."

En er is nog een verschil: de 5800X had de verbindingen al, maar was qua warmte niet voor ontworpen voor 3D V-cache. Dat is iets wat RDNA3 in het ontwerp wel kan zijn, zeker als het om Navi31 en Navi32 gaat.

Ik zou me niet teveel blind staren op CPUs en de chiplet kennis die we daar van hebben. Deze technologie is nog niet eerder toegepast op GPUs, en vertikale gestapelde L2 cache zou de latency voor alle Compute Units / Workgroup Processors juist gelijk trekken, met dezelfde afstand tot L2, en in theorie nog betere bezetting dan RDNA2!

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zaterdag 28 mei 2022 @ 01:11:
[...]
Die minder goede verbindingen lijken me bij een GPU toch wel cruciaal. Latency is a b*tch.
Ja, al is de reden dat we nu multi-dies zien juist dat ze die latency erg hebben kunnen verlagen met de nieuwste verbindingstechnieken.

Robert Hallock van AMD heeft aangegeven dat hun 3D V-cache nog niet zo volwassen is en beperkingen oplegt qua voltage en kloksnelheden, maar dat ze hebben besloten om die nu al toe te passen. Voor de 5800X3D, die snelle cache heeft maar lagere clocks, zien we dat die vooral erg goed is voor mensen met een ouder (duur) AMD moederbord en relatief langzaam geheugen. Die geheugen-bottleneck, die toch al groter is bij Ryzen, wordt door de cache grotendeels opgelost. Met een modern moederbord en snel geheugen is die chip echter niet zo logisch en kun je meestal beter de hogere clocks van de 5950X hebben.

Die use case voor de 5800X3D is minder relevant voor GPUs, want daar is het geheugen juist erg snel, dus valt de keus voor (nog) snellere cache of hogere clocks veel meer uit in het voordeel van het laatste. Bovendien zou het toepassen van de 3D V-cache beperkingen opleggen wat betreft het OCen van de GPUs, terwijl de AIBs zoals ASUS juist hun geld verdienen met met GPU overclocks.
Al die moeite doen voor chiplets, om vervolgens net zo veel of meer latency te krijgen dan met een monolitisch ontwerp. Dat zou niet logisch zijn.
Wel als je kijkt naar productiekosten en -volume. De veel kleinere 5nm compute units hebben substantieel betere yields en de 6nm IO/cache dies gaan niet ten koste van de productieruimte op 5nm die ze hebben ingekocht.

Bovendien geeft het heel veel flexibiliteit om te variëren met de hoeveelheid cache, VRAM en bandbreedte naar de VRAM (die laatste twee zijn gekoppeld).

Vrijwel dezelfde of iets meer latency lijkt me een prima prijs om te betalen voor deze voordelen.
"It's not just cache.. we can use this technology on. We can use hybrid bond 3D for more, than cache, it could be, GPUs, CPUs, memory, flash, the possibilities are endless, with this technology."
Mijn interpretatie van het stuk dat je bold gemaakt hebt is eerder dat ze denken dat ze later een GPU op een CPU kunnen plakken. Met andere woorden, dat ze zo een APU maken, bijvoorbeeld voor de Playstation 6.
En er is nog een verschil: de 5800X had de verbindingen al, maar was qua warmte niet voor ontworpen voor 3D V-cache. Dat is iets wat RDNA3 in het ontwerp wel kan zijn, zeker als het om Navi31 en Navi32 gaat.
Ik denk niet dat het zo makkelijk is. Volgens mij zijn ze gewoon nog niet zover qua techniek.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op zaterdag 28 mei 2022 @ 11:51:
[...]


Ja, al is de reden dat we nu multi-dies zien juist dat ze die latency erg hebben kunnen verlagen met de nieuwste verbindingstechnieken.
De nieuwste verbindingstechnieken, zoals hybrid bond 3D, niet een gewone interposer en 2D met elkaar verbinden.
Ludewig schreef op zaterdag 28 mei 2022 @ 11:51:
Robert Hallock van AMD heeft aangegeven dat hun 3D V-cache nog niet zo volwassen is en beperkingen oplegt qua voltage en kloksnelheden, maar dat ze hebben besloten om die nu al toe te passen. Voor de 5800X3D, die snelle cache heeft maar lagere clocks, zien we dat die vooral erg goed is voor mensen met een ouder (duur) AMD moederbord en relatief langzaam geheugen. Die geheugen-bottleneck, die toch al groter is bij Ryzen, wordt door de cache grotendeels opgelost. Met een modern moederbord en snel geheugen is die chip echter niet zo logisch en kun je meestal beter de hogere clocks van de 5950X hebben.
Voor productiviteit, misschien, maar voor games kan de 5800X3D zich prima meten met de 5950X. De beperkingen qua voltage en kloksnelheden zou ik graag een bronvermelding van zien. Wanneer heeft Robert Hallock dat gezegd en in welke context?
Ludewig schreef op zaterdag 28 mei 2022 @ 11:51:
Die use case voor de 5800X3D is minder relevant voor GPUs, want daar is het geheugen juist erg snel, dus valt de keus voor (nog) snellere cache of hogere clocks veel meer uit in het voordeel van het laatste. Bovendien zou het toepassen van de 3D V-cache beperkingen opleggen wat betreft het OCen van de GPUs, terwijl de AIBs zoals ASUS juist hun geld verdienen met met GPU overclocks.
Hier doe je de aanname dat clocks belangrijker zijn dan cache, maar mijn bewering was dat latency belangrijk is. De vraag is dan, zijn clocks belangrijker dan latency? Ik denk dat ze allebei belangrijk zijn. Je stelt 3D V-Cache automatisch gelijk staat aan meer warmte en automatisch lagere clocks, maar ik denk dat dat afhangt van het ontwerp.
Ludewig schreef op zaterdag 28 mei 2022 @ 11:51:
Wel als je kijkt naar productiekosten en -volume. De veel kleinere 5nm compute units hebben substantieel betere yields en de 6nm IO/cache dies gaan niet ten koste van de productieruimte op 5nm die ze hebben ingekocht.

Bovendien geeft het heel veel flexibiliteit om te variëren met de hoeveelheid cache, VRAM en bandbreedte naar de VRAM (die laatste twee zijn gekoppeld).

Vrijwel dezelfde of iets meer latency lijkt me een prima prijs om te betalen voor deze voordelen.
Je zegt dat chiplets prijs-technisch hoe dan ook verstandig zijn, ook al zou er flink latency performance verlies zijn. Ik denk daarentegen dat AMD de beste latency technieken zal toepassen als ze voor chiplets gaan, omdat performance per gemaakte kosten ook belangrijk is.

Oh, en die flexibiliteit die je noemt, krijg je net zo goed met 3D als met 2D.
Ludewig schreef op zaterdag 28 mei 2022 @ 11:51:
Mijn interpretatie van het stuk dat je bold gemaakt hebt is eerder dat ze denken dat ze later een GPU op een CPU kunnen plakken. Met andere woorden, dat ze zo een APU maken, bijvoorbeeld voor de Playstation 6.
[...]


Ik denk niet dat het zo makkelijk is. Volgens mij zijn ze gewoon nog niet zover qua techniek.
Als we kijken naar de APU ontwerpen, dan zijn die juist 2D. Ik weet niet of je 2 compute chiplets (CPU + GPU) verticaal wil stacken, dat zijn nu juist de meest warmte producerende elementen. Cache produceert aanzienlijk minder warmte. Dat 5800X z'n warmte niet makkelijk kwijt kan, wil nog niet zeggen dat RDNA3 ook z'n warmte niet makkelijk kwijt zal kunnen.

We hebben gewoon niks om het mee te vergelijken, en zijn heerlijk aan het speculeren :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zaterdag 28 mei 2022 @ 22:43:
[...]
Wanneer heeft Robert Hallock dat gezegd en in welke context?
https://www.techspot.com/...5800x3d-overclocking.html
Hier doe je de aanname dat clocks belangrijker zijn dan cache, maar mijn bewering was dat latency belangrijk is. De vraag is dan, zijn clocks belangrijker dan latency? Ik denk dat ze allebei belangrijk zijn. Je stelt 3D V-Cache automatisch gelijk staat aan meer warmte en automatisch lagere clocks, maar ik denk dat dat afhangt van het ontwerp.
Die eerste zin komt niet overeen met wat ik echt geschreven heb. En nogmaals, AMD zegt zelf dat 3D V-cache de voltages beperkt en dat ze daardoor geen hogere clocks kunnen garanderen (al zou je met de silicon lottery dat soms wel kunnen halen).

Als ze dit ondertussen opgelost hebben, zou ik niet verwachten dat Hallock dit zo zou zeggen.
Je zegt dat chiplets prijs-technisch hoe dan ook verstandig zijn, ook al zou er flink latency performance verlies zijn.
Ik heb nooit gezegd dat er een flink slechtere latency zou zijn. Dat verwacht ik niet. Alleen niet een veel betere latency, die je krijgt bij het toepassen van 3D.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op zondag 29 mei 2022 @ 00:02:
[...]


https://www.techspot.com/...5800x3d-overclocking.html


[...]


Die eerste zin komt niet overeen met wat ik echt geschreven heb. En nogmaals, AMD zegt zelf dat 3D V-cache de voltages beperkt en dat ze daardoor geen hogere clocks kunnen garanderen (al zou je met de silicon lottery dat soms wel kunnen halen).

Als ze dit ondertussen opgelost hebben, zou ik niet verwachten dat Hallock dit zo zou zeggen.


[...]


Ik heb nooit gezegd dat er een flink slechtere latency zou zijn. Dat verwacht ik niet. Alleen niet een veel betere latency, die je krijgt bij het toepassen van 3D.
Voor de 5800X3D ja, niet voor 3D V-cache technologie in het algemeen.
Ik verwacht wel flink slechtere latency met een 2D ontwerp.
Denk niet dat we het eens gaan worden, maar dat is het mooie van speculeren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Laatste geruchten:

RTX 4090 in Augustus
126/144 SMs
TDP 450W
24GB GDDR6X 384-bit
96MB L2 cache

RTX 4080 in September
?/84 SMs
TDP ?
16GB GDDR6X 256-bit
64MB L2 cache

RTX 4070 in Oktober
?/60 SMs
TDP ?
12GB GDDR6X 192-bit
48MB L2 cache

https://videocardz.com/ne...r-and-rtx-4070-in-october
https://videocardz.com/ne...vidias-own-infinity-cache

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op woensdag 1 juni 2022 @ 13:47:
Laatste geruchten:

RTX 4090 in Augustus
126/144 SMs
TDP 450W
24GB GDDR6X 384-bit
96MB L2 cache

RTX 4080 in September
?/84 SMs
TDP ?
16GB GDDR6X 256-bit
64MB L2 cache

RTX 4070 in Oktober
?/60 SMs
TDP ?
12GB GDDR6X 192-bit
48MB L2 cache

https://videocardz.com/ne...r-and-rtx-4070-in-october
https://videocardz.com/ne...vidias-own-infinity-cache
En nu suggereren ze dus dat elke tier zijn eigen chip krijgt.
Op zich geloofwaardig en de specificaties zijn ook allang bekend door die hack. Het zou ook betekenen dat er een fors verschil tussen een xx80 en xx90 zou ontstaan als deze specificaties wel kloppen. En dat is een grote als. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het zou ook betekenen dat er een fors verschil tussen een xx80 en xx90 zou ontstaan als deze specificaties wel kloppen. En dat is een grote als.
Wat op zich positief zou zijn, en dan zou een potentiële 4080 Ti veel logischer zijn dan de huidige 3080 Ti.

March of the Eagles


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
XWB schreef op woensdag 1 juni 2022 @ 14:52:
[...]


Wat op zich positief zou zijn, en dan zou een potentiële 4080 Ti veel logischer zijn dan de huidige 3080 Ti.
Of dat positief is hangt natuurlijk van de prijs verschillen af. Momenteel heeft een RTX 3090 'maar' +-20% meer SM's dan een RTX 3080 en is een RTX 3080 voor de consument een mooie koop vergeleken met de hoger gepositioneerde Sku's als je die 3080 voor een goede prijs hebt weten te kopen. Als die geruchten kloppen en we gaan uit van 84 voor de RTX 4080 en 126 voor RTX 4090 zou dat oplopen tot 50% of zelfs nog meer zou de RTX 4080 niet de volle die krijgen uit de geruchten.

Wat inderdaad meer ruimte laat voor segmentatie dan eigenlijk bij Ampere het geval was, maar segmentatie zoals deze is over het algemeen vaak juist niet positief voor de consument.

[ Voor 14% gewijzigd door Dennism op 01-06-2022 15:14 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 1 juni 2022 @ 15:08:
[...]


Of dat positief is hangt natuurlijk van de prijs verschillen af. Momenteel heeft een RTX 3090 'maar' +-20% meer SM's dan een RTX 3080 en is een RTX 3080 voor de consument een mooie koop vergeleken met de hoger gepositioneerde Sku's als je die 3080 voor een goede prijs hebt weten te kopen. Als die geruchten kloppen en we gaan uit van 84 voor de RTX 4080 en 126 voor RTX 4090 zou dat oplopen tot 50% of zelfs nog meer zou de RTX 4080 niet de volle die krijgen uit de geruchten.

Wat inderdaad meer ruimte laat voor segmentatie dan eigenlijk bij Ampere het geval was, maar segmentatie zoals deze is over het algemeen vaak juist niet positief voor de consument.
Precies ja. En als ik zie dat Nvidia al officieel $600 vroeg voor de RTX3070Ti, dan zie ik ze op deze manier een vergelijkbaar bedrag vragen voor de "RTX4070"/AD104. En dan zitten we in traditioneel high end prijzen voor de traditioneel upper midrange SKU. Durf niet eens te bedenken wat ze dan vragen voor AD103 of AD102.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op woensdag 1 juni 2022 @ 15:08:
[...]


Of dat positief is hangt natuurlijk van de prijs verschillen af. Momenteel heeft een RTX 3090 'maar' +-20% meer SM's dan een RTX 3080 en is een RTX 3080 voor de consument een mooie koop vergeleken met de hoger gepositioneerde Sku's als je die 3080 voor een goede prijs hebt weten te kopen. Als die geruchten kloppen en we gaan uit van 84 voor de RTX 4080 en 126 voor RTX 4090 zou dat oplopen tot 50% of zelfs nog meer zou de RTX 4080 niet de volle die krijgen uit de geruchten.

Wat inderdaad meer ruimte laat voor segmentatie dan eigenlijk bij Ampere het geval was, maar segmentatie zoals deze is over het algemeen vaak juist niet positief voor de consument.
Ik vind vooral de 3080 Ti een onzinnig product omdat de 3090 al amper sneller is dan de 3080. Vanuit prijsperspectief snap ik het wel, maar niet vanuit performance perspectief.

Ik denk dat een Ti pas zinvol is als prijs én performance te verantwoorden zijn. Voor de 4080 en 4090 lijkt dat deze keer wel het geval te kunnen zijn.

March of the Eagles


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
AD103 zal GA102 (3080) performance geven of beter. Pricing $499 ipv $699?
AD104 zal GA103 (3070) performance geven of beter. Pricing $399 ipv $499?

AD102 kan variëren van $699 tot $1499, tenzij ze verliezen van AMD, dan blijven ze onder de Navi31 prijs, whatever that may be.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02:06
Prijstechnisch heeft de consument de afgelopen jaren bewezen maar al te graag veel geld neer te tellen voor een GPU, de bekende consoles zijn nog altijd niet (normaal) leverbaar en we hoeven ook geen gigantische oplagen te verwachten op 5nm. Oftewel bij de aankondiging was een 3080 best goed geprijsd voor wat je er uiteindelijk voor kocht (voor zij die er op de dag van release snel bij waren), maar dit jaar zie ik het wel heel somber in. De goedkoopste 3080 is nog altijd duurder dan wat ik er op launch voor heb betaald (en dat was een 'premium' geprijsd model) en inmiddels wordt heel GPU land opgekocht voor de doorverkoop, dus ik zie voor Nvidia en AMD 0 reden om ook maar in de buurt te komen van die prijzen @sunsmountain.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Paprika schreef op woensdag 1 juni 2022 @ 19:02:
Prijstechnisch heeft de consument de afgelopen jaren bewezen maar al te graag veel geld neer te tellen voor een GPU, de bekende consoles zijn nog altijd niet (normaal) leverbaar en we hoeven ook geen gigantische oplagen te verwachten op 5nm. Oftewel bij de aankondiging was een 3080 best goed geprijsd voor wat je er uiteindelijk voor kocht (voor zij die er op de dag van release snel bij waren), maar dit jaar zie ik het wel heel somber in. De goedkoopste 3080 is nog altijd duurder dan wat ik er op launch voor heb betaald (en dat was een 'premium' geprijsd model) en inmiddels wordt heel GPU land opgekocht voor de doorverkoop, dus ik zie voor Nvidia en AMD 0 reden om ook maar in de buurt te komen van die prijzen @sunsmountain.
Ik snap je pessimisme, maar geef het nog een paar maandjes als de crypto bubbel barst.

Scalpers zullen er altijd zijn, zeker de eerste paar maanden, maar daarna werd de prijs bepaald door miners niet door gamers en ook niet door scalpers. Dat blijkt uit de sterke correlatie tussen prijs en crypto winstgevendheid.

Sinds April dit jaar wordt de GPU prijs weer bepaald door gamers, wat blijkt uit de correlatie tussen prijs en FPS performance. Voor alle modellen met MSRP onder de $/€1000, de 3080Ti, 3090 en 3090 Ti blijven natuurlijk idioot qua prijs en wijken af.

Er is nog wel een achterstand aan gamer vraag in te halen, waardoor de huidige €/$ per FPS hoger is dan normaal in de cyclus. De 3080 (en 6800 XT) hebben gewoon goeie prijs/performance, daardoor zijn ze nog duurder dan hun MSRP.

Je hoeft het niet eens te zijn met mijn conclusie, maar de markt volgt meer vraag en aanbod, en minder "de geschiedenis".

[ Voor 3% gewijzigd door sunsmountain op 02-06-2022 10:28 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Hoop dat SLI op moederborden ook snel doodgaat; om nog een premium te betalen voor iets wat nauwelijks gebruikt wordt staat mij tegen.
Bij mijn volgende moederbord aankoop neem ik mee dat er geen SLI op zit. Gelukkig is het aantal opties met SLI ook steeds minder.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op woensdag 1 juni 2022 @ 20:49:
[...]


Ik snap je pessimisme, maar geef het nog een paar maandjes als de crypto bubbel barst.

Scalpers zullen er altijd zijn, zeker de eerste paar maanden, maar daarna werd de prijs bepaald door miners niet door gamers en ook niet door scalpers. Dat blijkt uit de sterke correlatie tussen prijs en crypto winstgevendheid.

Sinds April dit jaar wordt de GPU prijs weer bepaald door gamers, wat blijkt uit de correlatie tussen prijs en FPS performance. Voor alle modellen met MSRP onder de $/€1000, de 3080Ti, 3090 en 3090 Ti blijven natuurlijk idioot qua prijs en wijken af.

Er is nog wel een achterstand aan gamer vraag in te halen, waardoor de huidige €/$ per FPS hoger is dan normaal in de cyclus. De 3080 (en 6800 XT) hebben gewoon goeie prijs/performance, daardoor zijn ze nog duurder dan hun MSRP.

Je hoeft het niet eens te zijn met mijn conclusie, maar de markt volgt meer vraag en aanbod, en minder "de geschiedenis".
Staat alleen het volgende tegenover. Wie moet die videokaarten maken en hoe moeten ze precies in Europa arriveren?

offtopic:
Alles wordt in China gemaakt in een grootschalig, lokaal systeem met de nadruk op efficiëntie door verticale integratie. Dat systeem is de afgelopen maanden even stilgelegd door de gigantische lockdowns in China. En wat er nog wel geproduceerd werd, kon het land niet uit omdat de grote havensteden ook op slot waren.

Ook is de Chinese demografische instorting nu echt aan het beginnen. Komt nog eens bij dat er blijkbaar ook twijfels zijn over China hun werkelijke bevolkingsaantallen. Want als ze die ook hebben opgepoetst zoals ze met elke andere statistiek doen, dan kan die demografische instorting echt dramatisch gaan worden. Daarmee bedoel ik dat er over 30 jaar de helft van de bevolking weg is. De loonslaven in China zijn gewoon op. Hierom vertrekken bedrijven ook uit China en als ze het nog niet van plan waren, dan gaan ze wel nadat een deel van hun personeel, twee maanden opgesloten zaten in hun appartement in Shanghai en al hun productie stillag of het land niet uit kon omdat de "grote leider" met debiel beleid kwam dat op stupide manier word uitgevoerd.

Nu lijkt Shenzen ontzien te zijn om maar te blijven produceren, maar de haven van Hong Kong was ook een tijd versperd. Het was dus minder dramatisch dan andere sectoren, maar ook verre van ideaal, stabiel of betrouwbaar.

Ondertussen is een container verschepen ook maar iets van 5x zo duur geworden de afgelopen twee jaar. En dit is data voor de lockdown en het olie embargo. Want schijnbaar liggen er ook enorme hoeveelheden containers in Noord-Amerika en Europa, wat de situatie niet zal doen verbeteren.
https://www.statista.com/...-container-freight-rates/

Hebben we het nog niet gehad over het Russische olie-embargo. Want wie moet die olie nu kopen? Niemand zal nog naar Novorossiejsk durven te varen omdat het een defacto oorlogsgebied is geworden en je die schepen niet verzekerd krijgt. Ook niet tegen eventuele in beslagname door de Russen als vergelding. De meeste pijpleidingen die naar Europa lopen, gaan ook offline en St. Petersburg ligt ver uit de route voor de rest van de wereld. Het resultaat is dat Rusland de meeste olie helemaal niet meer kwijt zal kunnen en op een gegeven moment moeten die dan de putten die ze met westerse technologie en hulp hebben aangelegd en openhouden, dan sluiten. Hoe ik het heb begrepen, krijg je die putten nooit meer open door de permafrost en kunnen ze die zelf ook niet opnieuw maken. En dat is waarschijnlijk het einde van de een van de grootste olieproducenten van de wereld die juist aan Europa levert.

Nu overleven we dit wel omdat we Europa zijn en uiteindelijk iedereen eruit kunnen bieden op de krappe markt die ontstaat. Vanuit de EU zullen ze gewoon naar Nigeria, Angola, Mexico, Brazilië etc gaan en zeggen, we kopen de hele productie. Landen zoals Japan, Zuid-Korea en Taiwan zullen ondersteund worden door de VS vanuit strategisch oogpunt en India kan daar ook wat steun uit verwachten. En zo zal de rekening worden neergelegd bij het ene land zonder vrienden, China. Daar moeten ze hopen dat met name de OPEC de productie fors wil opvoeren en dus Rusland ook uit de OPEC gegooid zal worden. En dat kan zomaar neer gaan komen op forse economische verstoring omdat transport onmogelijk word en dus shutdown. Dat drijft de prijs vervolgens weer op van productie.

Heel ander probleem is de transportprijs die alleen maar zal oplopen omdat Russische olie offline gaat.

En daarnaast is er ook nog de hele lijst van:
-N5 waferkosten
-Duurdere PCB's vanwege bezopen TDP's etc
-R&D kosten van de ontwikkelrace die begonnen lijkt te zijn
-Winstbejag van AMD en Nvidia
-Bereidheid van mensen om veel meer te betalen
-Euro die inzakt ten opzichte van de dollar

Ik hou er al rekening mee dat zoiets als de volle AD103 of Navi 32 chips al naar de $1000 gaat. En in Europa's zit je dan over de €1000 nadat je BTW erbij optelt.

Ik hoop dat het mee gaat vallen en het "maar" iets van $700/€800 gaat zijn, maar ik durf er eigenlijk nauwelijks meer op te hopen. Ik heb me allang neergelegd bij wat gaat komen en ik zie wel wat ze nu echt gaan doen. En als het inderdaad klopt dat AD102 en Navi 31, ruim 2x over GA102/Navi 21 presteren en AD103/Navi 32 ook ruim sneller dan GA102/Navi 21, dan maakt een crypto instorting ook weinig meer uit. Immers veel hogere prestatieniveau dan een oude videokaart.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • meljor
  • Registratie: November 2004
  • Laatst online: 14-12 18:01
Ruim 2x de prestatie van de vorige generatie is al vaak geroepen sinds de eerste 3d kaart en echt maar zeer zelden waargemaakt.

Ik moet het nog zien.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
DaniëlWW2 schreef op donderdag 2 juni 2022 @ 15:10:
[...]

Staat alleen het volgende tegenover. Wie moet die videokaarten maken en hoe moeten ze precies in Europa arriveren?

offtopic:
Alles wordt in China gemaakt in een grootschalig, lokaal systeem met de nadruk op efficiëntie door verticale integratie. Dat systeem is de afgelopen maanden even stilgelegd door de gigantische lockdowns in China. En wat er nog wel geproduceerd werd, kon het land niet uit omdat de grote havensteden ook op slot waren.

Ook is de Chinese demografische instorting nu echt aan het beginnen. Komt nog eens bij dat er blijkbaar ook twijfels zijn over China hun werkelijke bevolkingsaantallen. Want als ze die ook hebben opgepoetst zoals ze met elke andere statistiek doen, dan kan die demografische instorting echt dramatisch gaan worden. Daarmee bedoel ik dat er over 30 jaar de helft van de bevolking weg is. De loonslaven in China zijn gewoon op. Hierom vertrekken bedrijven ook uit China en als ze het nog niet van plan waren, dan gaan ze wel nadat een deel van hun personeel, twee maanden opgesloten zaten in hun appartement in Shanghai en al hun productie stillag of het land niet uit kon omdat de "grote leider" met debiel beleid kwam dat op stupide manier word uitgevoerd.

Nu lijkt Shenzen ontzien te zijn om maar te blijven produceren, maar de haven van Hong Kong was ook een tijd versperd. Het was dus minder dramatisch dan andere sectoren, maar ook verre van ideaal, stabiel of betrouwbaar.

Ondertussen is een container verschepen ook maar iets van 5x zo duur geworden de afgelopen twee jaar. En dit is data voor de lockdown en het olie embargo. Want schijnbaar liggen er ook enorme hoeveelheden containers in Noord-Amerika en Europa, wat de situatie niet zal doen verbeteren.
https://www.statista.com/...-container-freight-rates/

Hebben we het nog niet gehad over het Russische olie-embargo. Want wie moet die olie nu kopen? Niemand zal nog naar Novorossiejsk durven te varen omdat het een defacto oorlogsgebied is geworden en je die schepen niet verzekerd krijgt. Ook niet tegen eventuele in beslagname door de Russen als vergelding. De meeste pijpleidingen die naar Europa lopen, gaan ook offline en St. Petersburg ligt ver uit de route voor de rest van de wereld. Het resultaat is dat Rusland de meeste olie helemaal niet meer kwijt zal kunnen en op een gegeven moment moeten die dan de putten die ze met westerse technologie en hulp hebben aangelegd en openhouden, dan sluiten. Hoe ik het heb begrepen, krijg je die putten nooit meer open door de permafrost en kunnen ze die zelf ook niet opnieuw maken. En dat is waarschijnlijk het einde van de een van de grootste olieproducenten van de wereld die juist aan Europa levert.

Nu overleven we dit wel omdat we Europa zijn en uiteindelijk iedereen eruit kunnen bieden op de krappe markt die ontstaat. Vanuit de EU zullen ze gewoon naar Nigeria, Angola, Mexico, Brazilië etc gaan en zeggen, we kopen de hele productie. Landen zoals Japan, Zuid-Korea en Taiwan zullen ondersteund worden door de VS vanuit strategisch oogpunt en India kan daar ook wat steun uit verwachten. En zo zal de rekening worden neergelegd bij het ene land zonder vrienden, China. Daar moeten ze hopen dat met name de OPEC de productie fors wil opvoeren en dus Rusland ook uit de OPEC gegooid zal worden. En dat kan zomaar neer gaan komen op forse economische verstoring omdat transport onmogelijk word en dus shutdown. Dat drijft de prijs vervolgens weer op van productie.

Heel ander probleem is de transportprijs die alleen maar zal oplopen omdat Russische olie offline gaat.

En daarnaast is er ook nog de hele lijst van:
-N5 waferkosten
-Duurdere PCB's vanwege bezopen TDP's etc
-R&D kosten van de ontwikkelrace die begonnen lijkt te zijn
-Winstbejag van AMD en Nvidia
-Bereidheid van mensen om veel meer te betalen
-Euro die inzakt ten opzichte van de dollar

Ik hou er al rekening mee dat zoiets als de volle AD103 of Navi 32 chips al naar de $1000 gaat. En in Europa's zit je dan over de €1000 nadat je BTW erbij optelt.

Ik hoop dat het mee gaat vallen en het "maar" iets van $700/€800 gaat zijn, maar ik durf er eigenlijk nauwelijks meer op te hopen. Ik heb me allang neergelegd bij wat gaat komen en ik zie wel wat ze nu echt gaan doen. En als het inderdaad klopt dat AD102 en Navi 31, ruim 2x over GA102/Navi 21 presteren en AD103/Navi 32 ook ruim sneller dan GA102/Navi 21, dan maakt een crypto instorting ook weinig meer uit. Immers veel hogere prestatieniveau dan een oude videokaart.
offtopic:
Ah, ben je ook fan van Peter Zeihan, een van de weinige analysten die de oorlog door Rusland voorspeld had? Hij is een geopolitieke analyst die zich baseert op export/import data, demografie, neutrale cijfers, tikkeltje arrogant maar nogal VS-centrisch wereldbeeld. (Geen gratis vliegdekschepen en militaire steun meer tegen de Russen dus de rest van de wereld gaat allemaal oorlog voeren net als vroeger).


Anyway, in reactie op je off-topic argumenten, die ik voor het gemak even heb samengevat:
transportkosten hoog want pandemie
Transportkosten moet je delen door # kaarten, deze gelden ook in huidige markt en toch wordt er geshipt, hoe komt dat? De huidige inventaris (paarsige stippellijn) is hoog volgens 3DCenter, Duitse markt, +2% MSRP AMD en +6% nVidia, uiteraard 3080 en 6800 XT hoger eerder 20% en meeste andere kaarten op of lager dan MSRP.
https://cdn.videocardz.co...ce-Trend-2021-2022-v8.png

Afbeeldingslocatie: https://tweakers.net/i/3qWjtzRKXp0aDNYK5Q5w5dStGtk=/800x/filters:strip_exif()/f/image/ExWZiCWDnPC5TFbak6R3awwh.png?f=fotoalbum_large
Deze grafiek laat trouwens ook goed vanaf Jan 2021 het verband zien tussen Ethereum winstgevendheid (in geel, slecht zichtbaar helaas), en de videokaart prijzen (rood en groen) die daar, tot Maart dit jaar, als makke lammetjes achteraan hobbelden.
productiekosten hoog want China lockdown
Behalve dat Shenzen al weer open is, vermoed ik dat bedrijven vriendjes hebben bij de regering waardoor ze door kunnen werken. Hongersnood gaat dit jaar zeker een factor zijn, maar dan moeten de Chinezen misschien dit najaar rijst eten in plaats van varkentjes. Varkentjes zijn lief. }:O :o
transportkosten nog hoger want olie
Wederom dit moet je delen door het aantal # kaarten. Dit zal per kaart, van $10 naar $30 gaan, worst case? Kosten waren al 5x zo hoog geworden zeg je zelf, heeft dat gezorgd voor het stoppen van shippen? Nee.
productiekosten hoog want China stort in
Het compleet instorten van China zal nog wel even duren. Productie is al naar andere (lage loonkosten) landen (Vietnam, Maleisië, Thailand, etc.) aan het bewegen en zelfs terug naar de VS en Europa voor de EUV chips om minder afhankelijk te zijn van Taiwan. China kan niet iets wat de rest van de wereld niet zou kunnen. Zowel qua fabrieken als qua loonkosten niet.

Het meeste van de genoemde effecten, daar houdt de huidige markt al rekening mee voor de huidige prijzen. Qua toekomstige prijzen, ook daar speelt de markt nu al op in, door vroegtijdig in te kopen, grondstoffen bijvoorbeeld.

Dan in reactie op het on-topic lijstje van je argumenten dat de videokaart prijs omhoog zal gaan:
  • N5 waferkosten: tientjeswerk. Bovendien, price per N5 chip is net zo duur als een N7 chip en lager dan een N10 chip. https://cdn.mos.cms.futur...CC6A6Gn4JE38Hc-970-80.jpg
  • duurder pcb's: tientjeswerk.
  • R&D: onderdeel van de N5 waferkosten, zie hierboven.
  • winstbejag: De markt vraag & aanbod dicteert uiteindelijk de prijs. Niet de MSRP van AMD en nVidia. Zie huidige markt ter bewijs: eerst bepaalde de scalpers de prijs, toen de miners, en nu de gamers.
  • bereidheid mensen: die vraag en bereidheid was/is afhankelijk van het huidige aanbod. Dat kan en zal wijzigen, zoals het ook gedaan heeft.
  • het zwakke euro sterke USD argument (twijfelachtig op lange termijn, maar ok een korte termijn effect tijdens oorlog): als de EUR zakt, dan zakken de RMB, KRW en andere Aziatische currencies relatief ook ten opzichte van de USD en aangezien daar in gehandeld wordt bij elke ruil, streept dat verlies tegen elkaar weg.
Afbeeldingslocatie: https://tweakers.net/i/RvmUHPlWHE5WC3jjBh-uZFoPlUk=/800x/filters:strip_icc():strip_exif()/f/image/UDg4KndEMxjr33fr2HaCfpnx.jpg?f=fotoalbum_large

Voor de duidelijkheid: ik ben niet blij dat de wereld een toekomst tegemoet gaat met duurdere energiekosten, duurder voedsel, globale hongersnood dit najaar vooral in de arme landen en voor de 20% Nederlanders die schulden hebben, duurdere grondstoffen dus vergeet de transitie naar zonnepanelen of elektrische auto's maar zonder Rusland, het permanent wegvallen van miljoenen vaten olie door permafrost, etc. etc.

Toch ben ik specifiek voor videokaarten nog steeds optimistisch wegens het binnenkort barsten van de cryptobubbel, zoals de cryptobubbel eerder al een keer gebarsten was, met koopjes tot gevolg. De nieuwe generatie RTX4xxx en RX7xxx krijgen er misschien $50 "across the board" bij door de effecten die je noemt, maar ik geloof niet dat AD103 duurder gaat worden dan GA102, qua MSRP. Navi31 en Navi32 ben ik minder zeker van de prijs, maar Navi33 gaat onder Navi21 zitten qua prijs.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • SG
  • Registratie: Januari 2001
  • Laatst online: 18-12 07:13

SG

SG surft naar info hardewaren

De crypto bubbel is al gebarsten etherium is niet meer interessant, maar ja etherium is ooit opgedoken als de next gpgpu mining coin. Kan elk moment een nieuwe munt die rol overnemen.

En ja de leidende reden is vraag vs aanbod en waarom is niet relevant aangezien je er geen ruk aan kan doen.
Ipv elke gen upgraden is gen overslaan of twee goed te doen. En kan upgrade moment timen met goede verkrijgbaarheid binnen crypto crash periode wat binnen 5 jaar periode wel voorkomt ook dat nextgen memory normale straatprijzen krijgt.
Dus dit eind van jaar zul je genekt worden door scalpers en zal begin volgend jaar afhankelijk wat crypto ddr5 mem prijzen doet en scalper periode voorbij is normale met inflatie straatprijzen en redelijke verkrijgbaarheid een g-kaart of pc kunnen samen stellen.
Ik sta niet te springen om zen1 TR met Vega56 upgraden.
Misschien g-kaart 7700 ofzo

Daarnaast performance verdubbeld grof over de gehele lijn. Game development volgt mainstream target wat langzaam gaat. Houd in dat na upgrade stuk deftiger kan gamen. De meeste nextgen game gaan niet direct mee in performance eisen om simple reden volumesales dus die intel 10th of zen1 gebruiker met 1060 is belangrijker want mainstream zit bulk van de sales. Ben je 3 jaar verder eer dat verschuift naar 3060 als enkele zielen 100000 met 5090ti zijn tegen kwart miljard verspreid over 3 a 4 gens en low en midrange hardware.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De referentie RTX 4090 krijgt een forse koeler :p







[ Voor 27% gewijzigd door XWB op 09-06-2022 22:28 ]

March of the Eagles


  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 00:24
Dit lees ik net en is denk ik wel boeiend om te delen?

https://www.guru3d.com/ne...es-have-been-delayed.html

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 20-12 19:11
Veel current gen gpus hebben al drie fans. Weinig verandering daarin. Verbruik wordt interessant.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Gaat vooral over de datacenter strategie en focus hierop:

[ Voor 68% gewijzigd door Help!!!! op 15-06-2022 17:24 ]

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op zondag 29 mei 2022 @ 00:02:
[...]


https://www.techspot.com/...5800x3d-overclocking.html


[...]


Die eerste zin komt niet overeen met wat ik echt geschreven heb. En nogmaals, AMD zegt zelf dat 3D V-cache de voltages beperkt en dat ze daardoor geen hogere clocks kunnen garanderen (al zou je met de silicon lottery dat soms wel kunnen halen).

Als ze dit ondertussen opgelost hebben, zou ik niet verwachten dat Hallock dit zo zou zeggen.


[...]


Ik heb nooit gezegd dat er een flink slechtere latency zou zijn. Dat verwacht ik niet. Alleen niet een veel betere latency, die je krijgt bij het toepassen van 3D.
Het lijkt er op dat RDNA3 toch verticaal ge-stackte chiplets krijgt (tenzij je dit een plaatje van een kopieermachine vindt):

Afbeeldingslocatie: https://tweakers.net/i/aDRt066zRFF_Qwqk8pWUGs6XCYQ=/800x/filters:strip_icc():strip_exif()/f/image/LtpDDRz3sj0wQla3MkxHgGNz.jpg?f=fotoalbum_large

Maar dit hoort in het Radeon topic thuis, niet nVidia zie ik nu :) ik zal hem daar straks opnieuw posten.

Iets relevants voor het nVidia topic: Voor de nieuwe RTX 4090 Ti (max model) heb je waarschijnlijk 600W nodig, en dus het liefst een ATX v3.0 compliant 600W (ook wel PCIe Gen 5 genoemd) 12VHPWR kabel, zodat je videokaart zich niet in hoeft te houden.

Wist je dat:
  1. de huidige voedingen van FSP, ASUS en Gigabyte mèt een PCIe Gen 5 kabel, niet ATX v3.0 compliant zijn?1)
  2. je voor 600W waterkoeling nodig hebt? De limiet voor luchtkoeling is 450W.2)
  3. dat met name de piekbelasting lastig gaat worden voor ATX v3.0 compliance, vanwege de 160% eis voor 10 ms (niet de vaak genoemde 200% eis voor 10 microseconde)?3)
  4. en dat je daarom geen kans maakt met een huidige voeding van minder dan 1600W?4)
Referenties
1) nieuws & AIB websites:

FSP said that FSP Hydro G PRO 850W / 1000W series and Hydro PTM PRO 850W / 1000W / 1200W series power supplies are equipped with PCIe 5.0 CEM (12VHPWR) interface and corresponding 12+4-pin cable,
- Compliance with newest ATX 12V V2.52 & EPS 12 v2.92 standards

ASUS: The brand offers us a Titanium block of 1600> and two others in Platinum in 1200W and 1000W.
- ATX12V v2.4, EPS 2.92

GIGABYTE UD1000GM PCIe 5.0.
- Intel Form Factor ATX 12V v2.31

2)
https://www.tomshardware....tel-atx-v3-psu-standard/2
We should note here that for 600W graphics cards, you need a liquid cooling system, while the limit for air cooling solutions is 450W.

3)

Afbeeldingslocatie: https://tweakers.net/i/jJNIrJ0NKZg_AyQt5fFXY7jSHLE=/800x/filters:strip_icc():strip_exif()/f/image/YXWpJcoKV9L9iYGuhjIrkzbo.jpg?f=fotoalbum_large

4)
Een 2000W spike van 10 micro-seconden is maar 0,2 Joule, dat is nog te doen voor de condensatoren. Het is ook zo snel, dat de switches het niet eens merken.
Een 1600W spike van 10 milli-seconden is echter 16 Joule, dat wordt lastig, zelfs als je 10 Joule er van af trekt (1000W voor 10 milli-seconden), 6 Joule:
Elektrische energie E voor een condensator = 0,5*C*(V^2) , met V = 12V rail. Als E = 6 Joule, Dan moet C 0,0833 Farad zijn, dat is huge. Een 1000W voeding gaat dus waarschijnlijk niet ATX v3.0 compliant worden, ook niet na testen, want dan zou die PSU 83333 micro-Farad aan condensatoren moeten hebben = onwaarschijnlijk. Zelfs een 1500W voeding, heeft 13888 micro-Farad nodig voor de 10 milli-seconden spike = veel.

Ik zou voor nu alleen de gok nemen met 1600W voedingen. Dan nog heb je voor de 1800W 1 milli-seconde spike, 2777 micro-Farad nodig, maar dat is te doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Mogelijke power limits van de RTX 40 serie:

March of the Eagles


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
https://videocardz.com/ne...as-cryptocurrency-crashes

Heerlijk om gelijk te krijgen met mijn voorspellingen :) , maar het zal nog eventjes duren voordat de webshops in NL ook de handdoek in de ring gooien: EU prijzen lopen achter op VS prijzen.

https://tweakers.net/vide...GUuE2DMOea0hwN9izHU-4996_

3080 nog steeds €850+ 8)7

https://tweakers.net/vide...yTQHdaOo8fjOAzqN3PpFlr_AQ

RX 580 ook nog niet op het niveau waar die zou moeten zitten, maar al wel een stuk lager dan eerder €150+ :D

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
sunsmountain schreef op zaterdag 18 juni 2022 @ 20:35:
https://videocardz.com/ne...as-cryptocurrency-crashes

Heerlijk om gelijk te krijgen met mijn voorspellingen :) , maar het zal nog eventjes duren voordat de webshops in NL ook de handdoek in de ring gooien: EU prijzen lopen achter op VS prijzen.

https://tweakers.net/vide...GUuE2DMOea0hwN9izHU-4996_

3080 nog steeds €850+ 8)7

https://tweakers.net/vide...yTQHdaOo8fjOAzqN3PpFlr_AQ

RX 580 ook nog niet op het niveau waar die zou moeten zitten, maar al wel een stuk lager dan eerder €150+ :D
EU loopt helemaal niet achter de US, eerder voor als je uitgaat van de bedragen die jij noemt.

Immers US prijzen zijn Ex. BTW, EU prijzen Inc. BTW.

die $770 die je daar ziet voor de US, is omgerekend hier: €733,66 Ex. BTW of 887,72 Inc. BTW. Die €850 Inc BTW. waar jij naar linkt is dus goedkoper wanneer je appels met apples vergelijkt dan de $770 uit de tabel waar je naar linkt ;)

Wat op zich al opmerkelijk is, immers vergeleken met de dollar / euro prijs bij release en nu is de dollar ook zo'n 13% in waarde gestegen geloof ik, wat zich normaal ook direct vertaald in hogere retail prijzen (zie bijv. de AMD.com webshop die dit wel heel direct doorrekenend naar de consument).

[ Voor 9% gewijzigd door Dennism op 18-06-2022 21:21 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

sunsmountain schreef op zaterdag 18 juni 2022 @ 20:35:
https://videocardz.com/ne...as-cryptocurrency-crashes

Heerlijk om gelijk te krijgen met mijn voorspellingen :) , maar het zal nog eventjes duren voordat de webshops in NL ook de handdoek in de ring gooien: EU prijzen lopen achter op VS prijzen.

https://tweakers.net/vide...GUuE2DMOea0hwN9izHU-4996_

3080 nog steeds €850+ 8)7

https://tweakers.net/vide...yTQHdaOo8fjOAzqN3PpFlr_AQ

RX 580 ook nog niet op het niveau waar die zou moeten zitten, maar al wel een stuk lager dan eerder €150+ :D
Stuk beter dan de RX 6600 die voor 400 euro te koop is. Volgens mij is de prijs/performance van de 3080 beter op 4k 8)7. Dat zie je eigenlijk nooit bij de highend kaarten. Het lijkt erop dat AMD kaarten op dit moment duurder zijn, de 3080 is de betere deal ook vergeleken met de RX 6080....

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Dennism schreef op zaterdag 18 juni 2022 @ 21:15:
[...]


EU loopt helemaal niet achter de US, eerder voor als je uitgaat van de bedragen die jij noemt.

Immers US prijzen zijn Ex. BTW, EU prijzen Inc. BTW.

die $770 die je daar ziet voor de US, is omgerekend hier: €733,66 Ex. BTW of 887,72 Inc. BTW. Die €850 Inc BTW. waar jij naar linkt is dus goedkoper wanneer je appels met apples vergelijkt dan de $770 uit de tabel waar je naar linkt ;)

Wat op zich al opmerkelijk is, immers vergeleken met de dollar / euro prijs bij release en nu is de dollar ook zo'n 13% in waarde gestegen geloof ik, wat zich normaal ook direct vertaald in hogere retail prijzen (zie bijv. de AMD.com webshop die dit wel heel direct doorrekenend naar de consument).
€733,66 is minder dan €850, ik vergelijk niet een lokale aankoop met een internationale cross-border, maar 2 lokale aankopen van hetzelfde product.

Wel apart hoe krachtig de USD geworden is (ondanks stimulus), en ze hebben daar natuurlijk geen btw. Dan zou de prijs hier goedkoper zijn, als we geen btw zouden betalen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
sunsmountain schreef op zondag 19 juni 2022 @ 17:46:


Wel apart hoe krachtig de USD geworden is (ondanks stimulus), en ze hebben daar natuurlijk geen btw. Dan zou de prijs hier goedkoper zijn, als we geen btw zouden betalen.
Dit klopt niet, US heeft geen landelijk BTW tarief, maar de BTW (Sales Tax) schilt per staat en binnen staten zelfs per lokaliteit. Waar door je bij de 'kale' prijs dus mogelijk 2 tarieven moet bijtellen, de 'sales tax' op staat niveau en de 'sales tax' op lokaal niveau. Deze tarieven zie je normaal gesproken in de US niet verwerkt in de prijs wanneer er online geadverteerd wordt.

Staat tarieven gaan van 0 tot +-11% uit mijn hoofd, waar dan nog weel 0% tot +-8.5% bij kan komen als lokaal tarief.

En dat is dus ook deels waarom je US prijzen niet direct met onze prijzen kan vergelijken, ze adverteren daar immers altijd 'kale' prijzen, omdat de sales tax verschilt, terwijl hier wettelijk verplicht is te adverteren richting consumenten met de prijs incl. btw. Daarnaast zijn er natuurlijk nog andere mogelijke zaken (bijv. eventuele heffingen) die een directe vergelijking lastig maakt.

Die $770 die je daar ziet staan, hoeft dus niet hetgeen te zijn wat iedere Amerikaan betaald, dat kan flink verschillen per staat.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op zondag 19 juni 2022 @ 19:17:
[...]
Staat tarieven gaan van 0 tot +-11% uit mijn hoofd, waar dan nog weel 0% tot +-8.5% bij kan komen als lokaal tarief.
Die gecombineerde tarieven kun je hier zien: https://www.calculator.net/sales-tax-calculator.html

Het gaat dus van 0% tot 13,5%, dus ook in de duurste staat is het nog een stuk minder dan bij ons.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Ludewig schreef op zondag 19 juni 2022 @ 20:03:
[...]


Die gecombineerde tarieven kun je hier zien: https://www.calculator.net/sales-tax-calculator.html

Het gaat dus van 0% tot 13,5%, dus ook in de duurste staat is het nog een stuk minder dan bij ons.
Maar @Dennism heeft wel gelijk dat belastingen de reden zijn van de prijsverschillen, niet de lokatie, wat ik dacht.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zondag 19 juni 2022 @ 20:19:
[...]


Maar @Dennism heeft wel gelijk dat belastingen de reden zijn van de prijsverschillen, niet de lokatie, wat ik dacht.
Op dit moment zijn we eigenlijk goedkoper, in elk geval voor de 3080, want de goedkoopste is $770 op Newegg, want omgerekend naar euro's en inclusief Nederlandse BTW, een prijs van € 931,70 zou moeten zijn. Dezelfde kaart kost echter € 879,- in Nederland.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • mxmemx
  • Registratie: Maart 2015
  • Laatst online: 18-12 15:21
Sp3ci3s8472 schreef op zaterdag 18 juni 2022 @ 23:00:
[...]


Stuk beter dan de RX 6600 die voor 400 euro te koop is. Volgens mij is de prijs/performance van de 3080 beter op 4k 8)7. Dat zie je eigenlijk nooit bij de highend kaarten. Het lijkt erop dat AMD kaarten op dit moment duurder zijn, de 3080 is de betere deal ook vergeleken met de RX 6080....
De RX6600 wordt al aangeboden voor 330€ en lijkt gewoon een prima deal.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Ludewig schreef op maandag 20 juni 2022 @ 02:23:
[...]


Op dit moment zijn we eigenlijk goedkoper, in elk geval voor de 3080, want de goedkoopste is $770 op Newegg, want omgerekend naar euro's en inclusief Nederlandse BTW, een prijs van € 931,70 zou moeten zijn. Dezelfde kaart kost echter € 879,- in Nederland.
Ook dat klopt qua bedragen niet helemaal, terwijl de eind conclusie wel klopt. Die $770 zou met 21% btw $931,70 zijn, omgerekend naar euro's is dat €885.65 op dit moment (volgens de koers op Google waar $1 momenteel op €0,95 staat).

[ Voor 3% gewijzigd door Dennism op 20-06-2022 10:53 ]


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Dennism schreef op maandag 20 juni 2022 @ 10:51:
[...]


Ook dat klopt qua bedragen niet helemaal, terwijl de eind conclusie wel klopt. Die $770 zou met 21% btw $931,70 zijn, omgerekend naar euro's is dat €885.65 op dit moment (volgens de koers op Google waar $1 momenteel op €0,95 staat).
Conclusie is toch foutief. Die 2 prijzen liggen statistisch te dicht bij elkaar in de buurt om te kunnen onderbouwen dat de VS goedkoper is dan EU of andersom, qua videokaarten.

Logisch ook want beide importeren uit dezelfde Aziatische landen. Verdere geografische lokatie maakt(e) niet uit, kapitaalkracht en concurrentie wel.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
sunsmountain schreef op maandag 20 juni 2022 @ 11:07:
[...]

Conclusie is toch foutief. Die 2 prijzen liggen statistisch te dicht bij elkaar in de buurt om te kunnen onderbouwen dat de VS goedkoper is dan EU of andersom, qua videokaarten.
Ik zie het, ik dacht dat @Ludewig het over die individuele kaart had, maar in de post wordt het breder getrokken naar 'de 3080', wat je inderdaad niet kan concluderen op basis van aanbod van slechts 1 specifieke kaart.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

mxmemx schreef op maandag 20 juni 2022 @ 08:58:
[...]


De RX6600 wordt al aangeboden voor 330€ en lijkt gewoon een prima deal.
Waar dan? Ik zie namelijk 360 euro als laagste in de pricewatch.
Dan nog is 330 euro te veel voor een 6xxx klasse kaart vind ik. Rond 250-275 euro zou hij goed zijn en de XT tussen de 300-325. Misschien ben ik een cheapskate, ik heb geen haast ik wil hem in mijn HTPC en in mijn gaming/werk pc zit al een snellere kaart.

  • mxmemx
  • Registratie: Maart 2015
  • Laatst online: 18-12 15:21
Sp3ci3s8472 schreef op maandag 20 juni 2022 @ 12:57:
[...]


Waar dan? Ik zie namelijk 360 euro als laagste in de pricewatch.
Dan nog is 330 euro te veel voor een 6xxx klasse kaart vind ik. Rond 250-275 euro zou hij goed zijn en de XT tussen de 300-325. Misschien ben ik een cheapskate, ik heb geen haast ik wil hem in mijn HTPC en in mijn gaming/werk pc zit al een snellere kaart.
de mech 2x rx 6600 is op NBB 330.
Ik wil verder ook max 250 kwijt voor zon kaart. Voor mijn beeldvorming welke kaart zit er in je laptop en is dat het waard ?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

mxmemx schreef op maandag 20 juni 2022 @ 13:15:
[...]


de mech 2x rx 6600 is op NBB 330.
Ik wil verder ook max 250 kwijt voor zon kaart. Voor mijn beeldvorming welke kaart zit er in je laptop en is dat het waard ?
Wat is NNB?

In mijn laptop heb ik een 3070; de reden dat ik geen 3080 heb genomen is mede doordat het verschil in performance zo klein is omdat laptops de hitte vaak toch niet kwijt kunnen.

In mijn gaming/werk pc zit een Asrock Phantom Gaming 6900 XT die ik al vanaf launch heb (die was 1300 euro..., destijds een koopje). Hou er wel rekening mee dat ik het persoon ben dat vaak eerder nieuwe hardware koop omdat het leuk is en ik actief de ontwikkelingen volg.
Voor een upgrade van mijn HTPC let ik wel veel meer op prijs/performance :+.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
https://www.notebooksbilliger.de/ -- Een Duitse webshop die o.a. Officieel Nvidia Reference modellen verkoopt voor de Nederlandse markt, vooraf daardoor ook bekend bij de Nederlandse shopper voor GPU's.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op maandag 20 juni 2022 @ 10:51:
[...]
Ook dat klopt qua bedragen niet helemaal, terwijl de eind conclusie wel klopt. Die $770 zou met 21% btw $931,70 zijn, omgerekend naar euro's is dat €885.65 op dit moment (volgens de koers op Google waar $1 momenteel op €0,95 staat).
Je berekend het verkeerd. Je moet het Amerikaanse bedrag eerst omrekenen naar euro's en dan pas de BTW berekenen. De BTW is immers een lokale belasting en geen onderdeel van de inkoopprijs.
Sp3ci3s8472 schreef op maandag 20 juni 2022 @ 14:58:
[...]
In mijn laptop heb ik een 3070; de reden dat ik geen 3080 heb genomen is mede doordat het verschil in performance zo klein is omdat laptops de hitte vaak toch niet kwijt kunnen.
Mobiele chips presteren slechter dan de losse videokaarten (door de afgeknepen power limit), dus die kun je niet zomaar vergelijken.

Voor de beste gamingkwaliteit moet je toch een desktop hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Ludewig schreef op maandag 20 juni 2022 @ 15:18:
[...]


Je berekend het verkeerd. Je moet het Amerikaanse bedrag eerst omrekenen naar euro's en dan pas de BTW berekenen. De BTW is immers een lokale belasting en geen onderdeel van de inkoopprijs.
Dat maakt voor de berekening vrijwel niets uit,

Doe je $770 * 1,21 = $931,70 , zet je dat om naar euro's kom je uit op 885.90
Doe je $770 omzetten naar euro = €731.99 * 1,21 = 885,71

Jij zegt echter:
Ludewig schreef op maandag 20 juni 2022 @ 02:23:
[...]


Op dit moment zijn we eigenlijk goedkoper, in elk geval voor de 3080, want de goedkoopste is $770 op Newegg, want omgerekend naar euro's en inclusief Nederlandse BTW, een prijs van € 931,70 zou moeten zijn. Dezelfde kaart kost echter € 879,- in Nederland.
Wat jij doet is $770 * 1,21 = € 931,70, wat simpelweg niet klopt. $770 * 1,21 is immers $931,70 wat je dan nog om moet zetten naar euro's. En dan lijk je ook nog eens dezelfde berekening te gebruiken waarvan je net zegt dat deze niet klopt.

[ Voor 7% gewijzigd door Dennism op 20-06-2022 15:36 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op maandag 20 juni 2022 @ 15:18:
[...]
Mobiele chips presteren slechter dan de losse videokaarten (door de afgeknepen power limit), dus die kun je niet zomaar vergelijken.

Voor de beste gamingkwaliteit moet je toch een desktop hebben.
Klopt, een 3080 in een laptop is misschien te vergelijken met een desktop 3060 Ti. Dat is niet alleen de power limiet, die kan nog zo hoog zijn maar als de koeling van de laptop het niet aan kan heb je er vrij weinig aan.

Dat klopt; waar doe ik de vergelijking dat een laptop beter is dan een desktop? Ik weet ook dat mijn desktop rondjes loopt om mijn laptop, de vergelijking is niet eens eerlijk :P.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op maandag 20 juni 2022 @ 15:31:
[...]


Dat maakt voor de berekening vrijwel niets uit,

Doe je $770 * 1,21 = $931,70 , zet je dat om naar euro's kom je uit op 885.90
Doe je $770 omzetten naar euro = €731.99 * 1,21 = 885,71

Jij zegt echter:


[...]


Wat jij doet is $770 * 1,21 = € 931,70, wat simpelweg niet klopt. $770 * 1,21 is immers $931,70 wat je dan nog om moet zetten naar euro's. En dan lijk je ook nog eens dezelfde berekening te gebruiken waarvan je net zegt dat deze niet klopt.
Hebben jullie het nu over een kaart die in de US $770ex kost en in NL €879incl :?

Als je dat omrekent naar EUR ex BTW dan kom ik op ongeveer:
US: E731,95
NL: E726,45

Dus is NL eigenlijk 'goedkoper' voor deze kaart. Helaas hebben we een erg gretige overheid. :X

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:47
Help!!!! schreef op maandag 20 juni 2022 @ 15:42:
[...]

Hebben jullie het nu over een kaart die in de US $770ex kost en in NL €879incl :?

Als je dat omrekent naar EUR ex BTW dan kom ik op ongeveer:
US: E731,95
NL: E726,45
Klopt, begon al wat eerder met deze posts (prijzen zullen iets anders dan de jouwe vanwege koersverschillen).

sunsmountain in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Dus is NL eigenlijk 'goedkoper' voor deze kaart. Helaas hebben we een erg gretige overheid. :X
Of dat helaas is, is een andere discussie denk ik. Vergis je immers niet dat we hier op bepaalde vlakken het een stuk beter hebben door die 'gretige overheid', waar andere zaken, zoals consumenten prijzen hier inderdaad vaak hoger liggen door de BTW. Al met al een discussie voor een ander topic denk ik ;)

[ Voor 30% gewijzigd door Dennism op 20-06-2022 15:49 ]


  • BramViking
  • Registratie: September 2021
  • Laatst online: 21-01-2023
Het enige positieve aan de energieprijzen, is dat de videokaarten steeds vaker voor msrp door verkocht worden. Mining is niet meer zo rendabel. Hopelijk blijft deze trend zich tenminste voortzetten.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
sunsmountain schreef op woensdag 15 juni 2022 @ 17:27:
[...]
Iets relevants voor het nVidia topic: Voor de nieuwe RTX 4090 Ti (max model) heb je waarschijnlijk 600W nodig, en dus het liefst een ATX v3.0 compliant 600W (ook wel PCIe Gen 5 genoemd) 12VHPWR kabel, zodat je videokaart zich niet in hoeft te houden.

Wist je dat:
  1. de huidige voedingen van FSP, ASUS en Gigabyte mèt een PCIe Gen 5 kabel, niet ATX v3.0 compliant zijn?1)
  2. je voor 600W waterkoeling nodig hebt? De limiet voor luchtkoeling is 450W.2)
  3. dat met name de piekbelasting lastig gaat worden voor ATX v3.0 compliance, vanwege de 160% eis voor 10 ms (niet de vaak genoemde 200% eis voor 10 microseconde)?3)
  4. en dat je daarom geen kans maakt met een huidige voeding van minder dan 1600W?4)
Referenties
1) nieuws & AIB websites:

FSP said that FSP Hydro G PRO 850W / 1000W series and Hydro PTM PRO 850W / 1000W / 1200W series power supplies are equipped with PCIe 5.0 CEM (12VHPWR) interface and corresponding 12+4-pin cable,
- Compliance with newest ATX 12V V2.52 & EPS 12 v2.92 standards

ASUS: The brand offers us a Titanium block of 1600> and two others in Platinum in 1200W and 1000W.
- ATX12V v2.4, EPS 2.92

GIGABYTE UD1000GM PCIe 5.0.
- Intel Form Factor ATX 12V v2.31

2)
https://www.tomshardware....tel-atx-v3-psu-standard/2
We should note here that for 600W graphics cards, you need a liquid cooling system, while the limit for air cooling solutions is 450W.

3)

[Afbeelding]

4)
Een 2000W spike van 10 micro-seconden is maar 0,2 Joule, dat is nog te doen voor de condensatoren. Het is ook zo snel, dat de switches het niet eens merken.
Een 1600W spike van 10 milli-seconden is echter 16 Joule, dat wordt lastig, zelfs als je 10 Joule er van af trekt (1000W voor 10 milli-seconden), 6 Joule:
Elektrische energie E voor een condensator = 0,5*C*(V^2) , met V = 12V rail. Als E = 6 Joule, Dan moet C 0,0833 Farad zijn, dat is huge. Een 1000W voeding gaat dus waarschijnlijk niet ATX v3.0 compliant worden, ook niet na testen, want dan zou die PSU 83333 micro-Farad aan condensatoren moeten hebben = onwaarschijnlijk. Zelfs een 1500W voeding, heeft 13888 micro-Farad nodig voor de 10 milli-seconden spike = veel.

Ik zou voor nu alleen de gok nemen met 1600W voedingen. Dan nog heb je voor de 1800W 1 milli-seconde spike, 2777 micro-Farad nodig, maar dat is te doen.
Misschien dat Steve het voeding probleem met de RTX 40xx series beter kan uitleggen:
YouTube: The Brewing Problem with GPU Power Design | Transients

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
YouTube: The Brewing Problem with GPU Power Design | Transients

Ik heb een cross-GPU draadje nodig :+

Dit is niets nieuws, maar het is wel goed dat een relatief mainstream YouTuber als Steve hier nu dieper op in gaat (Igor doet dit al langer). Niet dat ik geloof dat het ook maar iets teweeg gaat brengen - wat mij betreft ligt de fout 100% bij Nvidia* voor zover het gaat om fatsoenlijke voedingen. Er zijn natuurlijk tal van voedingen die wel een label van bijvoorbeeld 650W hebben, maar dat niet vol kunnen houden. Een degelijke voeding die wél sustained power tegen z'n rating aan kan, kan vaak ook pieken van 30, 40 en soms zelfs 50% hebben. Maar transient spikes van 100% zijn gewoon absurd. Dat ze er zijn is normaal, maar spikes van 100% betekent ofwel dat het merendeel van de GPU het gros van de tijd stil ligt en hun ontwerp dus best wel ruk is, ofwel dat hun stroomvoorziening heel losjes af wordt gehandeld en dat dat dus ruk is.

Edit: verdorie, is de video net al gelinkt :D


* ik noem specifiek Nvidia, omdat de video daar ook over gaat. Transient spikes zijn normaal en AMD heeft ze ook. Dat gezegd hebbende, hebben zij ze op hun reference borden ook veel beter onder controle. Zij schakelen al jaren veel sneller in hun stroomvoorziening; eerst uit noodzaak, maar ze hebben dat sindsdien behouden. Ik vermoed dat Steve ietwat verrast zal zijn over hoe veel lager die uit vallen.

[ Voor 4% gewijzigd door Werelds op 22-06-2022 11:39 ]


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
Werelds schreef op woensdag 22 juni 2022 @ 11:38:
YouTube: The Brewing Problem with GPU Power Design | Transients

Ik heb een cross-GPU draadje nodig :+

Dit is niets nieuws, maar het is wel goed dat een relatief mainstream YouTuber als Steve hier nu dieper op in gaat (Igor doet dit al langer). Niet dat ik geloof dat het ook maar iets teweeg gaat brengen - wat mij betreft ligt de fout 100% bij Nvidia* voor zover het gaat om fatsoenlijke voedingen. Er zijn natuurlijk tal van voedingen die wel een label van bijvoorbeeld 650W hebben, maar dat niet vol kunnen houden. Een degelijke voeding die wél sustained power tegen z'n rating aan kan, kan vaak ook pieken van 30, 40 en soms zelfs 50% hebben. Maar transient spikes van 100% zijn gewoon absurd. Dat ze er zijn is normaal, maar spikes van 100% betekent ofwel dat het merendeel van de GPU het gros van de tijd stil ligt en hun ontwerp dus best wel ruk is, ofwel dat hun stroomvoorziening heel losjes af wordt gehandeld en dat dat dus ruk is.

Edit: verdorie, is de video net al gelinkt :D


* ik noem specifiek Nvidia, omdat de video daar ook over gaat. Transient spikes zijn normaal en AMD heeft ze ook. Dat gezegd hebbende, hebben zij ze op hun reference borden ook veel beter onder controle. Zij schakelen al jaren veel sneller in hun stroomvoorziening; eerst uit noodzaak, maar ze hebben dat sindsdien behouden. Ik vermoed dat Steve ietwat verrast zal zijn over hoe veel lager die uit vallen.
En dan te bedenken dat 100% (dus: 2x de rated power) transient spikes, die 100 micro-seconden mogen duren, in de ATX v3.0 standaard zijn opgenomen. Maar de lastigste is de 60% spike, die 10 milli-seconden mag duren. Ik heb zelf berekend in mijn vorige post dat je dan eigenlijk een 1600W voeding nodig hebt, om 1000W ATX v3.0 te kunnen leveren. Maar ik ben geen expert, dus ik zou graag een second opinion op mijn berekening krijgen :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Daar zou @-The_Mask- uren over kunnen lullen, maar hij is MIA :'(

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Maar zover is het nog niet, de RTX 4090 Ti met 600W zal pas ergens in 2023 op de markt komen en de AD102 chip die voor de RTX 4080 bestemd is zal wellicht op 450W gelimiteerd zijn. Voor die laatste is dan in elk geval geen 1600W voeding nodig. En voor die eerste, wie weet wat voor voedingen er in 2023 op de markt komen. De fabrikanten van voedingen zullen vast wel inspelen op de vraag naar RTX 4090 Ti videokaarten.

[ Voor 32% gewijzigd door XWB op 22-06-2022 12:51 ]

March of the Eagles


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Werelds schreef op woensdag 22 juni 2022 @ 12:19:
Daar zou @-The_Mask- uren over kunnen lullen, maar hij is MIA :'(
Oh.. had hem al een tijdje niet zien reageren maar haast 2 jaar :(.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik wou het ook al linken ja. :P
Maar fijn dat hier eindelijk ook iets meer aandacht voor komt. We gaan immers steeds meer naar dGPU als echt luxeproduct voor gamers met geld, maar dan hoort het product ook goed te zijn. Alleen maar de prijs verhogen en dan problemen krijgen, hoor je niet te accepteren.

@Werelds We hebben natuurlijk Igorslab al voor RDNA2. Meer in het algemeen, werd het voor het AMD kamp echt merkbaar met RX Vega. Maar die hadden dan ook enorme problemen met occupency.

Het verschil is fors als je ziet wat een RTX3080 FE zelfs al doet. Moet uiteraard bijgezegd worden dat Igor tot "minder dan 1ms" gaat en GamersNexus nog een stap verder tot omgerekend 0,1ms. :)
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2020/11/03-Peak-Power.png
https://www.igorslab.de/e...t-different-in-detail/15/

Ergens ben ik ook niet verbaast dat juist Gigabyte er zo slecht eruit komt bij die RTX3090. :z
XWB schreef op woensdag 22 juni 2022 @ 12:40:
Maar zover is het nog niet, de RTX 4090 Ti met 600W zal pas ergens in 2023 op de markt komen en de AD102 chip die voor de RTX 4080 bestemd is zal wellicht op 450W gelimiteerd zijn. Voor die laatste is dan in elk geval geen 1600W voeding nodig. En voor die eerste, wie weet wat voor voedingen er in 2023 op de markt komen. De fabrikanten van voedingen zullen vast wel inspelen op de vraag naar RTX 4090 Ti videokaarten.
Je mist het hele punt. Het gaat erom dat dergelijke gigantische transient spikes niet op te vangen zijn voor alles behalve de beste voedingen. Je hebt verder een forse marge nodig voor je voeding om dit te doen. Bijvoorbeeld mijn RM550x kan zowel mijn RX Vega 56 als RX5700XT aan. Zeker die laatste doet nominaal al 280W. Ik heb nooit een probleem gehad terwijl ik weet dat die transient spikes over de 300W zal hebben. Maar als ik nu een videokaart zou hebben met transient spikes over de 450W, dan kan ik zomaar uitval van mijn systeem hebben. En als ik dit niet zou weten, dan ga je denken dat of de drivers/videokaart kapot is dan wel de PSU. En laten we nu niet beweren dat een RM550x een matige PSU is.

Hiermee jaag je consumenten onnodig op gedoe en uiteindelijk kosten omdat je eigenlijk zegt: "Wij willen geen beter PCB ontwerpen of onze transient spikes verhelpen in de GPU hardware zelf, dus koop maar een nieuwe PSU". Dit terwijl AMD wel hun best doet om het rond de 50% te houden zoals Igorslab duidelijk maakt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Video van Steve van GamersNexus is erg interessant. Wilde al een AMD kaart halen voor een upgrade in mijn HTPC omdat ze zuiniger zijn. Nu weet ik zeker dat ik dat doe gezien ik al een wat oudere pricewatch: Corsair SF450 heb (niet de nieuwe uit 2018).

Zoals Steve al zegt hebben small form factor voedingen er meer last van omdat ze een kleinere buffer hebben tegen spikes door beperkte ruimte.

edit:
Mijn oude Vega64 viel steeds uit op een oudere BeQuiet voeding. Daarna een voeding gekocht die goedkoper was met hetzelfde wattage en die deed prima zijn werk :F. Heeft mij wel gelijk geleerd dat prijs en merk niet alles zeggen over voedingen en dat je reviews moet zoeken.

[ Voor 23% gewijzigd door Sp3ci3s8472 op 22-06-2022 14:11 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 22 juni 2022 @ 14:08:
[...]

Je mist het hele punt. Het gaat erom dat dergelijke gigantische transient spikes niet op te vangen zijn voor alles behalve de beste voedingen. Je hebt verder een forse marge nodig voor je voeding om dit te doen. Bijvoorbeeld mijn RM550x kan zowel mijn RX Vega 56 als RX5700XT aan. Zeker die laatste doet nominaal al 280W. Ik heb nooit een probleem gehad terwijl ik weet dat die transient spikes over de 300W zal hebben.
Ik zie het punt maar ervaar dat niet als een probleem. Er zijn zat 1000-1200W voedingen beschikbaar, dan haal je maar een dikke PSU voor de RTX 4080. Ik zie in de Pricewatch maar liefst 168 voedingen binnen deze range, dus het aanbod is niet beperkt.

Als er niets te koop zou zijn, dan, zou ik dat pas als een probleem ervaren.

En zoals gezegd, de fabrikanten zullen hierop inspelen en meer geschikte voedingen naar de markt brengen. Voor de fabrikanten van voedingen komen er kansen om straks meer te verkopen.
Maar als ik nu een videokaart zou hebben met transient spikes over de 450W, dan kan ik zomaar uitval van mijn systeem hebben. En als ik dit niet zou weten, dan ga je denken dat of de drivers/videokaart kapot is dan wel de PSU.
Maar je weet het bij deze wel, dus dat kan geen argument meer zijn. Mocht je dus een RTX 4080 halen dan zal je ook je RM550x moeten upgraden.
En laten we nu niet beweren dat een RM550x een matige PSU is.
Matig is relatief en ten opzichte van het huidige aanbod. Het lijkt er op dat de RM550x voor de aanstaande RTX 4080/4090 inderdaad een matige voeding zal zijn :+

Dat geldt trouwens ook voor Navi 31, met 450W TDP en maximum 50% spikes moet je hoger zitten. Maar met een 1000W voeding zit je vast goed, toch?
Hiermee jaag je consumenten onnodig op gedoe en uiteindelijk kosten omdat je eigenlijk zegt: "Wij willen geen beter PCB ontwerpen of onze transient spikes verhelpen in de GPU hardware zelf, dus koop maar een nieuwe PSU". Dit terwijl AMD wel hun best doet om het rond de 50% te houden zoals Igorslab duidelijk maakt.
Tja, ik zou er vooral pragmatisch in staan en dan maar een nieuwe voeding halen. Soms ontkom je er niet aan om componenten te upgraden.

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Heb dat hele transient probleem zelf gehad toen het nog vrijwel onbekend was en het is mega irritant ook omdat het heel lastig troubleshooten was. Als je een goed gereviewde niet te oude high end 850W voeding hebt verwacht je niet dat dat het probleem is.

Daarnaast koop je een voeding normaal gesproken voor een langere termijn dan een GPU. Een goede voeding kan zeker 10 jaar mee.

Het lijkt me ondertussen best een grote groep mensen die hun voeding ruim voortijdig moet of moest vervangen. Wie gaat die oude voeding nog overnemen :? Er zit ook een flink stuk ewaste in.

Alhoewel PSU fabrikanten ook niet altijd vrijuit gaan qua design vind ik dit toch meer een GPU ding wat een verkeerde kant op is gegaan. Zowel verbruik als transient spikes.

Ik had het beter gevonden als GPU fabrikanten bijv. tijdig met Intel om de tafel waren gaan zitten om tijdig een verbeterde ATX standaard te ontwikkelen.

ATX 3.0 mag er dan nu zijn maar de transient spikes eisen lijken mij een soort cart blanche voor GPU fabrikanten om crazy te gaan.

Voor mijn gevoel worden voedingen nu ingewikkelder en duurder dan nodig. Terwijl lang niet iedereen die een voeding koopt die Transient spike resistance nodig heeft.

Het zou mooier zijn als het issue op de videokaart opgelost wordt want daar komt het ook vandaan.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 08-12 19:12
XWB schreef op woensdag 22 juni 2022 @ 14:42:
[...]


Ik zie het punt maar ervaar dat niet als een probleem. Er zijn zat 1000-1200W voedingen beschikbaar, dan haal je maar een dikke PSU voor de RTX 4080. Ik zie in de Pricewatch maar liefst 168 voedingen binnen deze range, dus het aanbod is niet beperkt.

Als er niets te koop zou zijn, dan, zou ik dat pas als een probleem ervaren.

En zoals gezegd, de fabrikanten zullen hierop inspelen en meer geschikte voedingen naar de markt brengen. Voor de fabrikanten van voedingen komen er kansen om straks meer te verkopen.


[...]


Maar je weet het bij deze wel, dus dat kan geen argument meer zijn. Mocht je dus een RTX 4080 halen dan zal je ook je RM550x moeten upgraden.


[...]


Matig is relatief en ten opzichte van het huidige aanbod. Het lijkt er op dat de RM550x voor de aanstaande RTX 4080/4090 inderdaad een matige voeding zal zijn :+

Dat geldt trouwens ook voor Navi 31, met 450W TDP en maximum 50% spikes moet je hoger zitten. Maar met een 1000W voeding zit je vast goed, toch?


[...]


Tja, ik zou er vooral pragmatisch in staan en dan maar een nieuwe voeding halen. Soms ontkom je er niet aan om componenten te upgraden.
Ik ervaar het ook niet als probleem, maar ik denk niet dat de huidige 1000-1200W voedingen, die slechts voor v2.52 etc. getest zijn, genoeg spike tolerantie hebben.

Als je een 4090 Ti koopt en Nvidia raadt een 12VHPWR 600W kabel aan, ook al heb je dan een 1600W voeding zonder die kabel, zal je dure GPU zich inhouden. 2x300W is helaas geen vervanging, omdat er extra communicatie pinnetjes zitten in die 600W kabel, waardoor de GPU weet wat de PSU kan bieden (en andersom mocht je meerdere monster GPUs aansluiten).

Je kan het probleem wel neerleggen bij Nvidia, maar een PCB heeft beperkt oppervlak. De voeding heeft misschien nog ruimte, of het moederbord, maar ik heb nog geen enkele ATX v3 compliant voeding gevonden. Nu heeft Intel die standaard pas in Februari dit jaar uitgebracht, maar toch.

Kijkende naar huidige prijzen van 1600W voedingen, waarvan je de componenten nodig hebt voor een 1000W voeding die ATX v3 haalt, tel je 300+ EUR neer. Bovenop de prijs van je RTX 4090 of, AMD verhoedde, de 7900XT.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Help!!!! schreef op woensdag 22 juni 2022 @ 15:04:
Heb dat hele transient probleem zelf gehad toen het nog vrijwel onbekend was en het is mega irritant ook omdat het heel lastig troubleshooten was. Als je een goed gereviewde niet te oude high end 850W voeding hebt verwacht je niet dat dat het probleem is.
Zeker niet als het "TDP" van een GPU slechts een fractie is van dat cijfer. De meeste gamers hebben nog steeds geen flauw benul dat dat al jaren een nutteloze term is.

En dat is hier het probleem. Niet dat er transient spikes zijn, of zelfs dat ze zo absurd hoog zijn (hoewel ik dat wél een probleem vind), maar dat je het uit geen enkele specificatie af kan leiden. Het advies voor een 3080 (vanuit Nvidia) is een 750W PSU, maar als dat ding tijdens transient spikes zelf al 600W kan trekken, is dat advies gewoon slecht.

Het is ook niet altijd zo geweest (en aan AMD's kant is het nog steeds niet zo idioot). Ik heb in 25+ jaar tijd nog nóóit een voeding van 750W gehad. Verder dan de X-660 ben ik nooit gegaan, was nooit een noodzaak toe.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Help!!!! schreef op woensdag 22 juni 2022 @ 15:04:

ATX 3.0 mag er dan nu zijn maar de transient spikes eisen lijken mij een soort cart blanche voor GPU fabrikanten om crazy te gaan.
Werelds schreef op woensdag 22 juni 2022 @ 16:32:
[...]

Het is ook niet altijd zo geweest (en aan AMD's kant is het nog steeds niet zo idioot). Ik heb in 25+ jaar tijd nog nóóit een voeding van 750W gehad. Verder dan de X-660 ben ik nooit gegaan, was nooit een noodzaak toe.
Je krijgt er wel een hoop performance voor terug, de nieuwe RTX 40 schijnt gruwelijk snel te worden. Natuurlijk had Nvidia de RTX 4090 kunnen limiteren op 300W, maar daar krijg je geen 2x 3090 voor terug.

De 5nm node van TSMC laat blijkbaar toe om helemaal 'crazy' te gaan?

March of the Eagles


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

XWB schreef op woensdag 22 juni 2022 @ 16:48:
[...]


[...]


Je krijgt er wel een hoop performance voor terug, de nieuwe RTX 40 schijnt gruwelijk snel te worden. Natuurlijk had Nvidia de RTX 4090 kunnen limiteren op 300W, maar daar krijg je geen 2x 3090 voor terug.

De 5nm node van TSMC laat blijkbaar toe om helemaal 'crazy' te gaan?
Ik heb geen idee wat je nu voor videokaart hebt; maar heb je die kast wel eens naast je gehad met een 300 Watt kaart. De warmte die daar van af komt, zeker in de zomer is gewoon niet leuk.
Mijn kaart heb ik behoorlijk geundervolt om het een beetje binnen de perken te houden, maar die vieze warme lucht langs mijn benen is echt niet fijn.
Dit is voor mij de laatste keer dat ik zo'n kaart aanschaf, hoewel ik met undervolt rond de 250 Watt zit met een 6900 XT.

Alles om maar een beetje meer performance te halen vind ik niet de juiste manier. Het liefst zie ik dat beide fabrikanten het bij 300 Watt "TDP" max houden.
Want wat je nu ziet is dat iedereen een airco aanschaft, dat zag je 15 jaar geleden echt nog niet.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
XWB schreef op woensdag 22 juni 2022 @ 16:48:
Je krijgt er wel een hoop performance voor terug, de nieuwe RTX 40 schijnt gruwelijk snel te worden. Natuurlijk had Nvidia de RTX 4090 kunnen limiteren op 300W, maar daar krijg je geen 2x 3090 voor terug.

De 5nm node van TSMC laat blijkbaar toe om helemaal 'crazy' te gaan?
Als men in andere vakgebieden op die manier te werk was gegaan, hadden we nu allemaal 24-cilinders in onze auto's liggen, waar je al rijdend moet tanken om het ding lopend te houden. Schijt aan daadwerkelijk betere technologie maken, gewoon groter maken, meer laten zuipen en gaan met die banaan.

Nee, ik ben het er niet mee eens dat ze maar gewoon het verbruik omhoog moeten blijven pompen, zeker niet als ze de pieken niet onder controle kunnen houden. Dat is gewoon écht gevaarlijk en enkel omdat ze niet weten hoe ze er meer performance uit kunnen krijgen zónder het ding gewoon op te voeren?


Daarnaast moet ik de performance nog zien gebeuren. Nvidia heeft niet veel soeps geleverd met Turing (0,0 winst) en Ampère (achteruitgang qua GF/W), dus "2x3090" aan 450W zou een behoorlijke ommekeer zijn (minimaal +50% GF/W nodig), terwijl géén van de geruchten wijst op iets revolutionairs. En om 2x3090 te halen moet ofwel de kloksnelheid fors omhoog, of die 16128 waar het steeds over gaat klopt niet. In beide gevallen gooi je alle winst uit de overstap naar N5 (of 4N, hoe je het ook wil noemen) weg.

Kopite's laatste paar tweets laten overigens ook weer zien dat hij/zij niet veel begrijpt van wat ze door krijgen. "Jensen" zou dingen veranderd hebben vanwege de hack...want zo werkt dat met chip ontwerpen, die worden 6 maanden vóór release nog even aangepast of naar een ander procedé overgeheveld. Net als die GA103 die bij TSMC gebakken zou worden en GA102 voorbij ging streven :+

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op woensdag 22 juni 2022 @ 17:15:
[...]
En om 2x3090 te halen moet ofwel de kloksnelheid fors omhoog, of die 16128 waar het steeds over gaat klopt niet. In beide gevallen gooi je alle winst uit de overstap naar N5 (of 4N, hoe je het ook wil noemen) weg.
Zen 4 toont al aan dat je hogere kloksnelheden kunt halen met TSMC 5. Dus ik verwacht zeker hogere kloksnelheden.

Dat kost inderdaad meer energie. Ik verwacht zelf dat ze behoorlijk gaan overklokken, wat ze met de 3000 serie trouwens ook al doen (in elke geval richting de top). Met een undervolt en lagere power limit kun je dan de efficiëntie weer terugbrengen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op woensdag 22 juni 2022 @ 17:14:
[...]


Ik heb geen idee wat je nu voor videokaart hebt; maar heb je die kast wel eens naast je gehad met een 300 Watt kaart. De warmte die daar van af komt, zeker in de zomer is gewoon niet leuk.
Mijn kaart heb ik behoorlijk geundervolt om het een beetje binnen de perken te houden, maar die vieze warme lucht langs mijn benen is echt niet fijn.
Dit is voor mij de laatste keer dat ik zo'n kaart aanschaf, hoewel ik met undervolt rond de 250 Watt zit met een 6900 XT.
Ik heb een RX 6800 XT, dus ik ben bekend met de warmte :p En tja, die performance heb ik gewoon nodig om een beetje fatsoenlijk te kunnen gamen op een breedbeeldmonitor met een hoge resolutie. Dus ik zou opnieuw een 300W videokaart (of meer) kopen.

[ Voor 3% gewijzigd door XWB op 23-06-2022 00:23 ]

March of the Eagles


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

XWB schreef op donderdag 23 juni 2022 @ 00:23:
[...]


Ik heb een RX 6800 XT, dus ik ben bekend met de warmte :p En tja, die performance heb ik gewoon nodig om een beetje fatsoenlijk te kunnen gamen op een breedbeeldmonitor met een hoge resolutie. Dus ik zou opnieuw een 300W videokaart (of meer) kopen.
Ik vond de 5700 XT een stuk plezanter dan mijn 6900 XT :+ . Mijn monitor is maar 3440x1440, de meeste spellen doe ik op 1.5-2x resolutie en dat gaat prima. Nu zijn de meeste spellen die ik doe een stukje ouder of vragen niet al te veel (RE series, Final Fantasy 15, Diablo Resurrected) en draaien meestal ergens tussen de 80-144 fps.
Als je wat zwaardere spellen speelt dan zal het waarschijnlijk wel nodig zijn.

offtopic:
Dit gaat een beetje offtoipc.
Om de Nvidia fans blij te houden, ik heb ook een 3070, maar die zit in een laptop :z.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 22 juni 2022 @ 17:15:
[...]

Als men in andere vakgebieden op die manier te werk was gegaan, hadden we nu allemaal 24-cilinders in onze auto's liggen, waar je al rijdend moet tanken om het ding lopend te houden. Schijt aan daadwerkelijk betere technologie maken, gewoon groter maken, meer laten zuipen en gaan met die banaan.

Nee, ik ben het er niet mee eens dat ze maar gewoon het verbruik omhoog moeten blijven pompen, zeker niet als ze de pieken niet onder controle kunnen houden. Dat is gewoon écht gevaarlijk en enkel omdat ze niet weten hoe ze er meer performance uit kunnen krijgen zónder het ding gewoon op te voeren?
Dit ja.
Ik wil er ook aan toevoegen dat het ook luiheid/onverschilligheid vanuit Nvidia lijkt te zijn dat ze geen beter PCB ontwerpen. Want hoe vaak hebben we nu al gezien dat de AIB partners bij Nvidia de boel aan het opwaarderen zijn voor hun modellen terwijl ze bij AMD vaak de boel aan het uitkleden zijn omdat AMD voor de totale overkill is gegaan? Dat is wat minder geworden met RDNA waar veel modellen nu een goed referentie PCB volgen en de high end modellen de boel opwaarderen, maar uitkleden gebeurd nog steeds hier en daar. Als je die spikes hebt, dan kan je tenminste proberen om het te verminderen op het PCB. Maar dat lijkt Nvidia ook niet te doen terwijl ze wel het verbruik zo laten oplopen.

Overigens, weet je het POSCAP drama nog bij launch? :P
Nvidia heeft dat destijds opgelost met drivers, maar ik vraag me af of ze niet ook iets aan stroomregulering hebben gedaan.
Daarnaast moet ik de performance nog zien gebeuren. Nvidia heeft niet veel soeps geleverd met Turing (0,0 winst) en Ampère (achteruitgang qua GF/W), dus "2x3090" aan 450W zou een behoorlijke ommekeer zijn (minimaal +50% GF/W nodig), terwijl géén van de geruchten wijst op iets revolutionairs. En om 2x3090 te halen moet ofwel de kloksnelheid fors omhoog, of die 16128 waar het steeds over gaat klopt niet. In beide gevallen gooi je alle winst uit de overstap naar N5 (of 4N, hoe je het ook wil noemen) weg.
Het gaat dan misschien ook om 2x RTX3090 met 600W en spikes naar 1200W. :+
Dat is misschien niet eens zo bezopen omdat ze bij GamersNexus eigenlijk een beetje geïnformeerd leken te zijn door PSU fabrikanten over wat gaat komen. Want ze spitste wel erg toe op Nvidia en RTX40 series terwijl het nog allemaal geruchten zijn voor ons, maar qua verbruik waarschijnlijk minder voor de PSU fabrikanten.
Kopite's laatste paar tweets laten overigens ook weer zien dat hij/zij niet veel begrijpt van wat ze door krijgen. "Jensen" zou dingen veranderd hebben vanwege de hack...want zo werkt dat met chip ontwerpen, die worden 6 maanden vóór release nog even aangepast of naar een ander procedé overgeheveld. Net als die GA103 die bij TSMC gebakken zou worden en GA102 voorbij ging streven :+
Ik begin me er eigenlijk ook meer aan te irriteren. Zeker omdat er op het moment waarschijnlijk ook veel misinformatie rondgaat waarvan een goed deel ook uit Nvidia en AMD kan komen.*
We weten in ieder geval wel dat AD102, 144SM's heeft omdat dit uit die hack voortkwam. Dus tenzij Nvidia hun SM's kleiner maakt, kijk je dus naar 18432 ALU's.

En ik voel me een beetje "burned" omdat ik denk ik ook iets te enthousiast wou geloven tegen beter weten in. Dan met name het MCM verhaal met RDNA3.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
DaniëlWW2 schreef op donderdag 23 juni 2022 @ 09:55:
Ik begin me er eigenlijk ook meer aan te irriteren. Zeker omdat er op het moment waarschijnlijk ook veel misinformatie rondgaat waarvan een goed deel ook uit Nvidia en AMD kan komen.*
We weten in ieder geval wel dat AD102, 144SM's heeft omdat dit uit die hack voortkwam. Dus tenzij Nvidia hun SM's kleiner maakt, kijk je dus naar 18432 ALU's.

En ik voel me een beetje "burned" omdat ik denk ik ook iets te enthousiast wou geloven tegen beter weten in. Dan met name het MCM verhaal met RDNA3.
Er is wel wát informatie, maar volgens mij komt Kopite's duim er regelmatig aan te pas om het allemaal bij elkaar te plaatsen.

Aan de Nvidia kant is het enige dat de geruchten nog enigszins denkbaar maakt, het gerucht dat AD102 96 MB L2$ zou krijgen, maar of dat genoeg is om minstens 50% efficiëntie te halen? Want dat is nodig. Nieuwste gerucht is overigens 16384 met 24 GB aan 21 Gbps GDDR6X. Slechts 28% hoger verbruik (met sneller geheugen en 16 keer zo veel L2$) met 56% meer ingeschakelde ALU's die goed zouden zijn voor het dubbele aan performance?

De stap naar N5(P)/4N wordt door velen ook gewoon overschat. Van "14nm" (16FF, 12FF(N), 14LPP) naar "7nm" (N7(P), N6, 8N) was een veel grotere stap dan het nu is. Daar zat toen nog "10nm" tussen, dus van 14 naar 7 kwam neer op twee shrinks. De shrinks zijn ook vrij gelijkwaardig. Voor 10, 7 en 5 geeft TSMC -35%/+15%, -40%/+20% en -40%/+20% op (power/performance - één van de twee, niet beide :P) en zoals ik al vaker heb aangegeven, klopt dat bijna altijd wel; het is de dichtheid verbetering die nooit wordt gehaald voor grote chips. Nu komt Nvidia van Samsung en zal er marginaal meer te winnen zijn, maar dan heb je het hooguit over enkele procenten. Samsung ligt lang niet zo ver achter als we soms denken.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 23 juni 2022 @ 13:01:
[...]

Er is wel wát informatie, maar volgens mij komt Kopite's duim er regelmatig aan te pas om het allemaal bij elkaar te plaatsen.

Aan de Nvidia kant is het enige dat de geruchten nog enigszins denkbaar maakt, het feit dat AD102 96 MB L2$ zou krijgen, maar of dat genoeg is om minstens 50% efficiëntie te halen? Want dat is nodig. Nieuwste gerucht is overigens 16384 met 24 GB aan 21 Gbps GDDR6X. Slechts 28% hoger verbruik (met sneller geheugen en 16 keer zo veel L2$) met 56% meer ingeschakelde ALU's die goed zouden zijn voor het dubbele aan performance?

De stap naar N5(P)/4N wordt door velen ook gewoon overschat. Van "14nm" (16FF, 12FF(N), 14LPP) naar "7nm" (N7(P), N6, 8N) was een veel grotere stap dan het nu is. Daar zat toen nog "10nm" tussen, dus van 14 naar 7 kwam neer op twee shrinks. De shrinks zijn ook vrij gelijkwaardig. Voor 10, 7 en 5 geeft TSMC -35%/+15%, -40%/+20% en -40%/+20% op (power/performance - één van de twee, niet beide :P) en zoals ik al vaker heb aangegeven, klopt dat bijna altijd wel; het is de dichtheid verbetering die nooit wordt gehaald voor grote chips. Nu komt Nvidia van Samsung en zal er marginaal meer te winnen zijn, maar dan heb je het hooguit over enkele procenten. Samsung ligt lang niet zo ver achter als we soms denken.
Die 96MB aan L2 cache kwam ook uit de hack dus die gaat er zeer waarschijnlijk komen. Het punt is juist dat we buiten 144SM's en 96MB aan L2, eigenlijk niks zo kunnen incalculeren/aannemen.

Ik denk dat er eigenlijk maar drie manieren zijn hoe Nvidia het kan doen zonder bezopen TDP.
1) Turing/Ampere occupency is dramatisch slecht door een gebrek aan data, slechter dan we denken. L2 cache verbeterd dit dramatisch.
2) Meer clockspeed halen uit een efficiëntere node zonder noemenswaardige verhoogd verbruik voor een vergelijkbare chip omdat Samsung 8nm veel slechter is dan we denken.
3) Lovelace lijkt totaal niet op Turing/Ampere en dit lekt niet.

Daarom neig ik er ook naar dat Nvidia echt met een bezopen TDP halo SKU gaat komen en de hele lijn het misschien meer van TDP verhogingen moet hebben dan grote stappen in efficiëntie. We zien gewoon geen indicaties voor het tegenovergestelde tenzij AD102 die 2x GA102 helemaal niet gaat halen.

De stap naar N5 zal grotendeels opgaan in het ding überhaupt kunnen maken. De L2 cache zal iets doen voor occupency en VRAM een beetje ontlasten om het ding door te laten schalen richting die 18432 ALU's, maar het kan alsnog een GA102 worden waarbij het alleen lukt met het bezopen TDP. Zie RTX3080 naar RTX3090Ti scenario. Circa 130W extra voor iets van 20% extra ALU's en iets meer dan 20% sneller, is gewoon slecht.

Misschien gaat Nvidia het extra hard spelen op RT omdat dit hun enige troef is als perf/watt en rasterization verloren gaan of niet te verkopen zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

XWB schreef op woensdag 22 juni 2022 @ 16:48:
[...]


[...]


Je krijgt er wel een hoop performance voor terug, de nieuwe RTX 40 schijnt gruwelijk snel te worden.
[...]
De 5nm node van TSMC laat blijkbaar toe om helemaal 'crazy' te gaan?
Dat een graka continu 450W verbruikt, prima, dat is een keuze (zeker niet mijn keuze), net zoals dat je in een hummer kunt rijden. Een GTX295 had dertien jaar geleden ook een verbruik van ~300W, nou, prima. Maar die verbruikte dan ook gewoon 300W en niet zo nu en dan even 600W. Het "crazy gaan" is natuurlijk geen goede motivatie om die transient spikes maar te accepteren.

Transient spikes van 100% getuigen gewoon van slecht hardware-ontwerp en het afschuiven van ontwerpproblemen op de PSU-bakker. Terugklokken met een feedback-loop is natuurlijk een stuk makkelijker dan überhaupt je hardware zo instellen dat het niet over een vermogensgrens heen gaat, dat je met een feedback-loop je andere hardware dan frituurt met transient spikes, ach ja...
Sp3ci3s8472 schreef op woensdag 22 juni 2022 @ 17:14:
Ik heb geen idee wat je nu voor videokaart hebt; maar heb je die kast wel eens naast je gehad met een 300 Watt kaart. De warmte die daar van af komt, zeker in de zomer is gewoon niet leuk.
Niet heel gek, want de genoemde TDP (en zeker het daadwerkelijke verbruik, wat tegenwoordig vaak hoger ligt) gaat nu letterlijk in de richting van het vermogen van een kleine straalkachel.

[ Voor 22% gewijzigd door bwerg op 23-06-2022 13:38 ]

Heeft geen speciale krachten en is daar erg boos over.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
DaniëlWW2 schreef op donderdag 23 juni 2022 @ 13:24:
De stap naar N5 zal grotendeels opgaan in het ding überhaupt kunnen maken. De L2 cache zal iets doen voor occupency en VRAM een beetje ontlasten om het ding door te laten schalen richting die 18432 ALU's, maar het kan alsnog een GA102 worden waarbij het alleen lukt met het bezopen TDP. Zie RTX3080 naar RTX3090Ti scenario. Circa 130W extra voor iets van 20% extra ALU's en iets meer dan 20% sneller, is gewoon slecht.
Kanttekening daarbij is wel dat de 3090 Ti uitzonderlijk inefficiënt is en de 3090 juist verrassend efficiënt.

Als je het geheugen weg rekent* en van TPU's "gaming"cijfers uit gaat (445, 355 en 318 voor 3090 Ti, 3090 en 3080-10G respectievelijk) houd je 387, 301 en 296 over. 5W verschil tussen de 3080 en 3090. Dat klinkt wellicht raar maar is het eigenlijk niet. De 3080 is een chip met aardig wat defecten die dus waarschijnlijk op een relatief hoge spanning moet lopen.

De 3090 Ti heeft iets meer nodig voor de geheugen chips (4,2W), wat betekent dat er elders alsnog 82W meer verbruikt wordt, dat moet bijna allemaal vanuit de chip komen. Kloksnelheid ligt iets hoger, maar gezien het verschil lijkt het er op dat de spanning óók omhoog moet om dat te halen. Tja, je moet toch iets als je per se élke chip wil verkopen :+


* Micron's GDDR6X specsheet zegt 7,25 pJ per bit voor GDDR6X.

Verbruik voor een module wordt dan: (J per bit) * (bps / 2) * 32

Invullen voor de 3090 (19,5 GT/s): (7,25 * 10^-12) * (19,5* 10^9 / 2) * 32 = 2,262 W

24 stuks geeft dan 54,288 W totaal. 355 - 54,288 = 300,712 ofwel 301 afgerond :p

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 23 juni 2022 @ 13:44:
[...]

Kanttekening daarbij is wel dat de 3090 Ti uitzonderlijk inefficiënt is en de 3090 juist verrassend efficiënt.

Als je het geheugen weg rekent* en van TPU's "gaming"cijfers uit gaat (445, 355 en 318 voor 3090 Ti, 3090 en 3080-10G respectievelijk) houd je 387, 301 en 296 over. 5W verschil tussen de 3080 en 3090. Dat klinkt wellicht raar maar is het eigenlijk niet. De 3080 is een chip met aardig wat defecten die dus waarschijnlijk op een relatief hoge spanning moet lopen.

De 3090 Ti heeft iets meer nodig voor de geheugen chips (4,2W), wat betekent dat er elders alsnog 82W meer verbruikt wordt, dat moet bijna allemaal vanuit de chip komen. Kloksnelheid ligt iets hoger, maar gezien het verschil lijkt het er op dat de spanning óók omhoog moet om dat te halen. Tja, je moet toch iets als je per se élke chip wil verkopen :+


* Micron's GDDR6X specsheet zegt 7,25 pJ per bit voor GDDR6X.

Verbruik voor een module wordt dan: (J per bit) * (bps / 2) * 32

Invullen voor de 3090 (19,5 GT/s): (7,25 * 10^-12) * (19,5* 10^9 / 2) * 32 = 2,262 W

24 stuks geeft dan 54,288 W totaal. 355 - 54,288 = 300,712 ofwel 301 afgerond :p
Ik weet niet of ik de RTX3090 efficiënt zou noemen. :P
Ook betwijfel ik of elke RTX3080 echt zoveel defect heeft. De chip kan bijna perfect zijn, maar een geheugencontroller kapot en het is een RTX3080.

Afijn, mijn punt is eigenlijk dat het prestatieverschil tussen de RTX3080 en RTX3090 eigenlijk bedroevend is gezien hoeveel van de chip uitstaat voor een RTX3080. De RTX3090Ti presteert alleen maar beter door elke pretentie van efficiëntie uit het raam te gooien.

Dat lijkt me namelijk ook een serieus scenario als Lovelace niet veel veranderd van Ampere. Je kan wel een enorme chip maken, maar heb je ook iets aan de hardware of word het nog erger dan met GA102? Zo kan je ook 2x RTX3090 krijgen, ja theoretische TFLOPS maar niet in de praktijk. Voor mij is dat een gedachte waarmee ik rekening hou als ik de zoveelste TDP rating van 400W+ zie.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
DaniëlWW2 schreef op donderdag 23 juni 2022 @ 13:57:
Ik weet niet of ik de RTX3090 efficiënt zou noemen. :P
* in vergelijking met de rest van de Ampère line-up - en dan puur op de GPU zelf ;)

20% meer ALU's, 140% meer geheugen en slechts 10% hoger verbruik in totaal, wat grotendeels door het geheugen komt. Dat daar vervolgens nog geen 10% performance uit komt is een andere zaak, daar hebben we het ook al over gehad. Deze dingen schalen gewoon niet lekker.
Pagina: 1 ... 106 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.