Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ben benieuwd hoe (soepel en simpel) AMD dit gaat afhandelen. Hij suggereert dat mogelijk een recall nodig gaat zijn voor alle reference-based kaarten.DaniëlWW2 schreef op zondag 1 januari 2023 @ 11:04:
En DerBauwer denkt dat er een fout in de vapor chamber van de RX7900 series referentiemodellen zit waardoor je die belachelijke TJunction temperaturen krijgt![]()
[YouTube: I was Wrong - AMD is in BIG Trouble]
De Radeon divisie heeft het denk ik weer voor elkaar gekregen. Gouden kans in de schoot geworpen, ze gingen trollen over Nvidia hun 12VHPWR connector en lijken het vervolgens zelf erger verpest te hebben. Ze hebben zo ongeveer alles dat ze makkelijk konden verpesten, ook wel verpest. En wij als consumenten zijn er weer eens de dupe van in deze markt zonder concurrentie.
Als dit het probleem echt is, wat bijna niet anders kan, dan is een recall de enige oplossen. Alle koelers moeten dan vervangen worden.SpX schreef op zondag 1 januari 2023 @ 11:26:
[...]
Ik ben benieuwd hoe (soepel en simpel) AMD dit gaat afhandelen. Hij suggereert dat mogelijk een recall nodig gaat zijn voor alle reference-based kaarten.
Ze kunnen ook nog een passieve recall doen, door iedereen die de kaart aanmeldt voor RMA het direct te accepteren.
Alleen moeten ze dan eerst een nieuwe koeler ontwikkelen, testen, laten produceren en alles opzetten om dat uit te voeren.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Het enige wat ik me af vraag is hoe betrouwbaar al de reviews en testscores zijn of zou amd instructies gegeven hebben om de kaart verticaal te testen.

Als de AIB modellen dit issue niet hebben valt het toch wel mee?DaniëlWW2 schreef op zondag 1 januari 2023 @ 11:04:
En DerBauwer denkt dat er een fout in de vapor chamber van de RX7900 series referentiemodellen zit waardoor je die belachelijke TJunction temperaturen krijgt
Lijkt er nu op dat als de kaart de 110 graden haalt, de vapor chamber niet meer hersteld omdat deze boven de 105 graden zit.
Dat klinkt als herontwerp of een luxe vapor chamber er tegenaan gooien die tot 150 graden celcius werk!
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Ik denk dat ze daar niet eens instructies voor hoeven te geven (en zou denk ik ook opvallen en mogelijk juist extra vragen oproepen, immers verticaal is normaal gesproken juist niet hoe de meeste gebruikers hun kaart installeren).dragonlords1 schreef op zondag 1 januari 2023 @ 11:51:
Het enige wat ik me af vraag is hoe betrouwbaar al de reviews en testscores zijn of zou amd instructies gegeven hebben om de kaart verticaal te testen.
Echter zullen de meeste (zo niet alle) reviewers de kaarten over het algemeen testen in een testbench, waar juist vaak de plaatsing wel standaard verticaal is.
Ik denk dat hij een goed punt heeft.DaniëlWW2 schreef op zondag 1 januari 2023 @ 11:04:
En DerBauwer denkt dat er een fout in de vapor chamber van de RX7900 series referentiemodellen zit waardoor je die belachelijke TJunction temperaturen krijgt![]()
[YouTube: I was Wrong - AMD is in BIG Trouble]
De Radeon divisie heeft het denk ik weer voor elkaar gekregen. Gouden kans in de schoot geworpen, ze gingen trollen over Nvidia hun 12VHPWR connector en lijken het vervolgens zelf erger verpest te hebben. Ze hebben zo ongeveer alles dat ze makkelijk konden verpesten, ook wel verpest. En wij als consumenten zijn er weer eens de dupe van in deze markt zonder concurrentie.
Al denk ik niet dat AMD hierin een fout heeft gemaakt in het ontwerp, maar in de QC....
Heb hier drie 7900XTX kaarten mogen testen en er 1 zelf gehouden.
Heb toegang via vrienden tot #4 en 5.
Deze kaarten worden geen van allen warmer dan 81gr met 47% fan in een open kast.
(Dichte kast uiteraard wel iets meer)
Net nog even mijn eigen kaart op een Furmark load gezet, 2650/3100Mhz freq, memory 2650
Dan blijft de kaart 100% onder load zonder throttle.
Max 81c HS
Idee was nog dat die load te laag is, 2x Furmark met verschillende instellingen EN een SuperPosition erbij gezet.
Dat leverde een hakkelende test en gezien de power fluctuaties gaat die load niet goed qua scheduling.
Temp en freq bleven wel stabiel...
Heeeeel lang geleden een keer uitleg gehad over vapor chambers.
Zoals DB test met draaien werd destijds actief ontraden, al kan dat ook het ontwerp chamber zijn wat wij destijds gebruikten.
Ik gok dat we opeens iets gaan zien van een vapor chamber ontwerper/tweaker die de zere plek gaat aanwijzen.
Mijn eerste idee zou zijn niet voldoende vloeistof... Dus de QC.
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Voorkant van de kast omhoog getilt, gok op 20/25gr hoek, geen echt verschil
Achterkant van de kast omhoog getilt, gok op 20/25gr hoek... oeps.... 89gr!
test herhaalt, zelfde resultaat!
/f/image/srUDeeNWtSxaJu5syNj26ocb.png?f=fotoalbum_large)
Dit op 1 Januari doen is trouwens niet mijn beste idee

/edit
Mijn kaart recovered gelukkig wel, temps nu weer 80c
[ Voor 4% gewijzigd door raymondw op 01-01-2023 14:03 ]
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Dat is het punt niet. Het was AMD waar ze het nodig vonden om wederom te lopen wijzen naar Nvidia met kinderachtige opmerkingen om vervolgens zelf een onderpresterend product af te leveren. De reviews zijn er allang en de perceptie is allang gemaakt wat een RX7900XTX is. En nu duiken er steeds meer problemen op met het product. Voor een normale consument is het zo echt niet zo moeilijk om zo te denken dat ze maar beter Nvidia kunnen kopen. Dit terwijl Nvidia hun lagere segment, wat de meeste mensen dus kopen, al jaren ronduit slecht is. Het is allemaal te langzaam, te duur of te duur en te langzaam geweest. De laatste echte deal die uit Nvidia kwam was de GTX970 uit 2014. GTX1060 was iets van 10% sneller voor 10% minder en sindsdien is er niks meer geweest dat in de buurt hiervan kwam. Maar wel bij AMD met hun RX5600XT en nu de RX6600 series. Ze faalde bij AMD alleen keihard om dit te verkopen.Olaf van der Spek schreef op zondag 1 januari 2023 @ 11:57:
[...]
Als de AIB modellen dit issue niet hebben valt het toch wel mee?
Op deze manier is er geen enkele concurrentie meer in deze markt. Er is niks dat Nvidia meer tegenhoud om een chip zoals AD104 voor waarschijnlijk $800+ te verkopen. Dus dat gebeurd ook. AD104 is een midrange chip die in een functionele markt een RTX4060(Ti) was geweest voor de helft van de prijs. En nu lijkt die verkocht te gaan worden voor meer dan een RTX3080 officieel koste. Dan kan je als consument twee dingen doen. De enorme prijsverhoging accepteren of niet.
En elke keer als mensen het niet accepteren, betekent het ook dat de installatiebasis voor nieuwe GPU's krimpt waardoor het hele punt van PC gaming, de grotere technische capaciteiten, minder aantrekkelijk worden voor game developers om iets mee te doen. GPU verkopen dalen al iets van 15 jaar gestaag. Dat komt mede omdat videokaarten nu eenmaal duurder moesten worden omdat ze (veel) duurder zijn geworden om te maken. Maar de trend van de laatste paar jaar is helemaal bruut. Zonder mining lijkt het erop dat het niet eens 10 miljoen per kwartaal meer is. Daarbinnen is maar een beperkt percentage hoger segment waar meer geavanceerde games ook mee functioneren.

Zo krijg je een vicieuze cyclus waar we al een tijdje inzitten. Want hoeveel games zijn er nu werkelijk waarvan je denkt dat een nieuwe videokaart wel op zijn plaats is? Je krijgt die games steeds minder. Dus kopen mensen minder videokaarten en zakt de installatiebasis voor meer geavanceerde games verder. Tegelijkertijd worden die videokaarten alsmaar duurder om te ontwikkelen waardoor ze meer moeten kosten. En met een kleinere afzetmarkt moeten ze extra duur gemaakt worden. En daarnaast spelen ook nog eens de enorme omzetmarges die Nvidia hanteert. Weinig bedrijven die meer dan 60% omzetmarges halen op hun producten. Resultaat is dat er nog meer mensen afhaken.
Dat is het punt. Wij als consumenten krijgen uiteindelijk de gevolgen van AMD hun incompetentie gepresenteerd. AMD hun sterkte is uiteindelijk niet high end, maar midrange. Maar ze zitten hun goede midrange producten in de weg door hun eindeloze gestuntel. En bij AMD zelf lijken ze inmiddels bewust te wachten totdat Nvidia iets lanceert en vervolgens gaan ze er qua prijs net eronder zitten. En dat die prijs lager moet zijn, bevestigen ze zelf met hoe ze vaak producten lanceren. Er lijkt ook geen enkele ambitie meer in te zitten anders dan een klein deel van de GPU markt vasthouden. En die markt zie ik verder inzakken met dergelijke belachelijke prijzen die nu gevraagd worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Houdt er wel rekening mee dat die grafiek niet de verkopen toont. Door de voorraadcorrectie zijn er vermoedelijk minder geleverd dan verkocht in Q3.
Ik denk zelf trouwens dat de gevolgen van de miningboom en de pandemie nog naijlen, en dat de correctie wel moet gaan komen. Maar zoiets duurt vaak langer dan logisch lijkt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik heb het dan ook niet over een kwartaal.Ludewig schreef op zondag 1 januari 2023 @ 15:48:
@DaniëlWW2
Houdt er wel rekening mee dat die grafiek niet de verkopen toont. Door de voorraadcorrectie zijn er vermoedelijk minder geleverd dan verkocht in Q3.
Ik denk zelf trouwens dat de gevolgen van de miningboom en de pandemie nog naijlen, en dat de correctie wel moet gaan komen. Maar zoiets duurt vaak langer dan logisch lijkt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Ondanks de dalende lijn in de verkoop van dGPU, zie je toch een sterk stijgende lijn in de MAUs van PC gaming. Dit impliceert dat het deel dat aan het wegvallen is in de verkoopcijfers niet de gaming markt is maar de rest. Ook logisch aangezien voor velen de smartphone de traditionele PC in de huiskamer vervangen heeft. Daarnaast hebben APUs de low end GPU ook gewoon overbodig gemaakt. De dGPU markt is dus niet representatief voor PC gaming.DaniëlWW2 schreef op zondag 1 januari 2023 @ 14:14:
[...]
Dat is het punt niet. Het was AMD waar ze het nodig vonden om wederom te lopen wijzen naar Nvidia met kinderachtige opmerkingen om vervolgens zelf een onderpresterend product af te leveren. De reviews zijn er allang en de perceptie is allang gemaakt wat een RX7900XTX is. En nu duiken er steeds meer problemen op met het product. Voor een normale consument is het zo echt niet zo moeilijk om zo te denken dat ze maar beter Nvidia kunnen kopen. Dit terwijl Nvidia hun lagere segment, wat de meeste mensen dus kopen, al jaren ronduit slecht is. Het is allemaal te langzaam, te duur of te duur en te langzaam geweest. De laatste echte deal die uit Nvidia kwam was de GTX970 uit 2014. GTX1060 was iets van 10% sneller voor 10% minder en sindsdien is er niks meer geweest dat in de buurt hiervan kwam. Maar wel bij AMD met hun RX5600XT en nu de RX6600 series. Ze faalde bij AMD alleen keihard om dit te verkopen.
Op deze manier is er geen enkele concurrentie meer in deze markt. Er is niks dat Nvidia meer tegenhoud om een chip zoals AD104 voor waarschijnlijk $800+ te verkopen. Dus dat gebeurd ook. AD104 is een midrange chip die in een functionele markt een RTX4060(Ti) was geweest voor de helft van de prijs. En nu lijkt die verkocht te gaan worden voor meer dan een RTX3080 officieel koste. Dan kan je als consument twee dingen doen. De enorme prijsverhoging accepteren of niet.
En elke keer als mensen het niet accepteren, betekent het ook dat de installatiebasis voor nieuwe GPU's krimpt waardoor het hele punt van PC gaming, de grotere technische capaciteiten, minder aantrekkelijk worden voor game developers om iets mee te doen. GPU verkopen dalen al iets van 15 jaar gestaag. Dat komt mede omdat videokaarten nu eenmaal duurder moesten worden omdat ze (veel) duurder zijn geworden om te maken. Maar de trend van de laatste paar jaar is helemaal bruut. Zonder mining lijkt het erop dat het niet eens 10 miljoen per kwartaal meer is. Daarbinnen is maar een beperkt percentage hoger segment waar meer geavanceerde games ook mee functioneren.
[Afbeelding]
Zo krijg je een vicieuze cyclus waar we al een tijdje inzitten. Want hoeveel games zijn er nu werkelijk waarvan je denkt dat een nieuwe videokaart wel op zijn plaats is? Je krijgt die games steeds minder. Dus kopen mensen minder videokaarten en zakt de installatiebasis voor meer geavanceerde games verder. Tegelijkertijd worden die videokaarten alsmaar duurder om te ontwikkelen waardoor ze meer moeten kosten. En met een kleinere afzetmarkt moeten ze extra duur gemaakt worden. En daarnaast spelen ook nog eens de enorme omzetmarges die Nvidia hanteert. Weinig bedrijven die meer dan 60% omzetmarges halen op hun producten. Resultaat is dat er nog meer mensen afhaken.
Dat is het punt. Wij als consumenten krijgen uiteindelijk de gevolgen van AMD hun incompetentie gepresenteerd. AMD hun sterkte is uiteindelijk niet high end, maar midrange. Maar ze zitten hun goede midrange producten in de weg door hun eindeloze gestuntel. En bij AMD zelf lijken ze inmiddels bewust te wachten totdat Nvidia iets lanceert en vervolgens gaan ze er qua prijs net eronder zitten. En dat die prijs lager moet zijn, bevestigen ze zelf met hoe ze vaak producten lanceren. Er lijkt ook geen enkele ambitie meer in te zitten anders dan een klein deel van de GPU markt vasthouden. En die markt zie ik verder inzakken met dergelijke belachelijke prijzen die nu gevraagd worden.
Je ziet ook dat er meer dan ooit ondersteuning is voor PC gaming. Zelfs Sony brengt nu games uit op PC. De meeste Japanse games komen ook uit terwijl die vroeger zelden of nooit op PC uitkwamen. Denk maar terug aan de Dark Souls petitie en dat is nog maar 10 jaar geleden.
De populariteit van mobiele gaming zou ik niet als positief zien voor PC gaming.
Dit kun je net zo goed zien als een verarming van de PC markt, waarbij spellen primair voor de console worden gemaakt en er dan nog tegen relatieve lage kosten worden geport naar de PC, ipv dat er triple A games specifiek voor de PC worden gemaakt.Je ziet ook dat er meer dan ooit ondersteuning is voor PC gaming. Zelfs Sony brengt nu games uit op PC.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dit verhaal is vrij negatief en verdient enige nuance. De prijs/performance verbetert zowel vorige als deze generatie, binnenkort met CES 2023 zul je betere prijzen zien dan wat 4080 4090 impliceren. Ik verwacht na een maand of 6 nog wel goedkopere Super versies.DaniëlWW2 schreef op zondag 1 januari 2023 @ 14:14:
[...]
Dat is het punt niet. Het was AMD waar ze het nodig vonden om wederom te lopen wijzen naar Nvidia met kinderachtige opmerkingen om vervolgens zelf een onderpresterend product af te leveren. De reviews zijn er allang en de perceptie is allang gemaakt wat een RX7900XTX is. En nu duiken er steeds meer problemen op met het product. Voor een normale consument is het zo echt niet zo moeilijk om zo te denken dat ze maar beter Nvidia kunnen kopen. Dit terwijl Nvidia hun lagere segment, wat de meeste mensen dus kopen, al jaren ronduit slecht is. Het is allemaal te langzaam, te duur of te duur en te langzaam geweest. De laatste echte deal die uit Nvidia kwam was de GTX970 uit 2014. GTX1060 was iets van 10% sneller voor 10% minder en sindsdien is er niks meer geweest dat in de buurt hiervan kwam. Maar wel bij AMD met hun RX5600XT en nu de RX6600 series. Ze faalde bij AMD alleen keihard om dit te verkopen.
Op deze manier is er geen enkele concurrentie meer in deze markt. Er is niks dat Nvidia meer tegenhoud om een chip zoals AD104 voor waarschijnlijk $800+ te verkopen. Dus dat gebeurd ook. AD104 is een midrange chip die in een functionele markt een RTX4060(Ti) was geweest voor de helft van de prijs. En nu lijkt die verkocht te gaan worden voor meer dan een RTX3080 officieel koste. Dan kan je als consument twee dingen doen. De enorme prijsverhoging accepteren of niet.
En elke keer als mensen het niet accepteren, betekent het ook dat de installatiebasis voor nieuwe GPU's krimpt waardoor het hele punt van PC gaming, de grotere technische capaciteiten, minder aantrekkelijk worden voor game developers om iets mee te doen. GPU verkopen dalen al iets van 15 jaar gestaag. Dat komt mede omdat videokaarten nu eenmaal duurder moesten worden omdat ze (veel) duurder zijn geworden om te maken. Maar de trend van de laatste paar jaar is helemaal bruut. Zonder mining lijkt het erop dat het niet eens 10 miljoen per kwartaal meer is. Daarbinnen is maar een beperkt percentage hoger segment waar meer geavanceerde games ook mee functioneren.
[Afbeelding]
Zo krijg je een vicieuze cyclus waar we al een tijdje inzitten. Want hoeveel games zijn er nu werkelijk waarvan je denkt dat een nieuwe videokaart wel op zijn plaats is? Je krijgt die games steeds minder. Dus kopen mensen minder videokaarten en zakt de installatiebasis voor meer geavanceerde games verder. Tegelijkertijd worden die videokaarten alsmaar duurder om te ontwikkelen waardoor ze meer moeten kosten. En met een kleinere afzetmarkt moeten ze extra duur gemaakt worden. En daarnaast spelen ook nog eens de enorme omzetmarges die Nvidia hanteert. Weinig bedrijven die meer dan 60% omzetmarges halen op hun producten. Resultaat is dat er nog meer mensen afhaken.
Dat is het punt. Wij als consumenten krijgen uiteindelijk de gevolgen van AMD hun incompetentie gepresenteerd. AMD hun sterkte is uiteindelijk niet high end, maar midrange. Maar ze zitten hun goede midrange producten in de weg door hun eindeloze gestuntel. En bij AMD zelf lijken ze inmiddels bewust te wachten totdat Nvidia iets lanceert en vervolgens gaan ze er qua prijs net eronder zitten. En dat die prijs lager moet zijn, bevestigen ze zelf met hoe ze vaak producten lanceren. Er lijkt ook geen enkele ambitie meer in te zitten anders dan een klein deel van de GPU markt vasthouden. En die markt zie ik verder inzakken met dergelijke belachelijke prijzen die nu gevraagd worden.
AMD die de bal laat liggen in de high end is minder belangrijk dan de midrange zoals je zelf noemt. De prijsdruk vanuit midrange volume die we van Navi33 zal Nvidia dwingen tot betere prijzen, hoewel dat voor RTX 4000 nog wel even zal duren. RTX 3000 zat en zit structureel ~$100-150 hoger door betere ray tracing en DLSS, maar dat zal niet zo blijven.
Verder vergeet je in je verhaal dat het goedkoper wordt om games te ontwikkelen, door betere tools, juist voor de zware engines (bijv. tesselation ipv LOD versies moeten van textures in unreal engine 5.1).
Nou kan Navi31 beter, zonder twijfel, maar voor een eerste generatie lijkt het vliegtuig geland. RDNA3 is eigenlijk een misleidende naam.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ten eerste gaat het hier om een grafiek van dGPU's. Dat zijn bijna per definitie gaming videokaarten. GPGPU kwam ook juist pas na 2008 een beetje opzetten. Nota bene iets waar ATi, niet Nvidia eerst mee begonnen was en wat ook verloren is gegaan toen AMD ze overnam en een hele serie aan verkeerde keuzes maakte.napata schreef op zondag 1 januari 2023 @ 16:54:
[...]
Ondanks de dalende lijn in de verkoop van dGPU, zie je toch een sterk stijgende lijn in de MAUs van PC gaming. Dit impliceert dat het deel dat aan het wegvallen is in de verkoopcijfers niet de gaming markt is maar de rest. Ook logisch aangezien voor velen de smartphone de traditionele PC in de huiskamer vervangen heeft. Daarnaast hebben APUs de low end GPU ook gewoon overbodig gemaakt. De dGPU markt is dus niet representatief voor PC gaming.
Je ziet ook dat er meer dan ooit ondersteuning is voor PC gaming. Zelfs Sony brengt nu games uit op PC. De meeste Japanse games komen ook uit terwijl die vroeger zelden of nooit op PC uitkwamen. Denk maar terug aan de Dark Souls petitie en dat is nog maar 10 jaar geleden.
En hoeveel van die console games zijn precies zo technisch indrukwekkend? Juist ja.
Verder gebeurd er juist iets heel anders hier namelijk mensen doen veel langer met hun videokaart. De generaties duren langer, de prestatiewinsten per generatie lopen terug en de kosten per generatie lopen op. Daar zijn helaas allemaal technische redenen voor te geven waardoor het niet zal veranderen. Maar het is wel een noemenswaardig gegeven omdat games ontwikkeld worden voor de Playstation of XBOX of specifiek voor de PC met een downgrade versie voor de consoles. Beide consoles zitten ongeveer rond het niveau van een RX6600 + 3700X.
Veel gaming PC's halen dat niveau niet eens. Het is op dit soort fora altijd heel makkelijk om te denken dat iedereen een zeer high end videokaart heeft, maar zo is het niet. Steam survey mag dan te inaccuraat zijn om marktaandeel mee te achterhalen, maar het laat wel trends zien. De veel voorkomende videokaarten zijn je GTX1060, GTX1650, GTX1660, RTX2060 etc. Die zijn allemaal langzamer dan een console GPU. Een RTX2070 of RTX3060 is pas ongeveer een match. Ga ik onder DX12 videokaarten een beetje kijken naar videokaarten die echt sneller zijn, RTX3060Ti/RX6700XT niveau en sneller, tja ik denk dat je de 20% niet zal halen. Komende generatie zie ik ook niet helpen. AD106 is maar 60% van AD104 en dan kijk je waarschijnlijk naar RX3070 prestaties voor een veel te hoge prijs om aantrekkelijk te zijn. N33 durf ik echt niet te zeggen wat daarmee gaat gebeuren.
https://store.steampowered.com/hwsurvey/videocard/?sort=pct
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat klopt niet bepaald. In die tijden is PC gaming juist zo groot geworden doordat je op de PC dezelfde games kon spelen op 1200p met 60 fps, daar waar je op de console in je handen mocht knijpen als de 720p/30 gehaald werd. Multiplatform is in die generatie de norm geworden, op de exclusieve first party titels na, dat is nu nieuw.XWB schreef op zondag 1 januari 2023 @ 18:32:
Misschien is dat zo, maar ik ben al lang blij dat er überhaupt ports zijn. Ten tijde van de Xbox 360 en PlayStation 3 waren er veel minder PC ports, vanwege te grote verschillen in hardware.
Tevens was het juist de eerste generatie consoles die qua rendering dichter naar de PC trok, omdat de GPU’s op off the shelf techniek gebaseerd waren. De Xbox 360 liep immers op een custom AMD kaart, veelal vergeleken met de X1950Pro, met reeds een hoop features van de HD2000 serie, als ik me niet vergis.
Twee jaar nadat de 360 uitkwam, kwamen de fameuze HD3870/3850 kaarten uit. Deze kostten minder dan een console maar liepen dus reeds rondjes hier omheen. De 4000 en 5000 kaarten waren de kers op de taart. Ik heb voor minder dan 150€ een 5850 gekocht destijds. Fantastische tijden.
Eigenlijk zouden we nu dus het equivalent van de 3850/3870 op de markt moeten hebben in de vorm van de 7800 serie. Voor een prijs die lager ligt dan die van een console. Ik denk dat zeker dat laatste nog wel even op zich laat wachten en dat is wel echt een domper voor de gehele pc gaming markt. Gemiddeld genomen zijn de twee jaar oude consoles sneller, ondanks dat de techniek er weldegelijk is om ze voor een acceptabele prijs in het stof te kunnen laten bijten.
What else is new?
X1800 (R520), qua features en performanceCid Highwind schreef op maandag 2 januari 2023 @ 02:43:
Tevens was het juist de eerste generatie consoles die qua rendering dichter naar de PC trok, omdat de GPU’s op off the shelf techniek gebaseerd waren. De Xbox 360 liep immers op een custom AMD kaart, veelal vergeleken met de X1950Pro, met reeds een hoop features van de HD2000 serie, als ik me niet vergis.
Qua opbouw inderdaad meer zoals TeraScale 1 (HD2xxx en later), qua specs een mix van de 2900 GT en 2900 Pro/XT, maar dan op lagere kloksnelheden, minder geheugen, enzovoort.
Maar de hardware had minder te maken met het dichter naar de PC trekken dan je denkt. De originele Xbox had ook al een aangepaste NV2x (GF3) GPU van Nvidia, GameCube was bijvoorbeeld ATI. Technisch gezien hadden de N64 en PS1/PS2 ook chips voor graphics, maar die hadden flinke beperkingen (PS2 had bijvoorbeeld de vector units in de CPU zitten, niet in de GPU). Ze waren wel allemaal nog PPC, volledig anders dan x86.
De omslag kwam vooral doordat MS deels DX gebruikte op de Xbox en doordat Sony's API veel meer richting OpenGL trok - nog steeds veel meer low-level dan OGL/D3D, maar wel met soortgelijke shader talen en dergelijke. De 32-/64-bit generatie (Saturn, PS1, N64) waren nog vooral hacky zoals de generaties daarvoor: heel veel rechtstreeks met registers klooien en dergelijke om de hardware beperkingen te omzeilen. Enkele jaren geleden was er een mooi interview met iemand van Naughty Dog waarin ze daar op in gingen, zal eens kijken of ik die kan vinden. Met de 8-/16-bit consoles was dat nog veel erger, waar ze op de SNES letterlijk bitflips veroorzaakten om framebuffers te legen en dergelijke, echt hilarisch
Eigenlijk lag uitgerekend die generatie ook veel verder voor op de PC dan generaties daarvoor, als het aan komt op rekenunits. Het probleem dat die generatie echter ook had, is dat die dingen vervolgens ook heel snel in PC's kwamen, veel sneller dan bijvoorbeeld T&L in de jaren '90. Doordat de API's echter dichter bij PC's lagen, was het voor veel studio's een stuk makkelijker graphics programmeurs te vinden omdat veel principes hetzelfde waren. Tegelijkertijd kwamen MS en Sony er achter dat er aan software veel meer te verdienen is, want beiden draaiden nog steeds verlies op de hardware. Gevolg is die extreme levensduur van die generatie.
Dat de PS4 en XBOne vervolgens naar AMD's semi-custom oplossingen gingen was dan ook niet doordat de vorige generatie meer PC-achtige GPU's hadden, maar een kosten-baten verhaal. PPC was gewoon lastig omdat ontwikkelaars zich daar echt op toe moesten spitsen (ook waarom Apple naar Intel overstapte). Een x86 licentie krijgen en zelf iets ontwerpen was voor geen van de drie (MS, Sony, Nintendo) een optie, het zijn geen chip ontwerpers. Dus dan klop je aan bij Intel, Nvidia en AMD. Intel zal geen aangepaste CPU's willen leveren, dus dan hang je vast aan wat ze al hebben. Nvidia heeft geen x86 licentie dus dan wordt het ARM en wat ze daar hadden was toch een stapje terug; iets snellers had vast wel gekund, maar daar zal een Nvidia prijskaartje aan gehangen hebben. En ARM was toen nog niet zo gemeengoed als het nu is, dus het zou nog steeds "apart" zijn.
En dan blijft AMD over, met een CEO (Rory Read toen nog) die al goed in de gaten had dat er een markt was voor aangepaste ontwerpen van hun IP - en dan konden ze ook nog zowel CPU als GPU aanbieden. Dat hadden zij al eerder gedaan (met MS en Nintendo), deed IBM ook al heel lang (met alle 3). Vooral voor Sony was/is AMD de perfecte partner, omdat Sony geen chip ontwerper is maar wel altijd kleine stukjes ontwerpt/tweakt. Cell (de processor in de PS3) is echt een apart dingetje; heel duidelijk een IBM ontwerp, maar wel met een Sony saus, waardoor het ding z'n tijd echt heel ver vooruit was (waar MS overigens ook van profiteerde met de 360, want Xenon is hetzelfde ontwerp
De huidige zondvloed (in verhouding tot 10 jaar geleden
Edit: bingo, zo gevonden. Van Ars Technica.
YouTube: How Crash Bandicoot Hacked The Original Playstation | War Stories | ...
Of de volledige versie van 2,5 uur: YouTube: Crash Bandicoot Co-Creator Andy Gavin: Extended Interview | Ars Tech...
[ Voor 5% gewijzigd door Werelds op 02-01-2023 11:50 ]
Ik vraag me af of Intel bij Arc ook niet stiekem meegewogen heeft dat ze met AMD kunnen gaan concurreren op de console-markt.
En wat betreft exclusives is het op dit moment natuurlijk voor Sony heel logisch om op de PC te releasen omdat ze met de PS5 toch niet aan de vraag kunnen voldoen. Dus ze gaan in principe geen PS5 extra verkopen door exclusives.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Heel misschien, want het zou wel in hun plan passen om voor anderen te fabriceren. Echter hebben ze daar qua CPU's de architectuur en ervaring niet voor, en ligt AMD nog steeds voor qua efficiëntie op meerdere vlakken. Zen 4 is met standaard settings nog steeds net even iets zuiniger en in eco mode (wat standaard had moeten zijn) al helemaal. Intel's E-cores zijn ook niet echt efficiënt (ook al is dat waar de E voor staat), behalve dan in oppervlak.Ludewig schreef op maandag 2 januari 2023 @ 12:21:
@Werelds
Ik vraag me af of Intel bij Arc ook niet stiekem meegewogen heeft dat ze met AMD kunnen gaan concurreren op de console-markt.
Bakken voor anderen hebben ze ook nooit echt gedaan (AMD wel toen ze nog fabs hadden; uitgerekend voor Intel
Op lange termijn kan het wel, maar zelfs de volgende generatie lijkt me al heel sterk. De CPU kant moet zuiniger, kleiner (vergeet niet dat de PS5 APU slechts iets van 300mm² is op N7...dat zijn 8 Zen 2 cores + 36 CU's en alle frontends!) en ze moeten een hoop dingen uitvogelen (/kopiëren) waar AMD inmiddels al heel veel ervaring mee heeft. De band tussen AMD en met name Sony (maar ook MS) is nu ook vrij sterk, omdat ze IP met elkaar delen én software samen ontwikkelen. AMD is de grote drijfveer achter D3D12 en Vulkan geweest, DirectStorage komt ongetwijfeld voort uit het werk dat ze met de consolefabrikanten hebben gedaan, enzovoort.
Ze hebben die trend achter al in gezet voordat de PS5 uit wasEn wat betreft exclusives is het op dit moment natuurlijk voor Sony heel logisch om op de PC te releasen omdat ze met de PS5 toch niet aan de vraag kunnen voldoen. Dus ze gaan in principe geen PS5 extra verkopen door exclusives.
Death Stranding en Horizon kwamen allebei uit ruim voordat de PS5 op de markt kwam. De beslissing om die te porten moet al zeker een jaar eerder gemaakt zijn, zoniet langer.
Het success van die ports heeft er inderdaad wel voor gezorgd dat Sony eindelijk besloten heeft er ook echt vol voor te gaan, want zoals het er nu naar uit ziet krijgen we bijna alle Sony games wel op de PC.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
En vervolgens gaat Intel toch zo'n te grote AXG splitsen. Er moet uiteindelijk wel winst gemaakt worden. Ik geef het datacenter deel daarbij meer kans dan het gaming deel, maar misschien wordt Battlemage een goede middenmoter.Ludewig schreef op maandag 2 januari 2023 @ 17:03:
De PS6 zal blijkbaar richting 2028 uitkomen, dus dan heeft Intel in theorie nog 3 generaties om een concurrerend product neer te zetten. En Intel beweerd nog steeds dat ze nu al competitief zijn in de hogere regionen van de GPU markt. Dus dat plannen misschien niet realistisch zijn, betekent niet dat Intel die niet maakt.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Lijkt er op dat de fabrikant van de 7900 XTX reference modellen voor een batch te weinig koelvloeistof had toegevoegd. https://videocardz.com/ne...ffected-by-thermal-issuesDaniëlWW2 schreef op zondag 1 januari 2023 @ 14:14:
[...]
Dat is het punt niet. Het was AMD waar ze het nodig vonden om wederom te lopen wijzen naar Nvidia met kinderachtige opmerkingen om vervolgens zelf een onderpresterend product af te leveren. De reviews zijn er allang en de perceptie is allang gemaakt wat een RX7900XTX is. En nu duiken er steeds meer problemen op met het product. Voor een normale consument is het zo echt niet zo moeilijk om zo te denken dat ze maar beter Nvidia kunnen kopen. Dit terwijl Nvidia hun lagere segment, wat de meeste mensen dus kopen, al jaren ronduit slecht is. Het is allemaal te langzaam, te duur of te duur en te langzaam geweest. De laatste echte deal die uit Nvidia kwam was de GTX970 uit 2014. GTX1060 was iets van 10% sneller voor 10% minder en sindsdien is er niks meer geweest dat in de buurt hiervan kwam. Maar wel bij AMD met hun RX5600XT en nu de RX6600 series. Ze faalde bij AMD alleen keihard om dit te verkopen.
Op deze manier is er geen enkele concurrentie meer in deze markt. Er is niks dat Nvidia meer tegenhoud om een chip zoals AD104 voor waarschijnlijk $800+ te verkopen. Dus dat gebeurd ook. AD104 is een midrange chip die in een functionele markt een RTX4060(Ti) was geweest voor de helft van de prijs. En nu lijkt die verkocht te gaan worden voor meer dan een RTX3080 officieel koste. Dan kan je als consument twee dingen doen. De enorme prijsverhoging accepteren of niet.
En elke keer als mensen het niet accepteren, betekent het ook dat de installatiebasis voor nieuwe GPU's krimpt waardoor het hele punt van PC gaming, de grotere technische capaciteiten, minder aantrekkelijk worden voor game developers om iets mee te doen. GPU verkopen dalen al iets van 15 jaar gestaag. Dat komt mede omdat videokaarten nu eenmaal duurder moesten worden omdat ze (veel) duurder zijn geworden om te maken. Maar de trend van de laatste paar jaar is helemaal bruut. Zonder mining lijkt het erop dat het niet eens 10 miljoen per kwartaal meer is. Daarbinnen is maar een beperkt percentage hoger segment waar meer geavanceerde games ook mee functioneren.
[Afbeelding]
Zo krijg je een vicieuze cyclus waar we al een tijdje inzitten. Want hoeveel games zijn er nu werkelijk waarvan je denkt dat een nieuwe videokaart wel op zijn plaats is? Je krijgt die games steeds minder. Dus kopen mensen minder videokaarten en zakt de installatiebasis voor meer geavanceerde games verder. Tegelijkertijd worden die videokaarten alsmaar duurder om te ontwikkelen waardoor ze meer moeten kosten. En met een kleinere afzetmarkt moeten ze extra duur gemaakt worden. En daarnaast spelen ook nog eens de enorme omzetmarges die Nvidia hanteert. Weinig bedrijven die meer dan 60% omzetmarges halen op hun producten. Resultaat is dat er nog meer mensen afhaken.
Dat is het punt. Wij als consumenten krijgen uiteindelijk de gevolgen van AMD hun incompetentie gepresenteerd. AMD hun sterkte is uiteindelijk niet high end, maar midrange. Maar ze zitten hun goede midrange producten in de weg door hun eindeloze gestuntel. En bij AMD zelf lijken ze inmiddels bewust te wachten totdat Nvidia iets lanceert en vervolgens gaan ze er qua prijs net eronder zitten. En dat die prijs lager moet zijn, bevestigen ze zelf met hoe ze vaak producten lanceren. Er lijkt ook geen enkele ambitie meer in te zitten anders dan een klein deel van de GPU markt vasthouden. En die markt zie ik verder inzakken met dergelijke belachelijke prijzen die nu gevraagd worden.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Een heerlijke uiteenzetting om te lezen!Werelds schreef op maandag 2 januari 2023 @ 11:48:
[front page materiaal
Valt qua gaming en tech geschiedenis geen speld tussen te krijgen, zeker omdat het toch nog wel wat genuanceerder lag dan ik (veronder)stelde wat het porten van de games betreft destijds. Het ging mij er echter vooral om om het idee dat PC ports een nieuw iets zijn en pas sinds deze generatie volop worden gedaan, verkeerd is. De werkelijke nieuwigheid deze generatie is dat men voor het eerst echt de first party system sellers van Sony op de PC uitgebracht ziet worden. De trend werd natuurlijk al wat ingezet in de vorige generatie met Heavy Rain en Detroit: Become Human, maar het is super te zien dat het doorgezet wordt.
Multiplatform titels die technisch zo goed als gelijk waren hebben we echter vooral te danken aan Unreal Engine 3 denk ik. De Gamebryo games van Bethesda waren natuurlijk ook een goed voorbeeld (Elder Scrolls, Fallout). Het was in die generatie voor het eerst waarbij het de norm was dat cross platform spellen technisch identiek waren en zich zo goed lieten vergelijken. Niet dat ze er in de PSX generatie niet waren, Eidos Interactive (Tomb Raider, Soul Reaver) bracht multiplatform games uit die zeer interessant zijn om te vergelijken, maar het betraf daar toch wel vaak ports die specifiek voor het platform werden aangepast. Een tweede factor van betekenis is simpel de gigantische mainstream acceptatie van gaming in het algemeen, PC ontwikkelaars konden niet meer om consoles heen, dus werden shooters als de COD serie sindsdien ook voor de console ontwikkeld.
Anyway, waar ik naartoe wilde is dus dat we in die generatie, dankzij de snelle ontwikkelingen, al binnen twee jaar GPU's konden kopen tegen een prijs waar je nog niet een console voor had, waarmee je de multiplatform games van die tijd makkelijk op dubbele framerates bij gelijke resolutie kon draaien. Met de PS4 generatie was dit volgens mij niet veel anders, al moet daar de kanttekening gemaakt worden dat het relatief gezien budget hardware betrof in plaats van dat wat we in de PS360 generatie vonden.
FFWD naar de huidige generatie, waar we ons nu ook ruim twee jaar in bevinden en je moet vasstellen dat enkel om gelijke power te hebben, je een GPU van 500€ aan hebt te schaffen, terwijl het er tevens nauwelijks naar uitziet alsof de voor 2023 aangekondigde kaarten hier verandering in gaan brengen simpelweg omdat de prijs lineair meestijgt met de prestaties.
Ik denk dat PC gaming en dus de verkoop van GPU's, een flinke boost zou kunnen krijgen wanneer men voor ~300-350€ een GPU kan kopen die de prestaties van de performance modes van consoles combineert met de graphics van de quality mode. En daar zijn we voorlopig nog niet.
Kleine nuance hier, prestaties stijgen niet lineair met prijs, dat is alleen voor de absurd geprijsde 4080 en 4090. De norm blijft meer voor minder, totdat nodes echt onbetaalbaar worden, daar zijn we nog niet.Cid Highwind schreef op dinsdag 3 januari 2023 @ 10:48:
[...]
Een heerlijke uiteenzetting om te lezen!
Valt qua gaming en tech geschiedenis geen speld tussen te krijgen, zeker omdat het toch nog wel wat genuanceerder lag dan ik (veronder)stelde wat het porten van de games betreft destijds. Het ging mij er echter vooral om om het idee dat PC ports een nieuw iets zijn en pas sinds deze generatie volop worden gedaan, verkeerd is. De werkelijke nieuwigheid deze generatie is dat men voor het eerst echt de first party system sellers van Sony op de PC uitgebracht ziet worden. De trend werd natuurlijk al wat ingezet in de vorige generatie met Heavy Rain en Detroit: Become Human, maar het is super te zien dat het doorgezet wordt.
Multiplatform titels die technisch zo goed als gelijk waren hebben we echter vooral te danken aan Unreal Engine 3 denk ik. De Gamebryo games van Bethesda waren natuurlijk ook een goed voorbeeld (Elder Scrolls, Fallout). Het was in die generatie voor het eerst waarbij het de norm was dat cross platform spellen technisch identiek waren en zich zo goed lieten vergelijken. Niet dat ze er in de PSX generatie niet waren, Eidos Interactive (Tomb Raider, Soul Reaver) bracht multiplatform games uit die zeer interessant zijn om te vergelijken, maar het betraf daar toch wel vaak ports die specifiek voor het platform werden aangepast. Een tweede factor van betekenis is simpel de gigantische mainstream acceptatie van gaming in het algemeen, PC ontwikkelaars konden niet meer om consoles heen, dus werden shooters als de COD serie sindsdien ook voor de console ontwikkeld.
Anyway, waar ik naartoe wilde is dus dat we in die generatie, dankzij de snelle ontwikkelingen, al binnen twee jaar GPU's konden kopen tegen een prijs waar je nog niet een console voor had, waarmee je de multiplatform games van die tijd makkelijk op dubbele framerates bij gelijke resolutie kon draaien. Met de PS4 generatie was dit volgens mij niet veel anders, al moet daar de kanttekening gemaakt worden dat het relatief gezien budget hardware betrof in plaats van dat wat we in de PS360 generatie vonden.
FFWD naar de huidige generatie, waar we ons nu ook ruim twee jaar in bevinden en je moet vasstellen dat enkel om gelijke power te hebben, je een GPU van 500€ aan hebt te schaffen, terwijl het er tevens nauwelijks naar uitziet alsof de voor 2023 aangekondigde kaarten hier verandering in gaan brengen simpelweg omdat de prijs lineair meestijgt met de prestaties.
Ik denk dat PC gaming en dus de verkoop van GPU's, een flinke boost zou kunnen krijgen wanneer men voor ~300-350€ een GPU kan kopen die de prestaties van de performance modes van consoles combineert met de graphics van de quality mode. En daar zijn we voorlopig nog niet.
4070 Ti voor $799 is een inkopper en nog steeds $100 te duur, AMD zal volgen met een 7600XT voor $399, die $299 zou moeten kosten (6750XT prestaties of beter). Dat zet wel de gehele RTX 3050 3060 lijn onder prijsdruk.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Lijkt erop dat er een paar milliliter water meer in die vapor chambers had gemoeten. En het lijkt ook niet elke videokaart te zijn. QA fout bij een of meerdere batches lijkt het.
[ Voor 44% gewijzigd door DaniëlWW2 op 03-01-2023 12:01 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Komt allemaal uit dingen die ik door de jaren heen heb gelezen en gekekenCid Highwind schreef op dinsdag 3 januari 2023 @ 10:48:
Een heerlijke uiteenzetting om te lezen!
Mannen als John Carmack en Mark Cerny zijn heerlijk om naar te luisteren, omdat ze allebei pure ingenieurs zijn, heel rustig kunnen vertellen en ook allebei gekke hacks hebben toe gepast - als dit soort dingen je interesseren moet je beide namen gewoon eens in YT intikken. Over de oudere consoles en hun hacks is ook eens ergens een serie video's geweest. Meer voor programmeurs (daarom kwam ik ze überhaupt tegen
Oh, de multiplatform titels hebben we absoluut aan Epic te danken, hoewel het gevolg ook vaak was dat de PC ports "gratis" bij de console versies kwamen en dus met verkeerde settings uit kwamen waardoor je op de PC dat gestotter enzo had. Dat lag niet helemaal aan UE.Valt qua gaming en tech geschiedenis geen speld tussen te krijgen, zeker omdat het toch nog wel wat genuanceerder lag dan ik (veronder)stelde wat het porten van de games betreft destijds. Het ging mij er echter vooral om om het idee dat PC ports een nieuw iets zijn en pas sinds deze generatie volop worden gedaan, verkeerd is. De werkelijke nieuwigheid deze generatie is dat men voor het eerst echt de first party system sellers van Sony op de PC uitgebracht ziet worden. De trend werd natuurlijk al wat ingezet in de vorige generatie met Heavy Rain en Detroit: Become Human, maar het is super te zien dat het doorgezet wordt.
Multiplatform titels die technisch zo goed als gelijk waren hebben we echter vooral te danken aan Unreal Engine 3 denk ik. De Gamebryo games van Bethesda waren natuurlijk ook een goed voorbeeld (Elder Scrolls, Fallout). Het was in die generatie voor het eerst waarbij het de norm was dat cross platform spellen technisch identiek waren en zich zo goed lieten vergelijken. Niet dat ze er in de PSX generatie niet waren, Eidos Interactive (Tomb Raider, Soul Reaver) bracht multiplatform games uit die zeer interessant zijn om te vergelijken, maar het betraf daar toch wel vaak ports die specifiek voor het platform werden aangepast. Een tweede factor van betekenis is simpel de gigantische mainstream acceptatie van gaming in het algemeen, PC ontwikkelaars konden niet meer om consoles heen, dus werden shooters als de COD serie sindsdien ook voor de console ontwikkeld.
In de tijd van de PSX lag PC ontwikkeling in veel gevallen nog dichter op de consoles, omdat DirectX en OpenGL nog heel jong waren. Je had toen ook games die uit kwamen voor DOS + PSX + Saturn (zoals TR bijvoorbeeld), omdat je op al die platformen heel dicht op de hardware kon komen. Allemaal anders, dus kostte wel meer werk, maar je had überhaupt weinig met API's te maken zoals tegenwoordig.
Er zat toen inderdaad veel meer vooruitgang in zowel hardware als software. Dat dat uiteindelijk wat langzamer zou gaan was wel te verwachten, want met de manier waarop moderne GPU's werken is er vrij weinig waar je echt veel winst kunt boeken in de hardware (los van RT). Maar de manier waarop die vooruitgang stil is komen te staan is best bizar, is echt heel snel gegaan. De GPU's mogen uiteindelijk dan wel sneller zijn, maar dat komt niet of nauwelijks door innovatie. AMD probeert het wel nog, maar Nvidia heeft het opgegeven en gooit er gewoon meer hardware tegenaan, niet betere.Anyway, waar ik naartoe wilde is dus dat we in die generatie, dankzij de snelle ontwikkelingen, al binnen twee jaar GPU's konden kopen tegen een prijs waar je nog niet een console voor had, waarmee je de multiplatform games van die tijd makkelijk op dubbele framerates bij gelijke resolutie kon draaien. Met de PS4 generatie was dit volgens mij niet veel anders, al moet daar de kanttekening gemaakt worden dat het relatief gezien budget hardware betrof in plaats van dat wat we in de PS360 generatie vonden.
De afgelopen 4 jaar zijn inderdaad dramatisch geweest. Nvidia zette de stagnatie in met Turing, AMD was bezig met hun nieuwe architectuur. Vervolgens krijg je corona en leveringsproblemen waardoor prijzen omhoog schieten en dan blijkt dat er te veel mensen bereid zijn zo veel te betalen. En dan kom je bij de huidige situatie, waar ze dat prijspeil gewoon vast houden.FFWD naar de huidige generatie, waar we ons nu ook ruim twee jaar in bevinden en je moet vasstellen dat enkel om gelijke power te hebben, je een GPU van 500€ aan hebt te schaffen, terwijl het er tevens nauwelijks naar uitziet alsof de voor 2023 aangekondigde kaarten hier verandering in gaan brengen simpelweg omdat de prijs lineair meestijgt met de prestaties.
Ik denk dat PC gaming en dus de verkoop van GPU's, een flinke boost zou kunnen krijgen wanneer men voor ~300-350€ een GPU kan kopen die de prestaties van de performance modes van consoles combineert met de graphics van de quality mode. En daar zijn we voorlopig nog niet.
Neemt niet weg dat ik er nog steeds van overtuigd ben dat N31 niet z'n volle potentieel laat zien. Of dat nu aan hardware of software (of beide, wat ik vermoed) ligt is afwachten, maar er zit meer in en volgens mij is het op te lossen. In Nvidia's hardware zit ook meer dan er uit komt, maar dat is een stuk lastiger op te lossen.
Als N31 of AD103* 20-30% sneller waren dan ze zijn binnen de huidige parameters (en nogmaals, dat zit er wel gewoon in) dan was de situatie al een stuk beter - vooral ook juist op die lagere prijspunten waar 90% van de PC gamers zit. Hopelijk laten N32 en N33 meer zien, want anders is er weinig tot geen hoop voor die regionen van de markt.
* AD102 heb ik het niet eens over, want dat prijspunt is gewoon absurd en kan ik onmogelijk serieus nemen. Zelfs met inflatie heb je het dan over het prijsniveau van dingen als de ASUS Ares/Mars en dergelijke.
Wordt er daadwerkelijk water in vapour chambers gebruikt? Ik dacht altijd een koolwaterstof met lager kookpunt oid.DaniëlWW2 schreef op dinsdag 3 januari 2023 @ 11:48:
Ronde twee.
Lijkt erop dat er een paar milliliter water meer in die vapor chambers had gemoeten. En het lijkt ook niet elke videokaart te zijn. QA fout bij een of meerdere batches lijkt het.
[YouTube: We open the 7900XTX Vapor Chamber]
Vaak wel gewoon (gedestilleerd) water ja (ook in heatpipes), maar dan met lagere luchtdruk, waardoor het kookpunt lager komt te liggenJoeB2C schreef op dinsdag 3 januari 2023 @ 12:43:
[...]
Wordt er daadwerkelijk water in vapour chambers gebruikt? Ik dacht altijd een koolwaterstof met lager kookpunt oid.
Of dat hier ook het geval is, is lastig te zeggen. Kan ook zijn dat door het CNC process de vloeistof al deels verdampt is en er enkel H2O achtergebleven is
[ Voor 17% gewijzigd door Werelds op 03-01-2023 13:09 ]
Mechwarrior Online: Flapdrol
"Gewoon" water zorgt voor corosie.haarbal schreef op dinsdag 3 januari 2023 @ 13:19:
Het zal gewoon water zijn toch? Geen reden om iets anders te gebruiken bij normale temperaturen.
Meestal word er gezuiverd water (oid) gebruikt.
Lage kosten en op een simpele bewerking na is het overvloedig aanwezig.
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Ik kende alleen de korte versie, vanavond eens de lange kijken!Werelds schreef op maandag 2 januari 2023 @ 11:48:
Of de volledige versie van 2,5 uur: YouTube: Crash Bandicoot Co-Creator Andy Gavin: Extended Interview | Ars Tech...
€500 is te veel. Zowel XSX als PS5 presteren min of meer als een RX6650XT en niet RX6600 zoals ik eerst dacht. Maar ook die zijn voor iets meer dan €350 te vinden.Cid Highwind schreef op dinsdag 3 januari 2023 @ 10:48:
FFWD naar de huidige generatie, waar we ons nu ook ruim twee jaar in bevinden en je moet vasstellen dat enkel om gelijke power te hebben, je een GPU van 500€ aan hebt te schaffen, terwijl het er tevens nauwelijks naar uitziet alsof de voor 2023 aangekondigde kaarten hier verandering in gaan brengen simpelweg omdat de prijs lineair meestijgt met de prestaties.
Ik denk dat PC gaming en dus de verkoop van GPU's, een flinke boost zou kunnen krijgen wanneer men voor ~300-350€ een GPU kan kopen die de prestaties van de performance modes van consoles combineert met de graphics van de quality mode. En daar zijn we voorlopig nog niet.
Maar de verdubbling hiervan, tja dat is RX7900XT/RTX3090TI niveau. Gaat trouwens nog leuk worden hoe dichtbij de RTX4070Ti nu bij de RX7900XT gaat komen. Die verdient eigenlijk ook een unlaunch en rename.

Maar ik denk dat 2x console eigenlijk al haalbaar is voor niet al te extreme prijzen. AD104 haalt dat denk ik ongeveer wel en dat is een 295mm2 chip. Chip per wafer prijs zit die waarschijnlijk nog onder de $100 waardoor een $400 MSRP echt wel zou kunnen. N32 zou hetzelfde of zelfs wat meer moeten kunnen doen en die lijkt 200mm2 + 152mm2 (4x MCD) te zijn. Daar is het vooral de vraag of met N32 de RDNA3 enhancements wel werken.
Want met N31 klopt het ook gewoon niet. 20% groter dan N21, iets van 15% meer clock speed en dan zou je al op 138% moeten zitten van de RX6950XT. De geclaimde, gemiddelde 17% uit tweede SIMD32/VOPD staat er los van. Die zie soms terug in bepaalde games die voorheen erg goed met Nvidia waren. Want met die 17% erbij zou je op 161% zitten, wat veel meer overeenkomt met AMD claimde. En dan zit N31 dichtbij de RTX4090. Immers 100 x 1,20 x 1,15 x 1,17 = 161%. Het zal niet perfect schalen, gebeurd eigenlijk nooit, maar de RX7900XTX presteert nu echt als een 20% grotere RDNA2 chip en daar klopt iets niet.
[ Voor 5% gewijzigd door DaniëlWW2 op 03-01-2023 14:11 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zeker doen! Absoluut één van Ars' beste productiesSp3ci3s8472 schreef op dinsdag 3 januari 2023 @ 14:02:
[...]
Ik kende alleen de korte versie, vanavond eens de lange kijken!
Alles hierin is speculatie natuurlijk, ook van mijn kant.
Je vergeet in het verhaal de factor chiplets, kans is redelijk aanwezig dat chiplets in GPU's minder goed tot uiting komen dan in CPU's.
Het kan zo simpel zijn, een onderdeel van het geheel of helemaal niet.
Maar het is de eerste op chiplet gebaseerde GPU, dus de kans dat dit er iets mee te maken heeft vind ik persoonlijk wel vrij groot.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
En dat denk ik dus niet omdat AMD zeer bewust de minst kritieke en minst latency gevoelige delen van de GPU heeft afgesplitst. Alles waar enige latency van belang is, zit op de GCD zelf. Verder zijn GPU's toch al veel minder latency gevoelig en veel gevoeliger voor bandbreedte. En daar heeft N31 absoluut geen gebrek aan. Idem voor de verbindingssnelheid tussen de MCD's en de GCD.Koldur schreef op dinsdag 3 januari 2023 @ 14:45:
@DaniëlWW2
Alles hierin is speculatie natuurlijk, ook van mijn kant.
Je vergeet in het verhaal de factor chiplets, kans is redelijk aanwezig dat chiplets in GPU's minder goed tot uiting komen dan in CPU's.
Het kan zo simpel zijn, een onderdeel van het geheel of helemaal niet.
Maar het is de eerste op chiplet gebaseerde GPU, dus de kans dat dit er iets mee te maken heeft vind ik persoonlijk wel vrij groot.
Hebben we ook nog dat N31 in compute workloads, veel hogere clock speeds laat zien. Die worden in RDNA apart gescheduld dan graphics en gebruiken ook niet de hele graphics pipeline. Daarom was er bij mij meteen al te vermoeden dat er iets mis zit in de graphics pipeline waardoor de GPU te veel energie verbruikt, terugclockt/hoge clock speeds niet haalt en misschien ook niet helemaal goed meer kan functioneren omdat er te weinig vermogen is. Wordt alleen maar sterker als je ziet dat de RX7900XTX behoorlijke fluctuaties in clock speed laat zien. Nota bene lijken ze 3GHz+ te kunnen doen in Blender. Sterker nog met OC lijkt 3,5GHz zelfs mogelijk te zijn. Op dit artikel zit ik dan ook te wachten omdat die wel vaker echt interessante dingen testen.
[Twitter: https://twitter.com/mullryan49/status/1603578978245263361]
:strip_exif()/f/image/ddGb8vAL3iNAfUjottvfz06S.jpg?f=fotoalbum_large)
Je ziet het ook met een veel beter ontworpen videokaart met een fors hogere powerlimiet. Opeens ga je richting de 2900MHz.
[Twitter: https://twitter.com/mullryan49/status/1603842848486457345]
Als er nu een game was waar je 200MHz minder had, dan zou ik er niet van opkijken. Maar nu hebben we grotere een variatie van honderden megahertz in gaming en lijkt het gemiddelde rond de 2600MHz te zitten. Ondertussen lijken compute workloads zoals Blender een slordige 600MHz hoger te clocken en dat is mij wat te opvallend.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het blijft gissen naar waar het probleem ligt. Dat latency geen groot punt is bij GPU's wil niet zeggen dat het chiplet ontwerp geen invloed kan hebben. Wie weet zit er een proces tussen dat juist bij games de interconnects anders belast tussen de chiplets waardoor kloksnelheid niet vol te gebruiken is.DaniëlWW2 schreef op dinsdag 3 januari 2023 @ 15:30:
[...]
En dat denk ik dus niet omdat AMD zeer bewust de minst kritieke en minst latency gevoelige delen van de GPU heeft afgesplitst. Alles waar enige latency van belang is, zit op de GCD zelf. Verder zijn GPU's toch al veel minder latency gevoelig en veel gevoeliger voor bandbreedte. En daar heeft N31 absoluut geen gebrek aan. Idem voor de verbindingssnelheid tussen de MCD's en de GCD.
Hebben we ook nog dat N31 in compute workloads, veel hogere clock speeds laat zien. Die worden in RDNA apart gescheduld dan graphics en gebruiken ook niet de hele graphics pipeline. Daarom was er bij mij meteen al te vermoeden dat er iets mis zit in de graphics pipeline waardoor de GPU te veel energie verbruikt, terugclockt/hoge clock speeds niet haalt en misschien ook niet helemaal goed meer kan functioneren omdat er te weinig vermogen is. Wordt alleen maar sterker als je ziet dat de RX7900XTX behoorlijke fluctuaties in clock speed laat zien. Nota bene lijken ze 3GHz+ te kunnen doen in Blender. Sterker nog met OC lijkt 3,5GHz zelfs mogelijk te zijn. Op dit artikel zit ik dan ook te wachten omdat die wel vaker echt interessante dingen testen.
[Embed]
[Afbeelding]
Je ziet het ook met een veel beter ontworpen videokaart met een fors hogere powerlimiet. Opeens ga je richting de 2900MHz.
[Twitter]
[Afbeelding]
[Afbeelding]
Als er nu een game was waar je 200MHz minder had, dan zou ik er niet van opkijken. Maar nu hebben we grotere een variatie van honderden megahertz in gaming en lijkt het gemiddelde rond de 2600MHz te zitten. Ondertussen lijken compute workloads zoals Blender een slordige 600MHz hoger te clocken en dat is mij wat te opvallend.
Ik vind het technisch erg gaaf dat ze het toepassen, maar het is de eerste GPU die het gebruikt. We zullen het in de toekomst zien. Niemand heeft er concreet bewijs van wat het is, maar mijn idee is dat het wel iets met het chiplet ontwerp te maken heeft.
We zullen het in de toekomst te weten komen, maar verder hier zonder concreet technisch bewijs vanuit het ontwerp, heeft verder discussiëren hierover geen meerwaarde.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Maar theoretisch zou dit niet het geval moeten zijn, dus zit je dan alsnog eerder te denken aan een implementatiebug, dan aan een fundamentele beperking van de chiplet-architectuur.Koldur schreef op dinsdag 3 januari 2023 @ 15:56:
[...]
Het blijft gissen naar waar het probleem ligt. Dat latency geen groot punt is bij GPU's wil niet zeggen dat het chiplet ontwerp geen invloed kan hebben. Wie weet zit er een proces tussen dat juist bij games de interconnects anders belast tussen de chiplets waardoor kloksnelheid niet vol te gebruiken is.
De kloksnelheidproblemen van N31 zien we ook niet optreden bij de Ryzen, wat ook tegenspreekt dat zulke problemen altijd optreden bij een chiplet-opzet.
Maar ik ben het volledig met Daniel eens dat de bevindingen er sterk op wijzen dat er iets mis is met de gaming-pijplijn, en gezien het hoge verbruik, mogelijk een lekkage.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Eens, ze zouden de 7900 XTX eigenlijk 7900 BETA moeten noemen. èn RDNA3 èn N5 èn chiplets in 1 stap is gewoon teveel.Koldur schreef op dinsdag 3 januari 2023 @ 15:56:
[...]
Het blijft gissen naar waar het probleem ligt. Dat latency geen groot punt is bij GPU's wil niet zeggen dat het chiplet ontwerp geen invloed kan hebben. Wie weet zit er een proces tussen dat juist bij games de interconnects anders belast tussen de chiplets waardoor kloksnelheid niet vol te gebruiken is.
Ik vind het technisch erg gaaf dat ze het toepassen, maar het is de eerste GPU die het gebruikt. We zullen het in de toekomst zien. Niemand heeft er concreet bewijs van wat het is, maar mijn idee is dat het wel iets met het chiplet ontwerp te maken heeft.
We zullen het in de toekomst te weten komen, maar verder hier zonder concreet technisch bewijs vanuit het ontwerp, heeft verder discussiëren hierover geen meerwaarde.
Ik denk ook zeker dat de 7900 XTX te weinig krijgt met 355 W TBP.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
zou meer geven de GPU niet nog minder efficient maken? Ze lijken nu de 50% efficiënter niet te halen, ik vraag me af of de kaart nog verder te 'overklokken' dat zou helpen. Normaal win je dan wel wat, maar gaat het wel ten koste van je efficiëntie. Iets dat ze nu notabene al lijken te verliezen t.a.v. de 4080, terwijl vooraf gedacht werd door iedereen in the scene dat AMD rondjes ging draaien om ADA als het aan zou komen op efficiëntie.sunsmountain schreef op dinsdag 3 januari 2023 @ 17:35:
[...]
Ik denk ook zeker dat de 7900 XTX te weinig krijgt met 355 W TBP.
Je kunt het vergelijken met een auto waarvan de benzinetank lek is. Je komt dan niet ver, maar de auto is alsnog niet zuinig.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nou we zien dat nog eens 100W je iets van 300MHz oplevert.Dennism schreef op dinsdag 3 januari 2023 @ 19:16:
[...]
zou meer geven de GPU niet nog minder efficient maken? Ze lijken nu de 50% efficiënter niet te halen, ik vraag me af of de kaart nog verder te 'overklokken' dat zou helpen. Normaal win je dan wel wat, maar gaat het wel ten koste van je efficiëntie. Iets dat ze nu notabene al lijken te verliezen t.a.v. de 4080, terwijl vooraf gedacht werd door iedereen in the scene dat AMD rondjes ging draaien om ADA als het aan zou komen op efficiëntie.
Het punt is alleen dat het niet zozeer aan de rekeneenheden zelf lijkt te liggen. Als die compute shaders afwerken dan is er ruim powerbudget om veel hoger te clocken. Mijn vermoeden is dan ook dat Rasterisation disproportioneel veel vermogen lijkt te vragen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Niet zonder de power tables te unlocken / beter in te stellen. Drivers kunnen nog wel iets doen, maar met 96 CU's versus 128 SM's van Nvidia (later 142/144 SM's) moet AMD die hogere clocks halen, als in 3300 MHz+, anders blijft Navi31 een "mislukking" (prijs kan dit nog steeds een goed product maken natuurlijk).Dennism schreef op dinsdag 3 januari 2023 @ 19:16:
[...]
zou meer geven de GPU niet nog minder efficient maken? Ze lijken nu de 50% efficiënter niet te halen, ik vraag me af of de kaart nog verder te 'overklokken' dat zou helpen. Normaal win je dan wel wat, maar gaat het wel ten koste van je efficiëntie. Iets dat ze nu notabene al lijken te verliezen t.a.v. de 4080, terwijl vooraf gedacht werd door iedereen in the scene dat AMD rondjes ging draaien om ADA als het aan zou komen op efficiëntie.
Dus de hoop is met een betere BIOS, betere verdeling van die extra TBP, dat er meer uit gehaald gaat worden. Maar eerst zien, dan geloven.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Performance claims zijn nogal opvallend omdat AMD claimt dat de RX7600M XT met een 120W TDP, sneller is dan de RTX3060 desktop met een 170W TDP. Tja eerst zien dan geloven na wat ze met N31 hebben gedaan.



https://videocardz.com/ne...s-with-rdna3-architecture
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Valt op dat ze deze keer de performance weer wel vergelijken met Nvidia, wat ze met Navi31 niet deden. Performance verder wat je van 32 (krachtigere) CU's mag verwachten.DaniëlWW2 schreef op donderdag 5 januari 2023 @ 09:17:
En daar is N33. Geheel zoals verwachting 32CU's, ongeveer 200mm2, N6. Naamgeving is een puinzooi met een 32CU SKU die de RX7700S heet en de ander met een hogere TDP heet de RX7600M XT.![]()
Performance claims zijn nogal opvallend omdat AMD claimt dat de RX7600M XT met een 120W TDP, sneller is dan de RTX3060 desktop met een 170W TDP. Tja eerst zien dan geloven na wat ze met N31 hebben gedaan.
[Afbeelding]
[Afbeelding]
[Afbeelding]
https://videocardz.com/ne...s-with-rdna3-architecture
Geen prijzen van 7800X3D of 7950X3D helaas, dat zou fijn zijn geweest.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dit zijn ook alleen maar de mobiele varianten, misschien dat de desktop uitvoering (waar helaas geen woord over gerept is) een hoger TDP en betere naamgeving krijgt?DaniëlWW2 schreef op donderdag 5 januari 2023 @ 09:17:
En daar is N33. Geheel zoals verwachting 32CU's, ongeveer 200mm2, N6. Naamgeving is een puinzooi met een 32CU SKU die de RX7700S heet en de ander met een hogere TDP heet de RX7600M XT.![]()
Performance claims zijn nogal opvallend omdat AMD claimt dat de RX7600M XT met een 120W TDP, sneller is dan de RTX3060 desktop met een 170W TDP. Tja eerst zien dan geloven na wat ze met N31 hebben gedaan.
[Afbeelding]
[Afbeelding]
[Afbeelding]
https://videocardz.com/ne...s-with-rdna3-architecture
Dat lijkt me wel dat die een hogere TDP krijgen. Betere naamgeving betwijfel ik alleen.XWB schreef op donderdag 5 januari 2023 @ 10:05:
[...]
Dit zijn ook alleen maar de mobiele varianten, misschien dat de desktop uitvoering (waar helaas geen woord over gerept is) een hoger TDP en betere naamgeving krijgt?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zo dat is behoorlijk teleurstellend, want dat zijn praktisch RX6650XT prestaties met hetzelfde aantal CU's.DaniëlWW2 schreef op donderdag 5 januari 2023 @ 09:17:
En daar is N33. Geheel zoals verwachting 32CU's, ongeveer 200mm2, N6. Naamgeving is een puinzooi met een 32CU SKU die de RX7700S heet en de ander met een hogere TDP heet de RX7600M XT.![]()
Performance claims zijn nogal opvallend omdat AMD claimt dat de RX7600M XT met een 120W TDP, sneller is dan de RTX3060 desktop met een 170W TDP. Tja eerst zien dan geloven na wat ze met N31 hebben gedaan.
[Afbeelding]
[Afbeelding]
[Afbeelding]
https://videocardz.com/ne...s-with-rdna3-architecture
Enige verschil is dat N33 dat nu dus doet op 120W i.p.v. 180W.
Zou mij niets verbazen als N33 op de desktop dus maar zo'n 15% verbetering is t.o.v. N23.
If you do not change direction, you may end up where you are heading
Tja het is wel 50% perf/watt.DaWaN schreef op donderdag 5 januari 2023 @ 10:45:
[...]
Zo dat is behoorlijk teleurstellend, want dat zijn praktisch RX6650XT prestaties met hetzelfde aantal CU's.
Enige verschil is dat N33 dat nu dus doet op 120W i.p.v. 180W.
Zou mij niets verbazen als N33 op de desktop dus maar zo'n 15% verbetering is t.o.v. N23.
Verder zou 15% me niet al te veel verbazen. Dat is namelijk wat je zou krijgen als N33 op 3GHz loopt zonder dat de tweede SIMD32 iets doet. Die lijkt al beperkt te functioneren bij N31, maar bij N33 mist ook de 50% extra (128KB naar 192KB) vector register file. Dat zal een impact hebben voor zowel die tweede SIMD32 als RT. Je moet waarschijnlijk ruim over de 3GHz gaan om echt een stuk sneller te zijn. Ik denk alleen niet dat AMD het in hun hoofd zal halen om hier de hoofdprijs voor te vragen. En RX6700XT prestaties of beter voor minder dan 200W lijkt me ook niet slecht, zo lang als de prijs maar redelijk blijft.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk niet dat AMD haast gaat maken met N33 op de desktop.DaniëlWW2 schreef op donderdag 5 januari 2023 @ 11:15:
[...]
Ik denk alleen niet dat AMD het in hun hoofd zal halen om hier de hoofdprijs voor te vragen. En RX6700XT prestaties of beter voor minder dan 200W lijkt me ook niet slecht, zo lang als de prijs maar redelijk blijft.
Op 1440p en hoger verwacht ik N33 niet boven de RX 6750 XT qua prestaties.
Ze kunnen de RX 7600 dus niet introduceren op het huidige prijsniveau van de RX 6750 XT, hooguit tussen 6650XT en 6750XT.
Gezien het debacle met de RTX4070Ti verwacht ik niet dat een prijsverhoging gewaardeerd wordt op dit prestatieniveau.
Het heeft dus alleen zin voor AMD om de RX 7600 op de desktop te introduceren als ze geen voorraad meer hebben van RX 6650 en RX 6750.
If you do not change direction, you may end up where you are heading
Normaal gesproken niet eens zo erg, maar juist nu lanceren ze met dragonrange een high end mobile lijn, die zoals we al verwachten inderdaad maar 2 CU's heeft (want het zijn gewoon gebinde desktop cpu's), die ook nog eens mogelijk goed verkrijgbaar kunnen zijn (want wederom, het zijn gewoon gebinde desktop cpu's).
Maar wat ontbreekt, de GPU's om te koppelen aan deze cpu's. Dit zijn toch geen cpu's die je van top to bottom wil koppelen aan N33, hier hoort een hele range bij, van N33 tot GPU's die competitief gaan zijn met de RTX 4090 mobile.
Anders zie je straks weer dat alle 'top' gaming laptops Raptor Lake gaan zijn, want AMD levert geen competitive GPU. Want AMD laptops met Nvidia GPU's zijn volgens mij nog een grotere 'unicorn' dan dat AMD 6000 series laptops nu uberhaupt al zijn.
De naamgeving is volgens mij net zo ruk als de RX 6000M serie, maar met de desktop RX 6000 serie is dan weer niets mis mee. Ik blijf hoopvolDaniëlWW2 schreef op donderdag 5 januari 2023 @ 10:13:
[...]
Dat lijkt me wel dat die een hogere TDP krijgen. Betere naamgeving betwijfel ik alleen.
https://www.amd.com/en/products/apu/amd-ryzen-9-7940hs
Verder N33 mobiele SKU's. De RX7600M XT is maximaal 120W, de RX7600M is 90W, RX7700S is 100W en RX7600S is 75W.
N23 is respectievelijk 120W, 120W en 100W.AMD Radeon™ RX 7600M XT
32 2300 MHz
AMD Radeon™ RX 7600M
28 2070 MHz
AMD Radeon™ RX 7700S
32 2200 MHz
AMD Radeon™ RX 7600S
28 1865 MHz
https://www.amd.com/en/graphics/amd-radeon-rx-laptopsAMD Radeon™ RX 6650M XT
32 2162 MHz
AMD Radeon™ RX 6650M
28 2222 MHz
AMD Radeon™ RX 6600M
28 2177 MHz
Er zit zeker wat frequentiewinst tussen N23 en N33 op vergelijkbaar verbruik, maar niet erg veel. Volle chip (RX7600M XT en RX6650M XT) op 120W is ongeveer 140MHz. Ook op 100W (RX7700S) zou de clock speeds nog iets hoger moeten blijven voor N33. Maar met de 90W van de RX7600M tegen de 100W van de RX6600M is het opeens 100MHz beter voor N23.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het is dan ook een mobiele chip. Ik zou vermoeden dat als je binnen één lijn de mobiele en desktop GPUs naast elkaar zet, de mobiele GPUs betere performance per watt hebben, immers die zijn qua instellingen daarvoor geoptimaliseerd (eg lagere spanningen / klokfrequenties). Terwijl de desktop GPUs een betere prijs/kwaliteit hebben (hogere spanning op een chip zetten voor betere prestaties kost niks).
Uiteraard zeker dat laatste is niet te vergelijken gezien we niet weten hoeveel OEMs voor mobiele GPUs exact betalen, maar het lijkt mij iig logisch.

En ze geven tussen alle mitsen en maren toe dat het inderdaad te weinig water is in de vapor chamber voor alleen de MBA XTX.
En ook schoorvoetend toegegeven dat ze misschien eerlijk moeten zijn over pre launch prestatieclaims.

[ Voor 43% gewijzigd door DaniëlWW2 op 06-01-2023 10:19 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Denk dat je mitsen en maren en schoorvoetend toegeven eerder moet zetten onder de Nederlandse directheid.DaniëlWW2 schreef op vrijdag 6 januari 2023 @ 10:12:
En dit lijkt me serieuze damage control.![]()
[YouTube: Scott Herkelman Addresses RX 7900 XTX Cooler & Performance]
En ze geven tussen alle mitsen en maren toe dat het inderdaad te weinig water is in de vapor chamber voor alleen de MBA XTX.
En ook schoorvoetend toegegeven dat ze misschien eerlijk moeten zijn over pre launch prestatieclaims.
Als vertegenwoordiger van een groot bedrijf geeft hij naar mijn gevoel juist snel korte en duidelijke antwoorden.
Het hele shot duurt nog geen 8min, waarvan al 2m30 introductie is, en 35sec closing.
Effectief houd je 5min over
~3min waarin er duidelijk word verwoord wat wel en niet fout is met de videokaarten (MBA/OEM)
~2min waarin er word gevraagd over claims en hij zelf toegeeft dat de "up-to" messaging niet meer word gebruikt.
Ik denk dat als ze het nog korter en bondiger hadden gedaan iedereen had geklaagd over dat het te kort zou zijn...
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Ja het blijft natuurlijk iemand die het merk moet blijven promoten (vond het heel iritant dat hij even de CES keynote moest promoten voor hij de vraag ging beantwoorden) maar ik vond het wel netjes dat ze toegeven dat ze het niet goed gedaan hebben en vooral beloven eerlijker te zijn en het goed gaan doen in de toekomst. Maar daar ga ik ze ook aan houden.DaniëlWW2 schreef op vrijdag 6 januari 2023 @ 10:12:
En dit lijkt me serieuze damage control.![]()
[YouTube: Scott Herkelman Addresses RX 7900 XTX Cooler & Performance]
En ze geven tussen alle mitsen en maren toe dat het inderdaad te weinig water is in de vapor chamber voor alleen de MBA XTX.
En ook schoorvoetend toegegeven dat ze misschien eerlijk moeten zijn over pre launch prestatieclaims.
Ik was ook wel erg extreem teleurgesteld wat ze met die RDNA3 presentatie gedaan hebben. En waarom reviewers komen er toch wel achter. Wees gewoon eerlijk je hebt je zelf er alleen maar mee.
Ik heb gister ook echt met heel veel twijfel naar alle performance claims in de CES presentatie zitten kijken. Ja het kan wel maar misschien is die 13-31% van Zen4X3D ook wel best case en is het meestal 10%. Ze hebben mijn vertrouwen nu helemaal niet meer. Mogen ze eerst terug gaan verdienen door het weer een aantal keer goed te doen.
Het was minder erg dan nVidia's vergelijking van de 4070Ti die 3X sneller is dan last gen door DLSS3.0 te vergelijken met geen DLSS of wat ze daar ook gedaan hebben. Maar het was wel een grote shitshow van AMD. Bij nVidia weet je al jaren dat je niets van die presentaties moet geloven.
[ Voor 3% gewijzigd door Astennu op 06-01-2023 13:27 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar die directheid laat me wel zien dat het hier om een mea culpa gaat omdat ze het te erg hebben verpest en gedwongen worden en niet omdat ze het nu echt menen. Want ondertussen worden nog steeds de zeer hoge prijspunten verdedigd, de misleidende prestatieclaims afgedaan als een verbeterpunt voor de toekomst en niet een keiharde toezegging dit niet meer te doen, alsmede de defecten zo klein mogelijk gehouden.raymondw schreef op vrijdag 6 januari 2023 @ 10:34:
[...]
Denk dat je mitsen en maren en schoorvoetend toegeven eerder moet zetten onder de Nederlandse directheid.
Als vertegenwoordiger van een groot bedrijf geeft hij naar mijn gevoel juist snel korte en duidelijke antwoorden.
Het hele shot duurt nog geen 8min, waarvan al 2m30 introductie is, en 35sec closing.
Effectief houd je 5min over
~3min waarin er duidelijk word verwoord wat wel en niet fout is met de videokaarten (MBA/OEM)
~2min waarin er word gevraagd over claims en hij zelf toegeeft dat de "up-to" messaging niet meer word gebruikt.
Ik denk dat als ze het nog korter en bondiger hadden gedaan iedereen had geklaagd over dat het te kort zou zijn...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Of de claims dat AMD nu toch wel echt dichtbij zou komen met raytracing.
En wat mij betreft mag iedere dlss en fsr vergelijking uit iedere presentatie verdwijnen. Tis een optie, net zoals er vele andere grafische opties in de driver en spellen zijn. Native, anders niks en laat de gebruiker dan maar kiezen wat ie erbij aan zet. Reviews is weer wat anders, zolang de upscaling maar gescheiden tests blijven.
https://chipsandcheese.co...-3-graphics-architecture/
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Hij maakt goede punten; het moet vanuit de supply chain komen om die kaarten na te gaan. Niet vanuit de klanten, want niet iedereen weet zelfs wat een gpu is.....
Als het niet een bepaalde serie nummer range met fouten is dan is dat lastiger, maar toch.
[ Voor 50% gewijzigd door Sp3ci3s8472 op 08-01-2023 13:17 . Reden: mening ]
Dat N31 problemen met VOPD zou hebben die opgelost kunnen worden door betere handmatige shaders aanpassen was niet moeilijk te raden. Het werkt ook alleen voor wave32 en is vervolgens aan een aantal extra regels gebonden. Als de compiler vervolgens ook nog eens moeite heeft om VOPD mogelijkheden te vinden, dan gaat het lastig worden.
Ik vermoed dat nu wave64 beter werkt. Want nu een FP wave64 kan single issued worden en dan ga je wel forse versnelling zien over dual issue wave64 waarbij in feite eerst de ene helft en dan de andere helft berekend zal worden.
Kwam ook dit nog tegen:
https://www.hardwaretimes...s-will-improve-over-time/Wave64 natively can access the new ALUs for 2x execution rates to unlock performance during dense ALU code execution. For Wave32 mode, the compiler does localized reordering and packing of instructions into the VOPD encoding. An RT test scene using VOPD encodings provided approximately a 4% increase in frames per second by removing the ALU bottleneck. We expect to see further improvements as the compiler matures with more optimizations for mapping code sequences to the VOPD encodings. And with the advances happening in the use of AI, RT, and compute-driven rendering techniques for more life-like rendering, we expect to see codes bound by ALU that will exploit these new ALUs more and more.
Lijkt er dus op dat dit nog wel verbeterd zal worden.
Maar waar veel meer benieuwd naar zijn, waarom sommige workloads heel andere, veel betere clock speeds hebben dan anderen, tja daar is niks mee gedaan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, daar had ik ook op gehoopt.DaniëlWW2 schreef op zondag 8 januari 2023 @ 19:23:
Maar waar veel meer benieuwd naar zijn, waarom sommige workloads heel andere, veel betere clock speeds hebben dan anderen, tja daar is niks mee gedaan.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
The discontinuation of Afterburner would graphics card overclocking in jeopardy. The second most popular app, EVGA Precision X has effectively been discontinued, with the company's exit from the graphics card business; and now the Unwinder-developed Afterburner stares at an uncertain future, too. MSI's reasons for not paying Unwinder are debatable. There are several civilian payment channels to Russia still open. There are also neutral countries like India, which have direct settlement of Russian Rubles without involving US Dollars or SWIFT. MSI India, for example, sells graphics cards for Indian Rupees, and uses Indian banks that can settle Russian Ruble payments to Unwinder on behalf of MSI. Perfectly legal ways to pay Unwinder exist. Unwinder and Afterburner are two precious jewels for the DIY PC enthusiast community, and we hope MSI can sort this out, pay Unwinder his arrears for 2022, and fund continued development of Afterburner.
[ Voor 68% gewijzigd door Help!!!! op 09-01-2023 09:44 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Gebruikten mensen dan MSI Afterburner nog? Sinds de AMD driver hetzelfde kan mis ik het echt niet meer. Wellicht is dit anders voor Nvidia kaarten of heeft Nvidia ook overclocking tools in hun GFE zitten tegenwoordig (dacht van niet).Help!!!! schreef op maandag 9 januari 2023 @ 09:39:
MSI Afterburner Developer Hasn't been Paid for a Year, Product Development in Limbo
The discontinuation of Afterburner would graphics card overclocking in jeopardy. The second most popular app, EVGA Precision X has effectively been discontinued, with the company's exit from the graphics card business; and now the Unwinder-developed Afterburner stares at an uncertain future, too. MSI's reasons for not paying Unwinder are debatable. There are several civilian payment channels to Russia still open. There are also neutral countries like India, which have direct settlement of Russian Rubles without involving US Dollars or SWIFT. MSI India, for example, sells graphics cards for Indian Rupees, and uses Indian banks that can settle Russian Ruble payments to Unwinder on behalf of MSI. Perfectly legal ways to pay Unwinder exist. Unwinder and Afterburner are two precious jewels for the DIY PC enthusiast community, and we hope MSI can sort this out, pay Unwinder his arrears for 2022, and fund continued development of Afterburner.
Het is eigenlijk treurig dat Afterburner nog steeds het beste is wat er is voor Nvidia en ik ben het met @Sp3ci3s8472 eens dat dit eigenlijk beter in het Nvidia topic past.
Nvidia heeft overduidelijk wel de ontwikkelcapaciteit en zeker het geld om iets beters te maken.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik gebruik het alleen voor de overlay. Die is veel en veel beter als de meuk in de AMD drivers. Maar dat is echt tot ik de game getuned heb en dan gaat het weer uit ror de volgende game.Sp3ci3s8472 schreef op maandag 9 januari 2023 @ 10:23:
[...]
Gebruikten mensen dan MSI Afterburner nog? Sinds de AMD driver hetzelfde kan mis ik het echt niet meer. Wellicht is dit anders voor Nvidia kaarten of heeft Nvidia ook overclocking tools in hun GFE zitten tegenwoordig (dacht van niet).
Ik zie graag de ram/vram use, de load per core, beide temps en hotspot voor de delta, power draws voor beide cpu en gpu want daar tune ik met deze stroomprijzen ook op en de frametime graph is een must. Het daarnaast ook in te delen in kleuren en segmenten waardoor je cpu en gpu kan scheiden en je meer overzicht hebt.
En een heel enkele keer als de game geen fps limit heeft en ik geen vsync wil gebruik ik het voor een fps cap omdat dat beter is (latency) als de driver optie.
GFE heeft inderdaad ook een OC tool en AI OC maar ik gebruik toch liever MSI AB waar ik wat meer mee kan monitoren.Sp3ci3s8472 schreef op maandag 9 januari 2023 @ 10:23:
[...]
Gebruikten mensen dan MSI Afterburner nog? Sinds de AMD driver hetzelfde kan mis ik het echt niet meer. Wellicht is dit anders voor Nvidia kaarten of heeft Nvidia ook overclocking tools in hun GFE zitten tegenwoordig (dacht van niet).
Ze zijn eigenlijk allemaal el-cheapo ingekochte rotzooi die allemaal dezelfde drivers met kernel exploits draaien. Niet dat AMD het beter doet, want ook Ryzen Master bevatte een dergelijke exploit om maar een voorbeeld te noemen en zo zijn er nog honderden voorbeelden van "AIB vendors" (zo ongeveer alle overclock, flash en monitoring tools zijn ruk reskins met dezelfde driver codebase erachter, waaronder ook Afterburner en alle andere ASUS en MSI rotzooi), maar ook voldoende voorbeelden van de fabrikanten zelf (AMD, Nvidia en Intel oa) of de bekende tools CPU-Z en GPU-Z...Ludewig schreef op maandag 9 januari 2023 @ 10:30:
Ik wist niet dat het eigenlijk gewoon een ingekocht tooltje is. Dat verklaart wel waarom het zo goed werkt, want de AIB's zijn zelf uiterst incompetent op softwaregebied (zie de der8auer video over de dramatische stand van zaken bij RGB-software).
Het is eigenlijk treurig dat Afterburner nog steeds het beste is wat er is voor Nvidia en ik ben het met @Sp3ci3s8472 eens dat dit eigenlijk beter in het Nvidia topic past.
Nvidia heeft overduidelijk wel de ontwikkelcapaciteit en zeker het geld om iets beters te maken.
Stuk voor stuk kunnen deze tools je rechten op driver niveau en als je op die laag zit kun je alles doen (rood in dit plaatje):
/f/image/9V2Y0Fki9yOkTvpzVt67cHkx.png?f=fotoalbum_large)
Ik moet dan ook altijd grinniken wanneer iemand op Tweakers over security en privacy spreekt, terwijl ik tegelijkertijd dit soort tools in de taskbar van een screenshot van dezelfde Tweaker zie draaien.
Even een voorbeeld van die Ryzen Master exploit uit 't linkje:

[ Voor 55% gewijzigd door Paprika op 09-01-2023 13:45 ]
[ Voor 85% gewijzigd door br00ky op 09-01-2023 13:27 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ludewig schreef op zondag 8 januari 2023 @ 12:18:
Chips & Cheese heeft zijn microbenchmark-artikel over RDNA3 klaar:
https://chipsandcheese.co...-3-graphics-architecture/

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
<knip> waarschijnlijk onzin / clickbait.
[ Voor 41% gewijzigd door sunsmountain op 11-01-2023 22:40 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
https://videocardz.com/ne...-sign-of-reference-models
En ondertussen hebben de RTX4080 en RTX4070Ti wel een nieuw ontwerp gekregen met nieuwe ventilatoren en een koperen plaat in plaats van direct heat pipes...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
N33 voor laptops zijn aangekondigd. Dat was het ook.pixeled schreef op woensdag 11 januari 2023 @ 12:37:
Wellicht heb ik er volledig overheen gelezen, maar heeft iemand nu CES voorbij is een idee wanneer AMD zijn Navi32 en Navi33 line up aan gaat kondigen?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
We kunnen terugvallen op YouTuber RedGamingTech, die volgorde tot nu toe goed heeft voorspeld:pixeled schreef op woensdag 11 januari 2023 @ 12:37:
Wellicht heb ik er volledig overheen gelezen, maar heeft iemand nu CES voorbij is een idee wanneer AMD zijn Navi32 en Navi33 line up aan gaat kondigen?
Navi31
Navi33 voor laptop
Navi33 voor desktop
Navi32 voor laptop/desktop
Navi31 refresh / RDNA3+
waarbij die laatste op zijn vroegst Q3 verwacht wordt.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
AMD RDNA™ 3 Instruction Set Architecture (ISA) reference guide is now available
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Komt een dag of 3 te laat, maar denk dat het geen echt probleem is eigenlijk. Behalve die vid die nu al wat ouder is, is er geen informatie die dit zou ondersteunen. Het moeilijk om het toeval te noemen op basis van de gegevens in de vid, maar nu er al een paar dagen geen enkele informatie is om dit te ondersteunen, zou ik het toch wel toeval noemen denk ik.
Zeker maar kan toch geen kwaad om even op te passen als je zo'n kaart hebt. Ik doe het zelf vaak wel echter het is maar zelden noodzaak om gelijk de nieuwste drivers te installen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Yea, ik update zelf mijn drivers eigenlijk zelden, maar toevallig week of 2 geleden geupdate omdat een game niet echt lekker ging, die driver update was het probleem niet maar was meer een Vsync-probleem, maar goed, heb er zelf tot dusverre geen problemen mee (met een 6800).Help!!!! schreef op vrijdag 13 januari 2023 @ 18:31:
^
Zeker maar kan toch geen kwaad om even op te passen als je zo'n kaart hebt. Ik doe het zelf vaak wel echter het is maar zelden noodzaak om gelijk de nieuwste drivers te installen.
Weet je wat dan jammer is, het werkt wel goed als je DXVK gebruikt

Wel triest dat AMD een bug die ze zelf hebben geintroduceerd met +/- de launch van de 6xxx kaarten en drivers nog niet heeft gefixed. Elke keer een bug report bij een nieuwe driver verise wordt je ook moedeloos van.
[ Voor 3% gewijzigd door Sp3ci3s8472 op 16-01-2023 12:34 ]
Whoopsy!
Gelukkig ook positief nieuws, tot 57%(!) betere power efficiency sinds de laatste drivers:
Updated AMD Radeon RX 7900 drivers reduce power consumption in FPS-limited games
[ Voor 36% gewijzigd door pixeled op 16-01-2023 15:58 . Reden: Positief nieuws toevoegen :p ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Lisa heeft hem VP gemaakt, in de hoop dat hij zich minder met marketing ging bezig houden vermoed ik... helaas niet gelukt.Ludewig schreef op maandag 16 januari 2023 @ 16:17:
Herkleman blijkt dus gelogen te hebben. Volgens mij is dat ook de baan van die vent, want tijdens de presentaties komt hij ook met de grootste leugens (zoals zijn 8k die geen 8k is).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Tja die RMA is gemakkelijk op te lossen, nieuwe koeler erop, testen en terug naar klant als de koeler het probleem is.pixeled schreef op maandag 16 januari 2023 @ 15:53:
AMD Radeon RX 7900 XTX Failure Rates Reportedly At 11%, RMA’s Piling Up But Users Not Receiving Cards
Whoopsy!
Gelukkig ook positief nieuws, tot 57%(!) betere power efficiency sinds de laatste drivers:
Updated AMD Radeon RX 7900 drivers reduce power consumption in FPS-limited games
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Helaas, dat is niet 1-2-3 gedaan.Damic schreef op maandag 16 januari 2023 @ 18:33:
[...]
Tja die RMA is gemakkelijk op te lossen, nieuwe koeler erop, testen en terug naar klant als de koeler het probleem is.
- Ze zullen eerst gaan vast stellen of het echt alleen vloeistof is.
- Dan word er een ontwerp aanpassing gedaan en moet het productie process aangepast worden.
- AMD zal eisen dat er xxx units getest gaat worden, dit om een tweede debacle te voorkomen.
- Daarna moet alles gelabeld, verpakt worden en verstuurd worden.
- Ondertussen moet er "visual aid" gemaakt worden hoe de reparaties gedaan moeten worden.
Er zitten nog wel 1001 andere stappen bij, maar dat word wel mieredingesen....
Denk dat het aanpassen van het gehele process wel in de weken zal gaan lopen.
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Dat lijkt me nogal overdreven. In principe is de fix slechts een machine-aanpassing om meer water te injecteren, vermoedelijk door een reparatie van een machine (verstopping in de watertoevoer of zo).
Het plaatsen van de koelers en verpakken is wat ze al doen. Het eraf halen van een koeler is ook geen rakettechnologie. Het extra testen heeft weinig te maken met de reparaties, want dat hebben ze ondertussen als het goed al gedaan na het aanpassen van de machine(s). Lang voordat de kaarten überhaupt in de fabriek aankomen moet het productieproces namelijk al gefixed worden zodat er geen nieuwe koelers met een fout worden gemaakt.
Daarnaast moeten ze de al geproduceerde, maar niet geleverde kaarten fixen, dus het hele reparatieproces zouden ze ook al onder de knie moeten hebben voordat de kaarten van de consument in de fabriek aankomen.
Het grootste gedoe is vermoedelijk om een hele logistiek op te zetten voor massale teruglevering. En als ze precies dezelfde kaart weer willen teruggeven aan dezelfde gebruiker moeten we hem door het hele proces heen tracken.
[ Voor 6% gewijzigd door Ludewig op 16-01-2023 20:37 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nope,is niet overdreven.Ludewig schreef op maandag 16 januari 2023 @ 20:00:
@raymondw
Dat lijkt me nogal overdreven. In principe is de fix slechts een machine-aanpassing om meer water te injecteren, vermoedelijk door een reparatie van een machine (verstopping in de watertoevoer of zo).
Het plaatsen van de koelers en verpakken is wat ze al doen. Het eraf halen van een koeler is ook geen rakettechnologie. Het extra testen heeft weinig te maken met de reparaties, want dat hebben ze ondertussen als het goed al gedaan na het aanpassen van de machine(s). Lang voordat de kaarten überhaupt in de fabriek aankomen moet het productieproces namelijk al gefixed worden zodat er geen nieuwe koelers met een fout worden gemaakt.
Daarnaast moeten ze de al geproduceerde, maar niet geleverde kaarten fixen, dus het hele reparatieproces zouden ze ook al onder de knie moeten hebben voordat de kaarten van de consument in de fabriek aankomen.
Het grootste gedoe is vermoedelijk om een hele logistiek op te zetten voor massale teruglevering.
Zoals je zelf al zegt de machine(S) moeten gecontroleerd worden
Er zullen units getest moeten worden met een statische load: grote weerstand.
Plaatsen en verpakken moet met de nieuwe onderdeel nummers, dat moet extra gecontroleerd worden.
Het eraf halen is niet belangrijk, maar het CORRECT plaatsen weer wel (de Visual Aid voor de niet technische medewerker)
Al met al zijn dit allemaal juridische stappen die op email, documentatie en foto's vastgelegd dienen te worden.
En dat voor ELKE handeling bij alles.
We gaan stap 1 doen -> Akkoord, jullie doen stap 1 -> We zijn klaar met stap 1, we gaan nu naar stap 2 -> Documentatie is akkoord voor stap 1, jullie mogen door met stap 2 enz enz enz
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Ik geloof er helemaal niks van dat ze elke reparatie helemaal gaan vastleggen op de manier die je schetst.
Sowieso kom je met allerlei ideeën zoals design-aanpassingen die helemaal niet aan de orde zijn. Ze gaan echt geen nieuwe koeler ontwerpen.
Naast het fixen van de machine is de vraag vooral waarom de fout niet bij steekproeven was ontdekt, dus er zal wel een aanpassing komen in dat proces.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.