PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Oof. Slecht nieuws voor ons als consumenten, effectievere concurrentie zou beter zijn. Intel lijkt het wederom niet klaar te kunnen spelen op driverniveau, de hardware lijkt er wel toe in staat. Ze hebben niet lang meer voor de volgende generaties van AMD en NV, en die komen vast wel gewoon uit met goed werkende drivers...Help!!!! schreef op woensdag 22 juni 2022 @ 08:01:
Eerste resultaten druppelen binnen.
TPU: Intel Arc A380 Desktop GPU Does Worse in Actual Gaming than Synthetic Benchmarks
Ik heb diverse mensen horen zeggen "no bad products, only bad prices" met het idee dat als Intel de zut maar goedkoop genoeg aan de man brengt dat het dan wel OK is, somehow. Dan moet je het er wel voor over willen hebben om te gokken op het driverteam daar, mij niet gezien. Bewijs eerst maar even dat dat goed zit, dan kijken we verder. Ondertussen verdienen ze hun geld waarschijnlijk toch wel op OEMs.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Maar het was leuk geweest als er iets meer in had gezeten, ja. Je zou toch hopen dat Intel's vlaggenschip in ieder geval mee kan doen in het mid-range-segment, niet dat die nog onder AMD's goedkoopste GPU's zit.
Heeft geen speciale krachten en is daar erg boos over.
Ze hebben nl. al eens eerder heel veel geld aan een dGPU project uitgegeven om het als een nachtkaars uit te laten gaan.
Als je een serieuze dGPU speler wilt worden dan zal je jezelf imo moeten commiteren over een langere periode en verliezen horen daarbij. Den Cost gaet voor den Baet uyt.
Wel benieuwd naar de serieuze reviews.
Dit is dan weer onhandig:
Intel's Arc A380 Performs Even Worse With an AMD CPU
[ Voor 27% gewijzigd door Help!!!! op 23-06-2022 12:06 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat is wel triest als dat klopt. Als het goed is zou er een gigantisch gpu bottleneck moeten zijn en die cpu's maken dan niks uit. Wellicht is het de implementatie van REBAR en 4G decoding op de Intel kaart die roet in het eten gooit?Help!!!! schreef op donderdag 23 juni 2022 @ 11:42:
Het was top geweest maar zou mij verbaasd hebben als Intel gelijk vol mee zou kunnen met AMD en nVidia. Het lijkt mij een redelijke eerste start, hopelijk is het goed genoeg voor Intel om vol te blijven houden.
Ze hebben nl. al eens eerder heel veel geld aan een dGPU project uitgegeven om het als een nachtkaars uit te laten gaan.
Als je een serieuze dGPU speler wilt worden dan zal je jezelf imo moeten commiteren over een langere periode en verliezen horen daarbij. Den Cost gaet voor den Baet uyt.
Wel benieuwd naar de serieuze reviews.
Dit is dan weer onhandig:
Intel's Arc A380 Performs Even Worse With an AMD CPU
Tja, het zat eraan te komen. Al maandenlang is het stil, uitstel na uitstel en opeens alleen in China verkrijgbaar zonder enige bombarie in de westerse wereld waar het geld nu eenmaal zit.Help!!!! schreef op woensdag 22 juni 2022 @ 08:01:
Eerste resultaten druppelen binnen.
TPU: Intel Arc A380 Desktop GPU Does Worse in Actual Gaming than Synthetic Benchmarks
Maar dit is wel de kleinste chip. Het zal dus nog beter worden voor de grotere chips, als die schalen. Maar die komen zo laat dat ze erg goedkoop in de markt gezet moeten worden.
Deze chip is 157mm2 en legt het af tegen de uiterst miserabele 107mm2 Navi 24. Ergens is het sportief van Intel om op de valreep nog even Navi 24 van de troon te storen als grootste mislukking in twee jaar ellende in de GPU markt. Maar dat was denk ik niet de bedoeling.

https://www.techpowerup.com/gpu-specs/arc-a380.c3913
https://www.techpowerup.c...s/radeon-rx-6500-xt.c3850
Dan nog de vraag over drivers die helemaal acuut word als je ziet dat ze blijkbaar ook onderpresteren met Zen 3. Want het verschil tussen een 5600 en een 12400 is niet zo groot en die GPU is zo zwak dat er geen verschil zou moeten zijn.
[ Voor 5% gewijzigd door DaniëlWW2 op 23-06-2022 13:08 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het lijkt me dan niet waarschijnlijk je dan ook wel aardig moet begrijpen hoe dat op de kaart moet worden toepast. Maar misschien zijn de verkeerde mensen aangetrokken in het ontwikkelteam voor de GPU's.
Maar goed, intel staat nu niet bepaald bekend om goede GPU ontwerpen. De i740 had ook een fundamenteel ontwerpprobleem.
[ Voor 19% gewijzigd door ocf81 op 23-06-2022 13:06 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Het is het hele verhaal van hoe hun socket bevestiging werkt, druk testen op verschillende CPU's en vergelijken met Thermal Grizzly hun oplossing.
[ Voor 25% gewijzigd door DaniëlWW2 op 26-06-2022 09:22 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Blijkt dat de nog relatief goede showing van Arc in de benchmarks puur op het conto kwam van wat sjoemelsoftware "Advanced Performance Optimizations" die toevallig alleen iets doen in benchmarks. Wel hulde voor Intel dat ze dit in de meest recente releases gewoon ruiterlijk toegeven en het schuifje om het uit te zetten beschikbaar maken... Nu alleen nog even ook de games optimaliseren.
Nu snap ik ook waarom ze dit Alchemist noemen: men probeert van lood goud te maken.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Voor de zakelijke markt is de one API nog wel interessant, dus daar zou intel nog wel iets kunnen bereiken als ze maar de support blijven leveren.
[ Voor 9% gewijzigd door ocf81 op 01-07-2022 13:27 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Wat intel doet vanuit puur igpu opschalen naar DX12U dgpu is groter stap.Sp3ci3s8472 schreef op donderdag 23 juni 2022 @ 12:53:
[...]
Dat is wel triest als dat klopt. Als het goed is zou er een gigantisch gpu bottleneck moeten zijn en die cpu's maken dan niks uit. Wellicht is het de implementatie van REBAR en 4G decoding op de Intel kaart die roet in het eten gooit?
AMD Radeon tak heeft ook vanuit afgeknepen afdeling van GCN naar RDNA1 1 chipje naar RDNA2 3 chip familie opgeschaald. Uiteraard was de basis al running en is dus opschalen van de afdelingen.
Bij iNtel moest afdeling of team deel bijkomen die game specifiek optimised en alles wat nv en AMD ondertussen verzonnen hebben ook tegen hanger erbij nemen.
Denk dat ze bij de 2de gen intel als geheel hun draai gevonden zullen hebben en met gen3 ook gooi kunnen doen naar kroon.
Ik heb eerder het idee dat AMD beter hun plek tov NV inzien en niet te hard van stapel lopen. Dus goede geleidelijke opbouw van RDNA gen1 naar gen2 naar gen3. Een lange termijn sucses planning.
Maar bij intel mogelijk de druk zeer hoog is en de CEO te snel wil en dus deze markt segment onderschat. En dus de hardware er al is maar de software kant nog zwaar achter loopt.
Kan ook zijn dat je dit met generatie moet opbouwen. En niet iets is waar je even uit niets met 2 gevestigde merken op top niveau kan mee draaien. Maar ze komen er wel maar dat zal niet met deze gen zijn.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K

[ Voor 4% gewijzigd door Sp3ci3s8472 op 13-07-2022 17:35 ]
Intel Arc A750 Limited Edition desktop GPU pictured
Gamers Nexus schijnt de kaart in handen te hebben, hopelijk verschijnt er binnenkort een review.
Als AMD dat ook zeer geleidelijk doet van GCN naar rdna1 met midrange enkel 1 chip. Dan rdna2 pas op gang komt en met rdna3 mogelijk full concurreert met nv.
Is ARC een intreding en i740 is in zo ver grijs verleden dat die al niet mee telt. En is de igpu afdeling de basis waaruit zij schalen.
Denk dat 2de gen ARC pas iet zou kunnen beteken en met 3th gen mogelijk goed kan concurreren.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
-$129-$139 MSRP voor de A380.
-Het is dus SIMD32 net zoals AMD en Nvidia.
-Een Render Engine is 8x SIMD32 voor een totaal van 256.
-Daarnaast hebben ze Matrix units die 1024 bit breed zijn. Zo te zien zijn dit er vier, dus elk 256bit breed.
-Er zit ook een thread sortering in elke Render Slice voor optimalisatie van het versturen van vergelijkbare thread waves naar de Render Engines. Dit om de Xe-Core in balans te houden zodat een deel niet stil komt te liggen.
-Een Xe-Core heeft16x Render en 16x Matrix engines.
-Ze zeggen bij Intel zelf al dat ARC geoptimaliseerd is voor DX12. Voor DX11 hebben ze veel werk te verzetten qua drivers. Hiervoor hebben ze een lijst van games die veel gespeeld worden of gebruikt worden in reviews. Daarbuiten is het echt een gevalletje hopen op optimalisatie.
Als ik dan wat dingen van vorig jaar erbij pak, tja het begint een beetje op een hybride tussen AMD en Nvidia te lijken. Aparte RT en matrix units zoals Nvidia, maar veel diepere rekenclusters zoals AMD. Ook erg breed zoals Nvidia maar ik vermoed net zoals AMD wel een hardware scheduling.






edit: Er klopt alleen iets niet. Je hebt 128 Vector/Render Engines met elk 256 bit wat weer verdeeld zou zijn in 8x SIMD32. Ik wil nu graag de Vector Engine zelf zien want ik denk dat dit zeker geen 1 clockcycle issue architectuur is. Ik denk dat dit misschien veel meer op GCN lijkt qua issue van threads waarbij een elke clock cycle maar een deel van een SIMD32 berekend kan worden. Dat zou ook verklaren waarom ze een thread sorter nodig hebben voor elke Xe-core.
@Werelds Heb jij nog andere ideeën?
[ Voor 108% gewijzigd door DaniëlWW2 op 14-07-2022 23:16 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Met 32 brede SIMD's zou het echter wel een 1-cycle moeten zijn, tenzij die 32 enkel slaat op het totaal aantal units en dus 32 "FP + INT" is, of de instructie cache niet genoeg uit kan delen.
Ik wil het dus zien omdat ik een beetje moeite heb te geloven dat de Arc A380 beschikt over 16384 SIMD32 clusters. Want als dat zo is, dan gaat er ergens denk ik iets een heel klein beetje mis.Werelds schreef op donderdag 14 juli 2022 @ 22:45:
@DaniëlWW2 weekend werk
Met 32 brede SIMD's zou het echter wel een 1-cycle moeten zijn, tenzij die 32 enkel slaat op het totaal aantal units en dus 32 "FP + INT" is, of de instructie cache niet genoeg uit kan delen.

En toen vond ik het. Arc A380 heeft dus 1024 FP32 ALU's. Tja dat zou dan neerkomen op 1024 : 128 = 8x FP32 ALU per Vector Engine.
Ik vermoed dus dat die "SIMD32" heeft gezegd terwijl het eigenlijk wave32 moet zijn. Dit wordt vervolgens opgesplitst in SIMD8 en verdeeld binnen de Xe-core. Daarom is er een thread sorting unit die threads moet verdelen tussen de Vector Engines om ze te balanceren en allemaal aan het werk te houden. Dat heb je niet nodig met single issue SIMD32.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Ik zou er niet direct vanuit gaan, de hardware kan het mogelijk wel. maar wat ik begrijp heeft Intel de software support (nog) niet geactiveerd.ocf81 schreef op vrijdag 15 juli 2022 @ 16:41:
Weet iemand ook of SR-IOV ondersteund wordt op de Arc kaarten?


Zie https://game.intel.com/st...hics-performance-preview/
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
YouTube: I Stand Corrected - WAN Show July 15, 2022
Ze halen de kaart ook uit de doos, 8+6 pins stroomaansluiting, ongeveer 70 graden onder load.
[ Voor 26% gewijzigd door NitroX infinity op 16-07-2022 11:00 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
DaniëlWW2 schreef op donderdag 14 juli 2022 @ 20:38:
-$129-$139 MSRP voor de A380.
-Het is dus SIMD32 net zoals AMD en Nvidia.
-Een Render Engine is 8x SIMD32 voor een totaal van 256.
-Daarnaast hebben ze Matrix units die 1024 bit breed zijn. Zo te zien zijn dit er vier, dus elk 256bit breed.
-Er zit ook een thread sortering in elke Render Slice voor optimalisatie van het versturen van vergelijkbare thread waves naar de Render Engines. Dit om de Xe-Core in balans te houden zodat een deel niet stil komt te liggen.
-Een Xe-Core heeft16x Render en 16x Matrix engines.
-Ze zeggen bij Intel zelf al dat ARC geoptimaliseerd is voor DX12. Voor DX11 hebben ze veel werk te verzetten qua drivers. Hiervoor hebben ze een lijst van games die veel gespeeld worden of gebruikt worden in reviews. Daarbuiten is het echt een gevalletje hopen op optimalisatie.
Als ik dan wat dingen van vorig jaar erbij pak, tja het begint een beetje op een hybride tussen AMD en Nvidia te lijken. Aparte RT en matrix units zoals Nvidia, maar veel diepere rekenclusters zoals AMD. Ook erg breed zoals Nvidia maar ik vermoed net zoals AMD wel een hardware scheduling.
[[URL="https://www.notebookcheck.net/fileadmin/_processed_/e/1/csm_Intel_Architecture_Day_Page_097_
edit: Er klopt alleen iets niet. Je hebt 128 Vector/Render Engines met elk 256 bit wat weer verdeeld zou zijn in 8x SIMD32. Ik wil nu graag de Vector Engine zelf zien want ik denk dat dit zeker geen 1 clockcycle issue architectuur is. Ik denk dat dit misschien veel meer op GCN lijkt qua issue van threads waarbij een elke clock cycle maar een deel van een SIMD32 berekend kan worden. Dat zou ook verklaren waarom ze een thread sorter nodig hebben voor elke Xe-core.
@Werelds Heb jij nog andere ideeën?
Heb het bekeken, zoals verwacht weinig echte details maar toch: hindsight is 20/20 en ik had het al uit je eerste post moeten halen.DaniëlWW2 schreef op donderdag 14 juli 2022 @ 23:12:
[...]
Ik wil het dus zien omdat ik een beetje moeite heb te geloven dat de Arc A380 beschikt over 16384 SIMD32 clusters. Want als dat zo is, dan gaat er ergens denk ik iets een heel klein beetje mis.![]()
En toen vond ik het. Arc A380 heeft dus 1024 FP32 ALU's. Tja dat zou dan neerkomen op 1024 : 128 = 8x FP32 ALU per Vector Engine.
Ik vermoed dus dat die "SIMD32" heeft gezegd terwijl het eigenlijk wave32 moet zijn. Dit wordt vervolgens opgesplitst in SIMD8 en verdeeld binnen de Xe-core. Daarom is er een thread sorting unit die threads moet verdelen tussen de Vector Engines om ze te balanceren en allemaal aan het werk te houden. Dat heb je niet nodig met single issue SIMD32.
Ze zeggen expliciet dat elke VE 256 bits is. Met 32-bit ALU's geeft dat dus inderdaad 8 ALU's per VE. Waarom ze dat op die manier stellen weet ik niet (heel vreemd), maar ik begin wel enigszins interesse in deze architectuur te krijgen want het lijkt er op dat ze een beetje AMD's aanpak volgen en proberen zo veel mogelijk te streamlinen en inderdaad veel in hardware proberen te doen.
Ik ga verder niet te veel achter de diagrammen zoeken, want er missen veel te veel details. Op papier doen ze 16xFP16 in een VE (packed math kunnen ze duidelijk; DP4a doen ze immers ook op 4x throughput), het lijnt allemaal mooi op met de 1024-bit XMX voor 4x4 matrices, enzovoort. Maar hoe het allemaal aan elkaar hangt weten we niet
En ze hebben duidelijk moeite met alles in blokjes van 8 te hakken als je kijkt naar de A380 performance. AMD en Nvidia doen beide meer met minder ALU's. De vraag is of dit veel pijn gaat doen met hun grotere GPU's.
Bits en Bytes.Werelds schreef op zaterdag 16 juli 2022 @ 16:28:
[...]
[...]
Heb het bekeken, zoals verwacht weinig echte details maar toch: hindsight is 20/20 en ik had het al uit je eerste post moeten halen.
Ze zeggen expliciet dat elke VE 256 bits is. Met 32-bit ALU's geeft dat dus inderdaad 8 ALU's per VE. Waarom ze dat op die manier stellen weet ik niet (heel vreemd), maar ik begin wel enigszins interesse in deze architectuur te krijgen want het lijkt er op dat ze een beetje AMD's aanpak volgen en proberen zo veel mogelijk te streamlinen en inderdaad veel in hardware proberen te doen.
Ik ga verder niet te veel achter de diagrammen zoeken, want er missen veel te veel details. Op papier doen ze 16xFP16 in een VE (packed math kunnen ze duidelijk; DP4a doen ze immers ook op 4x throughput), het lijnt allemaal mooi op met de 1024-bit XMX voor 4x4 matrices, enzovoort. Maar hoe het allemaal aan elkaar hangt weten we niet
En ze hebben duidelijk moeite met alles in blokjes van 8 te hakken als je kijkt naar de A380 performance. AMD en Nvidia doen beide meer met minder ALU's. De vraag is of dit veel pijn gaat doen met hun grotere GPU's.

Serieus elke keer mis ik het.
Maar ik denk dat het meer lijkt op ideeën van zowel Nvidia als AMD nemen. Ze kiezen nu voor 16x 8 ALU's met een totaal van 128 per Xe-core. Uitgaande van single clock issue kijk je dan naar 4x wave32. Maar omdat het zo fijnmazig is, vermoed ik dat de ALU's per Vector Engine naar zowel FP als INT geswitched kunnen worden. Dat verklaard voor mij het beste waarom het zo fijnmazig moet zijn alsmede de noodzaak voor thread sortering. Dat heb je niet nodig als alle waves FP of INT is. Voor mij verklaard het misschien ook waarom ze zoveel ALU's nodig lijken te hebben. Daarnaast heb je de matrix cores die denk ik vooral gebruikt zullen worden voor denoising en XeSS.
Een Xe-core en hoger lijkt in het grotere geheel alleen veel meer op wat Nvidia doet. Het zijn veel, relatief kleine clusters die met elkaar verbonden zijn via een centrale L2 cache. Ertussen zit dan de Render Slice waarbij de globale opzet ook veel meer lijkt op een GPC dan een Shader Array.
Alles bij elkaar begin ik te vermoeden dat dit wel eens de kant op kan gaan van een hybride tussen GCN en Turing. Ze nemen GCN haar fijnmazigheid voor verschillende berekeningen en lijken het nog verder te vergroten door naar 8 ALU breed te gaan i.p.v. 16. Ook halen ze denk ik de grote zwakte van GCN weg met staggered issue vs. single issue. Ik vermoed namelijk dat elke clock cycle er in principe een workload uitgedeeld kan worden aan elke Vector Engine. Dat zal alleen een zeer complex verhaal worden omdat je elke clock cycle dus 16x, maximaal 8 threads moet uitdelen.
Het lijkt er ook op dat dit erg lastig kan zijn om aan het werk te houden. Want vanuit de eerste benchmarks is het verschil per titel enorm en zeker ook het verschil tussen DX11 en DX12/Vulkan. Eigenlijk lijkt dit alleen goed te werken met een goed geoptimaliseerde titel.
Hierbuiten lijkt het steeds meer op wat Nvidia al een tijd doet en dat roept inderdaad vragen op over hoe dit gaat presteren als je met meer dan twee Render Slices gaat werken. Alles zal exponentieel complexer worden om te voorzien van instructies of data, net zoals we eigenlijk al zien met GA102. Ik vermoed dus dat Intel de switching complexiteit binnen hun Xe-core vermijd, maar hiervoor terug wel extra problemen creëert.
Als ik gelijk heb, dan blijven twee vragen blijven vervolgens bestaan.
1) Kan Intel hun Xe-core dramatisch versimpelen?
2) Wat gebeurd er als je niet meer over 1024 ALU's spreekt, maar over zeg 4096, dus de grote DG2-512 chip die er ook nog gaat komen?
In deze setup heb je dan geen twee Render Slices meer, maar acht. En hoe gaat dat presteren met een centrale L2 cache setup? Want als Intel tegen dezelfde problemen aanloopt als Nvidia al lijkt te doen, dan gaat dat een probleem worden voor de komende generaties. Alchemist is uiteindelijk een proof of concept en op zich lijkt het niet heel dramatisch te zijn. Het grootste probleem is dat ze een jaar te laat zijn, maar dat kan gebeuren. Het is in ieder geval een basis. Een matige basis, maar al te hoge verwachtingen waren altijd onrealistisch.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik moest even kijken waar je die L2$ vandaan haalde, maar dat was dus in die laatste slide, helemaal gemist. Dat leunt meer richting Nvidia dan AMD, want tenzij deze slides te top-level zijn, moeten geometry, RT units en de hele render backend alles dus uit L2$ halen.DaniëlWW2 schreef op zaterdag 16 juli 2022 @ 19:14:
Een Xe-core en hoger lijkt in het grotere geheel alleen veel meer op wat Nvidia doet. Het zijn veel, relatief kleine clusters die met elkaar verbonden zijn via een centrale L2 cache. Ertussen zit dan de Render Slice waarbij de globale opzet ook veel meer lijkt op een GPC dan een Shader Array.
Maar nogmaals, ik ga er nog niet te veel achter zoeken omdat ze ook niet op textures in gaan bijvoorbeeld. Er zit misschien wel een crossbar tussen de backend en de Xe-cores (lijkt er niet op, maar het kan - thread sorting unit laten ze ook buiten de Xe-cores zien
Ze zijn trouwens bezig aan een PR tour want Petersen en Shroud zaten ook bij de WAN show. Daarin leken ze op zijn minste enige interesse te tonen. In ieder geval weet ik nu ook dat Arc, AV1 ondersteund.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Even los van de prestaties:
Performance results shown here are from a small subset of the games, that work very well with Intel® Arc™ and the Alchemist architecture. I’m not asserting that ALL GAMES will show these results, but it’s a view of what Intel Arc A-series cards are capable of with the right software and engineering enablement.
Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.
A750 specs weten we verder volgens mij niet zeker, maar aangezien 770/780 de volle 8 slices wordt, mogen we er van uit gaan dat 750 6 of 7 slices wordt? Dus 3072 of 3584 ALU's. Lijkt dus niet echt beter te schalen met een grotere GPU, want de 3060 heeft 1792 FP32 en 1792 FP32/INT32. Als het 3584 is dan schaalt het mínder dan de 2-slice A380, als het 3072 is dan schaalt het iets beter, maar nog steeds zeker zo'n 20% minder bezet.
Grootste probleem blijft dat ze 2 jaar te laat zijn, hopelijk voor hen komt "Battlemage" ook "sooner than you think"
Wat ze er alleen niet bij zeggen is dat vanwege alle delays die kaarten straks moeten concurreren met de RTX 4000 / RX 7000 videokaarten.
/f/image/K3Uo1G4nd9EO9ENLiQgsiNoe.png?f=fotoalbum_large)
https://wccftech.com/excl...nd-memory-configurations/
[ Voor 10% gewijzigd door XWB op 17-07-2022 01:42 ]
YouTube: Intel is Hiding Data from Us: What GPU Benchmarks Don't Tell You
Frametime rendering breakdown en speed sync en smooth sync uitleg.
Wordt het overigens niet tijd voor een Intel Graphics topic?
Graphene; a material that can do everything, except leave the lab. - Asianometry
AMD en nVidia hebben voor dev support ook elk hun eigen developer render guidlines voor hoeveel command que etc en wat vooral niet te doen.Werelds schreef op zaterdag 16 juli 2022 @ 20:33:
[...]
Ik moest even kijken waar je die L2$ vandaan haalde, maar dat was dus in die laatste slide, helemaal gemist. Dat leunt meer richting Nvidia dan AMD, want tenzij deze slides te top-level zijn, moeten geometry, RT units en de hele render backend alles dus uit L2$ halen.
Maar nogmaals, ik ga er nog niet te veel achter zoeken omdat ze ook niet op textures in gaan bijvoorbeeld. Er zit misschien wel een crossbar tussen de backend en de Xe-cores (lijkt er niet op, maar het kan - thread sorting unit laten ze ook buiten de Xe-cores zien). Hopelijk komt er wel nog een échte whitepaper, want dat is voor graphics programmeurs belangrijk om te kunnen optimaliseren.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Immers laat hij alsnog de betere resultaten zien en niet de slechtere. We weten dat het slechter zal zijn, maar niet hoeveel slechter.
Tweede is dat er geen Arc A780 is. A770 is de top sku met 32 Xe-cores/4096 FP32 ALU's.
Despite some rumors to the contrary, there is no Intel Arc A780 and there was never planned to be an A780. Let’s just settle that debate. 🤣
— Ryan Shrout (@ryanshrout) 16 juli 2022
Ik denk dat het dan wel duidelijk is dat dit maximaal RX6700XT/RTX3060Ti niveau gaat halen. En voor een 400mm2+ chip is dat niet al te best. Dit ding zal het op prijs moeten gaan doen en met de crypto instorting zie ik een A770 onder de $400 waard zien zijn. Want bij gelijke prestaties zal je toch eerder voor AMD of Nvidia kiezen.
Ergens is $400 misschien zelfs te optimistisch omdat dat prestatiepunt zo belachelijk vol zit met zoveel oudere SKU's. Alles van RX5600XT, Vega, GTX1070/RTX2060 tot en met de RTX2080S zit daar ongeveer en telkens die paar procent sneller is gewoon niet relevant als upgrade pad. Je moet dat prestatiepunt echt ontsnappen of goedkoop zijn voor relevantie.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Of om het nog zieliger te laten klinken: RX 7600 / RTX 4050 niveau (er van uitgaande dat de nieuwe generatie opnieuw een rijtje opschuift).DaniëlWW2 schreef op zondag 17 juli 2022 @ 19:36:
Ik denk dat het dan wel duidelijk is dat dit maximaal RX6700XT/RTX3060Ti niveau gaat halen.
Navi 33 zou rond Navi 21 niveau zitten hé. Er is nog steeds een aardige kans dat de langzaamste dGPU SKU in de RDNA3 lijn, al ruim 50% sneller is als Arc A770.XWB schreef op zondag 17 juli 2022 @ 23:21:
[...]
Of om het nog zieliger te laten klinken: RX 7600 / RTX 4050 niveau (er van uitgaande dat de nieuwe generatie opnieuw een rijtje opschuift).
Intel heeft echt Battlemace nodig en snel. Ze zijn gewoon minstens een jaar te laat nu. Want nu rest is waarschijnlijk om de chips maar te verkopen aan de grote prebuild partijen voor fikse kortingen. Daarmee vallen ze voornamelijk Nvidia aan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk eigenlijk dat Intel het beter rustig aan kan doen, als ik het een beetje van een afstand bekijk lijkt het grote issue drivers te zijn, niet de hardware.DaniëlWW2 schreef op maandag 18 juli 2022 @ 08:22:
Intel heeft echt Battlemace nodig en snel. Ze zijn gewoon minstens een jaar te laat nu. Want nu rest is waarschijnlijk om de chips maar te verkopen aan de grote prebuild partijen voor fikse kortingen. Daarmee vallen ze voornamelijk Nvidia aan.
Ik vraag me af of 'gehaast' lanceren dan niet slechter is, kijk bijv. naar AMD, die hebben onder bepaalde groepen enthousiasts nog steeds de naam slechte drivers te hebben, terwijl ze daar de laatste jaren toch echt flink verbeterd hebben.
Als drivers inderdaad het issue zijn dan zou ik lekker rustig lanceren (misschien inderdaad alles via OEM's verkopen) en eerst zorgen dat het driver component voor gaming 100% op orde hebben. De rest lijkt immers wel redelijk op orde voor zover ik tot nu toe heb gezien.
https://www.tomshardware....ck-shows-impressive-gains
Via; https://old.reddit.com/r/...0_shows_impressive_gains/
[ Voor 22% gewijzigd door NitroX infinity op 18-07-2022 20:56 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat kan je voor zowel AMD als Nvidia ook doen, met groot succes. Beiden willen een net hoge clocksnelheid en vallen daardoor buiten de sweetspot.NitroX infinity schreef op maandag 18 juli 2022 @ 20:55:
Die A380 lijkt helemaal zo slecht nog niet als je wat met de power targets en voltage offsets gaat klooien;
https://www.tomshardware....ck-shows-impressive-gains
Via; https://old.reddit.com/r/...0_shows_impressive_gains/
Daarnaast moet je niet vergeten dat niet alle chips dit waarschijnlijk zullen halen.
Die had ik ook niet verwacht, dit keer is het nieuws niet shrouded in darknessWerelds schreef op zaterdag 16 juli 2022 @ 22:29:
https://game.intel.com/st...hics-performance-preview/
Even los van de prestaties:
[...]
![]()
Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.
Goed om te zien dat hij context bij de berichten plaatst; grote verbetering.
Zouden de andere modellen ook geplaagd zijn met een goed gebruik van de rekenkracht?
Wanneer een A380 werkelijk naar 75W verbruik zou gaan, dan zou het wel in de buurt van de prestaties van een GTX1070 kunnen komen.
*SNIP*
[ Voor 45% gewijzigd door dion_b op 20-07-2022 12:05 ]
DX11 vs. DX12 kan echt dramatisch zijn. DX12 lijkt wel in orde, maar bijvoorbeeld in Shadow of the Tomb Raider kijk je echt naar de helft aan framerates van DX12 naar DX11 met de A770. (80 om 40)
En toen kwam wat marketingpraat, maar potentieel wel hoopvol. Want Intel lijkt het zich te beseffen, dus zouden ze op prijs gaan concurreren. En daarmee krijgen we dus precies wat we zo hard nodig hebben in deze markt, een speler die wel aan negatieve prijsdruk doet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat zag je al duidelijk in de review van GamersNexus met hun tragere A3 series kaart.DaniëlWW2 schreef op woensdag 20 juli 2022 @ 20:21:
Linus heeft ook eens iets meer interessants.
DX11 vs. DX12 kan echt dramatisch zijn. DX12 lijkt wel in orde, maar bijvoorbeeld in Shadow of the Tomb Raider kijk je echt naar de helft aan framerates van DX12 naar DX11 met de A770. (80 om 40)
Daarbij zijn er heel veel DX11 games waar intel moet afwerken en ik denk dat de meest populaire grotere titels vooral die ook mee gebenched worden de voorrang krijgen. Wat intel moet doen hebben AMD en nV al grotendeel in verleden al gedaan. En gezien het vaker de wat oudere games zijn en intel de g-kaart prijs aan de hand van deze slecht schalende games en dus de dx12 titels het voor bang for the buck beter kunnen doen. Wel met tdp handicap.
Maar als ik ervoor ga dan minstens nextgen uper midrange of sub high-end en dit is het dus niet.
Al kijk ik meer uit naar raptor lake ULV instap cpu met weinig p-cores en veel e-cores voor home servertje. Meer omdat intel betere idle tdp heeft.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
YouTube: Intel SHUTTING DOWN the dGPU division?
Tegenvallende financial forecasts, recessie, grote investeringen nodig voor de nieuwe fabs.
En ze hebben al eerder een tegenvallend dGPU project na grote investeringen simpelweg gecanned. Dus who knows.
Ik hoop het niet en waarom begin je aan zo'n immens project als je je niet commit aan de lange adem die nodig is om zoiets tot een succes te maken.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Helaas is SR-IOV eruit gesloopt, dus het is ook geen interessante propositie meer voor mij. (zelfs niet voor mijn servers)
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Wat ik wel waarschijnlijker acht is dat Intel de DIY dGPU markt niet echt gaat betreden. Ik zie Intel het liever houden bij dGPU in laptops en de grote systeem integrators voor desktop systemen. Voor de DIY markt, tja ze moeten erg op prijs gaan concurreren om daar iets te verkopen. Het product is niet erg goed als je vergelijkt met kleinere chips op dezelfde node. Navi 22/23/24 zijn veel betere chips en Navi 33 zit eraan te komen. Onder de prijs te gaan zitten, lijkt nu het plan te zijn, maar Intel verdient waarschijnlijk erg weinig op die chips.
Zeker in de laptopmarkt is het misschien anders. Daar kan Intel nog vertrouwen op hun CPU's om ook die GPU's te verkopen met koppelverkoop + korting. Eigenlijk hetzelfde wat AMD ook probeert en altijd twijfelachtig omdat het altijd tegen machtsmisbruik in de markt aanzit, maar ze kunnen het wel doen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Te voorspelbaar.
https://videocardz.com/ne...rc-a380-a310-desktop-gpus
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Natuurlijk nog steeds volstrekt onspeelbaar, maar de performance drop is in veel gevallen vergelijkbaar met de drop die een 3050 heeft (ook nog steeds volstrekt onspeelpaar op alle resoluties), terwijl AMD's 6400/6500 er soms niet eens doorheen komen.
Geef nou eens een whitepaper, ik wil weten wat jullie doen
Overigens heeft Intel inmiddels ook hun RT voor Vulkan titels gefikst. Want dat werkte door fouten in hun drivers, op 1% snelheid. Intel heeft dus meteen een van de grootste performance driver updates ooit gehad.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
-Smooth sync geeft gruwelijke artefacts in DX11/10/9.
-Monitoren worden niet herkent.
-Het driver menu (Arc control) is al zeer lastig om überhaupt te installeren. Daarnaast is het vrijwel onmogelijk om goed te installeren en die installatie kan zo misgaan dat je het niet meer kan opstarten of kan deinstalleren om het opnieuw te proberen. Zelfs DDU werkt niet.
-UI van Arc control is ook kapot.
-OC spul werkt ook niet.
Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nee, voor een miljardenbedrijf als Intel dat echt wel software kan schrijven (en ook al heel lang iGPU drivers heeft moeten bakken) is dit gewoon een hele slechte outing, optimalisaties voor games nog even helemaal daar gelaten. Het lijkt bijna alsof ze klaar waren met de hardware en toen bedachten dat er ook nog software nodig was en even een stagiair daarvoor moesten charteren.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Ik begin steeds meer te vermoeden dat Raja Koduri gewoon over zijn kunnen is gepromoveerd. Want eerst ging het bij AMD aardig mis en nu met Intel weer. Dit zijn namelijk geen driverproblemen meer, maar een gebrek aan planning.
Want voor Intel is ook het nodige allemaal belooft wat er niet is of niet werkt. XeSS is bijvoorbeeld ook helemaal verdwenen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En je kunt het spul niet goed verwijderen of updaten, dus zou je deze kaarten alleen moeten gebruiken op een systeem waar je bereid bent om Windows opnieuw te installeren (en als je een masochist bent).DaniëlWW2 schreef op maandag 1 augustus 2022 @ 21:37:
Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.
Ironisch genoeg is de kaart nog het meest geschikt voor reviewers (die meestal met een schone Windows-installatie beginnen en die betaald krijgen om buggy shit te reviewen), dus als die al zo gefrustreerd raken (Igor werd er ook gek van), dan is het voor de meeste normale consumenten gewoon niet te doen.
Hij is niet verantwoordelijk geweest voor de drivers of het totaalplaatje tot vrij recent. Ik wordt er eigenlijk een beetje moe van dat Koduri steeds de schuld krijgt.Ik begin steeds meer te vermoeden dat Raja Koduri gewoon over zijn kunnen is gepromoveerd. Want eerst ging het bij AMD aardig mis en nu met Intel weer. Dit zijn namelijk geen driverproblemen meer, maar een gebrek aan planning.
Intel heeft ook allerlei problemen met projecten (gehad) waar Koduri helemaal niks mee te maken heeft, zoals Sapphire Rapids, Intel 7, Intel 4, Meteor Lake, etc. Juist doordat Intel zo slecht functioneert in het algemeen is het lastig om de schuldige aan te wijzen. Voor hetzelfde geld is Koduri de persoon die de chaos binnen Intel nog enigszins onder controle houd. Dat kun je van buiten af gewoon niet zeggen, want wij weten bijvoorbeeld niet wat Koduri aan het management heeft gerapporteerd.
Wat we wel van buiten kunnen zien is dat Pat Gelsinger meer vertrouwen heeft in Koduri dan in veel anderen, gezien de promotie. Of dat terecht is, is een tweede. Wellicht is Koduri goed in bullshitten, maar het kan ook dat Koduri achter de schermen daadwerkelijk relatief goed bezig is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Koduri is de baas van de hele GPU afdeling. Zijn taak is de hele afdeling overzien terwijl Intel Xe werd ontwikkeld. Hij is eindverantwoordelijk voor de architectuur, de softwareontwikkeling, marketing etc. En dat doet me zoveel aan Vega denken.Ludewig schreef op dinsdag 2 augustus 2022 @ 11:46:
Hij is niet verantwoordelijk geweest voor de drivers of het totaalplaatje tot vrij recent. Ik wordt er eigenlijk een beetje moe van dat Koduri steeds de schuld krijgt.
Intel heeft ook allerlei problemen met projecten (gehad) waar Koduri helemaal niks mee te maken heeft, zoals Sapphire Rapids, Intel 7, Intel 4, Meteor Lake, etc. Juist doordat Intel zo slecht functioneert in het algemeen is het lastig om de schuldige aan te wijzen. Voor hetzelfde geld is Koduri de persoon die de chaos binnen Intel nog enigszins onder controle houd. Dat kun je van buiten af gewoon niet zeggen, want wij weten bijvoorbeeld niet wat Koduri aan het management heeft gerapporteerd.
Wat we wel van buiten kunnen zien is dat Pat Gelsinger meer vertrouwen heeft in Koduri dan in veel anderen, gezien de promotie. Of dat terecht is, is een tweede. Wellicht is Koduri goed in bullshitten, maar het kan ook dat Koduri achter de schermen daadwerkelijk relatief goed bezig is.
Qua hardware heb je hier een architectuur die op zich niet eens zo slecht lijkt te zijn. In DX12 waarbij de last voornamelijk op developers komt te liggen, lijkt het redelijk te werken. De voornaamste problemen zijn dat de chips te groot zijn en te veel energie verbruiken, zeker vergeleken met RDNA2. Maar dat viel te verwachten. RT lijkt verder zeker niet slecht te zijn voor een eerste poging en een compleet nieuwe dGPU architectuur van een bedrijf dat hier vrijwel nul ervaring mee heeft.
Qua software gaat alles mis. DX12 werkt, de rest niet. De DX11 drivers zijn dramatisch en alle beloofde features werken niet of worden niet eens meer besproken. En na eindeloze uitstel werd het product maar stilletjes gelanceerd en kwam er een PR campagne om wat schadebeperking te bewerkstelligen. Dat is mismanagement.
Intel ontwikkeld al meer dan een decennium drivers voor hun IGP's. Ze hebben een softwareteam en ze hadden het geld om dit team te laten groeien de afgelopen jaren. Prioriteit een bij dit product had moeten zijn dat het werkt. Daarin heeft Intel gefaald. Nu hebben ze geen functionele drivers en geen features na eindeloos uitstel. Niemand kon realistisch verwachten dat ze meteen even AMD en Nvidia gingen verslaan, maar Intel heeft die verwachtingen zelf gecreëerd.
Dat doet me zoveel aan Vega denken. Want bij die chip gebeurde hetzelfde. Op zich capable hardware in DX12, maar problemen met drivers, features die nooit hebben gewerkt en na eindeloze uitstel een deceptie. Komt daar ook nog eens bij dat ze ronduit domme TDP ratings aan Vega 56 en al helemaal Vega 64 gaven om het product er onnodig extra slecht eruit te laten zien. De meeste mensen die een RX Vega kochten, weten hoe extreem die dingen undervolten. Het is niet overdreven om te stellen dat je van 1200mv naar 900mv kan gaan en alsnog is je videokaart sneller. Ik heb het zelf gedaan en ik had een slechte chip die "maar" 1420MHz effectief deed op 910mv. Veel chips deden 1480-1500MHz op 900mv. Het scheelde je tientallen watts en opeens komt een RX Vega dan aardig in de buurt van Pascal in perf/watt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ze hebben altijd beweerd dat ze deze generatie nog niet competitief zouden zijn voor de high-end.DaniëlWW2 schreef op dinsdag 2 augustus 2022 @ 12:22:
Intel ontwikkeld al meer dan een decennium drivers voor hun IGP's. Ze hebben een softwareteam en ze hadden het geld om dit team te laten groeien de afgelopen jaren. Prioriteit een bij dit product had moeten zijn dat het werkt. Daarin heeft Intel gefaald. Nu hebben ze geen functionele drivers en geen features na eindeloos uitstel. Niemand kon realistisch verwachten dat ze meteen even AMD en Nvidia gingen verslaan, maar Intel heeft die verwachtingen zelf gecreëerd.
Volgens de laatste investor call hadden ze gedacht dat ze de iGPU drivers konden gebruiken/aanpassen, maar lukte dat niet. Alle grafische drivers worden gemaakt door een sub-afdeling onder leiding van Lisa Pearce. Uiteindelijk kan een manager als Koduri ook alleen maar afgaan op wat Lisa Pearce beloofd. Het kan best dat Koduri achter de schermen heeft gevraagd om versterking van het driver-team en heeft gewaarschuwd dat ze beter werk moeten gaan afleveren dan met hun iGPU drivers. Maar niemand heeft een magische knop waarmee dat zomaar gedaan kan worden.
Ik stel trouwens wel vraagtekens bij de keuze om tijd te verdoen met zaken als Smooth Sync, ipv de driver eerst goed te krijgen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat lijkt mij typisch het brevet van onvermogen dat management afgegeven heeft (en dan laten we even in het midden welke manager(s) daar het meest verantwoordelijk voor zijn) met betrekking tot de planning. Het is geen kwestie van het team "versterken", er zit daar gewoon iets grondig fout in de aanpak. De verkeerde prioriteit wordt gegeven aan de verkeerde features die vervolgens verkeerd geïmplementeerd worden en klaarblijkelijk nooit langs QA gaan, of anders wel langs QA gegaan zijn maar dan vervolgens zonder enige tijd voor correctie voor het de deur uitgebonjourd wordt. De oplossing daar is geen blik mensen opentrekken of een pep talk dat meer kwaliteit verwacht wordt, maar nog eens even goed met het hele team gaan zitten om een plan uit te stippelen dat wel binding heeft met de realiteit. Het komt nu meer over alsof een hoge pief (en opnieuw laten we in het midden wie die pief dan is) de zweep erover gehaald heeft met een wishlist van "en DAN releasen we met DIT allemaal, dondert me niet hoe!" en vervolgens niet om kan gaan met feedback.Ludewig schreef op dinsdag 2 augustus 2022 @ 14:18:
Volgens de laatste investor call hadden ze gedacht dat ze de iGPU drivers konden gebruiken/aanpassen, maar lukte dat niet. Alle grafische drivers worden gemaakt door een sub-afdeling onder leiding van Lisa Pearce. Uiteindelijk kan een manager als Koduri ook alleen maar afgaan op wat Lisa Pearce beloofd. Het kan best dat Koduri achter de schermen heeft gevraagd om versterking van het driver-team en heeft gewaarschuwd dat ze beter werk moeten gaan afleveren dan met hun iGPU drivers. Maar niemand heeft een magische knop waarmee dat zomaar gedaan kan worden.
Ik stel trouwens wel vraagtekens bij de keuze om tijd te verdoen met zaken als Smooth Sync, ipv de driver eerst goed te krijgen.
De PR dat ze de iGPU drivers wel eventjes zouden kunnen aanpassen kan onmogelijk van het front van de developers zelf zijn gekomen, of indien wel zullen die er vast heel snel op terug gekomen zijn. Het blijft speculeren wat er daar nu intern loos is natuurlijk, maar dat er wat loos is staat vast.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Dat staat los van ontwikkelprioriteiten en planningen. Als het eenmaal zo ver is, release je iets in brakke staat of release je het dan gewoon niet, dat is gewoon een keuze.
Ik gok dat geen enkele gebruiker de keuze voor Arc op dit moment laat afhangen van features zoals smooth sync. Als je ook maar iets van hippe functionaliteit wil koop je in dit stadium gewoon nog AMD of NVidia. Dus wat dat betreft was het weglaten van alle kapotte features sowieso beter geweest. Uberhaupt nu een beetje leuke FPS krijgen met redelijke beeldkwaliteit is op dit moment het enige wat telt.
[ Voor 10% gewijzigd door bwerg op 02-08-2022 16:39 ]
Heeft geen speciale krachten en is daar erg boos over.
Dat laatste is in hiërarchische organisaties al snel een probleem omdat elke managementlaag de waarheid net wat leuker voorstelt om zo een goed voetje te halen bij z'n baas. Dus hoe meer lagen, hoe groter het verschil tussen de waarheid en wat de baas te horen krijgt.bwerg schreef op dinsdag 2 augustus 2022 @ 16:38:
De beslissing om features wel of niet te releasen in de staat waarin die nu is is natuurlijk sowieso een management-beslissing. Dat, of management was er niet van op de hoogte dat de kwaliteit schijnbaar dramatisch is en dan heb je een communicatieprobleem.
Deze bedrijven hebben planningen die ze ook aan hun investeerders bekend moeten maken en aangezien ze beursgenoteerd zijn, moet dat openbaar worden. Die investeerders zijn net zo goed klant van het bedrijf, in de zin dat het bedrijf ze gelukkig moet houden. Het toegeven dat ze de planning niet halen zorgt voor grote koppen in de media die ze willen voorkomen.Dat staat los van ontwikkelprioriteiten en planningen. Als het eenmaal zo ver is, release je iets in brakke staat of release je het dan gewoon niet, dat is gewoon een keuze.
Intel is al vrij ver gegaan door de kaarten alleen heel duur in China uit te brengen (waardoor ze vrijwel niets zullen verkopen), wat heel dicht bij een paper launch komt. Ze proberen overduidelijk tijd te rekken om de echte release pas te doen wanneer de drivers beter zijn.
Ja, maar mijn ervaring met topmanagement is dat ze zoiets nodig hebben om henzelf en de investeerders te overtuigen dat ze al beter zijn in bepaalde aspecten en dat ze daardoor niet puur op prijs hoeven te concurreren, maar echt het beste zullen zijn voor bepaalde groepen.Ik gok dat geen enkele gebruiker de keuze voor Arc op dit moment laat afhangen van features zoals smooth sync. Als je ook maar iets van hippe functionaliteit wil koop je in dit stadium gewoon nog AMD of NVidia. Dus wat dat betreft was het weglaten van alle kapotte features sowieso beter geweest.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik denk dat je het onderschat. Net als intel. Met de I740 kwam in tijd dat nv nog niet zo agressief op driver en twimtbp bezig was en Cg ipv Cuda was.MneoreJ schreef op maandag 1 augustus 2022 @ 22:09:
En dan te bedenken dat er nog steeds mensen zijn die het op kinderziektes willen gooien en dat Intel het eigenlijk helemaal niet zo slecht gedaan heeft want dit was een eerste release en ze hebben jaaaaren achterstand op AMD/Nvidia...
Nee, voor een miljardenbedrijf als Intel dat echt wel software kan schrijven (en ook al heel lang iGPU drivers heeft moeten bakken) is dit gewoon een hele slechte outing, optimalisaties voor games nog even helemaal daar gelaten. Het lijkt bijna alsof ze klaar waren met de hardware en toen bedachten dat er ook nog software nodig was en even een stagiair daarvoor moesten charteren.
Toen trok AMD Radeon ex ati afdeling met hun zware tijden mee naar beneden. En met de tijd ging nV steeds agressiever games optimaliseren bij de devs . Naast exe detectie met runtime recompile van shader code.
Dat was nV sterk staaltje driver afvanging in dx9 tot 11. En AMD ging juist op de handrem.
AMD heeft afgelopen jaren nun Radeon afdeling weer flink gas gegeven.
Intel begint pas en al die dx9 tot dx11 ouwe leem waar nV flink tekeer was gegaan met hun driver is iets nieuws voor intel. Igpu is meer het moet de functie robust bieden zoals referentie driver. Performance secondair. Nu in dgpu speeld performance een primaire rol wat de sku prijs bepaald tov de concurrentie.
Nv en AMD focussen zich nu op de nog zeer popu bench games onder dx11 en vooral het nieuwe spul. Omdat die ouwe leem al zijn optimalisatie slag hebben gehad.
Intel moet de algehele catalogus van populaire dx9 tot dx11 games nog wat nv en AMD in 10 jaar gedaan heb gespreid toen al die games na mekaar released werden. Moet intel die gehele back log even bij benen. Effe , dacht ik effe niet.
Denk niet dat miljarden het effe oplost. Je daarnaast veel games waar de dev teams al ont bonden zijn. Waar nV of ATI/AMD toen mogelijk wel met team hebben samen gewerkt. Dus dan moet het van 1 kant komen. Die games zijn nooit getest met intel arc. AMD en nV geven ook dev guides van do en do not’s. En games zijn niet ontwikkeld met arc pathway.
Het zou mij ook niet verbazen dat deze stand van driver afdelingen en werkwijze ook intel mogelijk onderschat.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Had hem gezien; en mijn eerste gedachte. Niet heel veel anders dan het installatie proces van allerlei Intel drivers op mijn oude XPS 15 (iets van 6 jaar geleden). Uiteindelijk daar gewoon een verse Windows install gedaan en via Windows update de drivers erop gekregen.....DaniëlWW2 schreef op maandag 1 augustus 2022 @ 21:37:
En daar gaan we.![]()
[YouTube: Completely Broken: Intel's Drivers Are Embarrassing (Arc GPUs)]
-Smooth sync geeft gruwelijke artefacts in DX11/10/9.
-Monitoren worden niet herkent.
-Het driver menu (Arc control) is al zeer lastig om überhaupt te installeren. Daarnaast is het vrijwel onmogelijk om goed te installeren en die installatie kan zo misgaan dat je het niet meer kan opstarten of kan deinstalleren om het opnieuw te proberen. Zelfs DDU werkt niet.
-UI van Arc control is ook kapot.
-OC spul werkt ook niet.
Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.
Tenzij je speciale features uit het driver package van Intel nodig hebt zou ik het gewoon bij de Windows update houden; en voor veel mensen zegt dat al genoeg. Want drivers wil je normalitair niet aan Windows overlaten....
Ben heel blij dat ik op mijn nieuwe werk laptop direct Windows eraf heb geflikkerd en PopOS erop heb gezet; zelfs met games ben ik nog geen rare dingen gekomen (behalve de Nvidia drivers); maar dat was te verwachten op Linux want Nvidia kan gewoon geen goede Linux drivers schrijven. Enige manier om soms het systeem weer te laten booten nadat Nvidia eruit klapt is de AlienWare overclock knop, waardoor het systeem in een soort van panick mode gaat en ik weer beeld krijg na een reboot.
Beetje offtopic rant
Ik hoop dat Intel de drivers onder controle krijgt want het zou er jammer zijn als we de derde speler direct weer verliezen....
Dat Intel achterloopt op DX11 en ouder is bekend. Dat is niet de issue; het is een begrijpelijke focus, en Intel geeft dat ook gewoon toe. Ik heb er als consument zelfs helemaal geen probleem mee omdat dat typisch iets is dat ze met tijd en aandacht kunnen verbeteren, terwijl we de nieuwe DX12 spellen dan toch al gewoon kunnen draaien op de hardware.SG schreef op dinsdag 2 augustus 2022 @ 19:40:
Intel begint pas en al die dx9 tot dx11 ouwe leem waar nV flink tekeer was gegaan met hun driver is iets nieuws voor intel. Igpu is meer het moet de functie robust bieden zoals referentie driver. Performance secondair. Nu in dgpu speeld performance een primaire rol wat de sku prijs bepaald tov de concurrentie.
Althans, dat zou kunnen als de drivers niet ook op alle andere vlakken brak waren (zie filmpje eerder). De problemen die nu aan het licht komen met de mankerende software zijn veel fundamenteler dan nog geen DX11 ondersteuning hebben, en er is geen (goed) excuus voor. Wat ze nu hebben is domweg nog niet geschikt voor consumptie en had niet in die toestand uitgebracht moeten worden. Dat ze het toch gedaan hebben is ofwel wanbeleid, ofwel noodzaak om de schijn naar aandeelhouders op te houden (al zou ik verwachten dat dat met de Chinese "release" al afgedekt was). Gechargeerd: de A380 zou nu geen geld mogen kosten; Intel zou eerder de gebruikers moeten betalen omdat ze bètatesters zijn voor een kaart die nauwelijks mee kan, of als je pech hebt helemaal geen dienst wil doen.
Als ik zeg dat Intel een miljardenbedrijf is dan bedoel ik dat men daar zeer wel de capaciteit en ervaring heeft om een fatsoenlijk software dev traject op te zetten, met interne bèta's en kwaliteitscontrole. Dat is er nu nadrukkelijk niet, en of dat nu gepruts is of een bewuste keuze maakt dan nog niet eens zoveel uit.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Intel Arc Board Partners are Reportedly Stopping Production, Encountering Quality Issues
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Intel GPU Business in a $3.5 Billion Hole, Jon Peddie Recommends Sell or Kill
Will AXG survive Gelsinger’s axe?
[ Voor 16% gewijzigd door Help!!!! op 12-08-2022 08:29 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Niet alleen blijft de kwaliteit nu achter, maar ook de prestaties per aantal transistors liggen nog een stuk lager dan bij AMD en Nvidia, dus Intel heeft nu ook relatief hoge productiekosten per marktsegment. De Arc A750 is 406mm2 op TSMC 6nm, de RX6650XT zal beter presteren en die is 237mm2 op TSMC 7nm. Voor dezelfde kosten als de Arc A750 bakt AMD zowat een RX6950XT, en binnenkort een RX7600 (navi33) die een factor veel over de A750 heen zal gaan. Dus ik kan me voorstellen dat Arc nu niet of nauwelijks met winst te verkopen is. Overtuig een investeerder maar dat een product doorgezet mag worden terwijl er letterlijk geen winst te behalen valt.
Ik zou al blij zijn als Intel quitte kan spelen en het niet op hoeft te geven, waarmee we een kans houden dat ze over een paar jaar echt kunnen concurreren om de (budget-)markt scherp te houden.
Heeft geen speciale krachten en is daar erg boos over.
20% minder bezet, daar kan Nivida nog een puntje aan zuigenWerelds schreef op zaterdag 16 juli 2022 @ 22:29:
https://game.intel.com/st...hics-performance-preview/
Even los van de prestaties:
[...]
![]()
Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.
A750 specs weten we verder volgens mij niet zeker, maar aangezien 770/780 de volle 8 slices wordt, mogen we er van uit gaan dat 750 6 of 7 slices wordt? Dus 3072 of 3584 ALU's. Lijkt dus niet echt beter te schalen met een grotere GPU, want de 3060 heeft 1792 FP32 en 1792 FP32/INT32. Als het 3584 is dan schaalt het mínder dan de 2-slice A380, als het 3072 is dan schaalt het iets beter, maar nog steeds zeker zo'n 20% minder bezet.
Grootste probleem blijft dat ze 2 jaar te laat zijn, hopelijk voor hen komt "Battlemage" ook "sooner than you think"
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Als er een partij is die dit zou moeten kunnen is het Intel maar dan moet je bereid zijn om een lange adem te hebben. Anders moet je er gewoon niet aan beginnen is mijn mening. Als AMD iha al serieuze moeite heeft om nVidia bij te benen wat denk je dan, dat je met je eerste generatie gelijk meespeelt
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Gelijk voor de hoofdprijs lijkt me inderdaad ambitieus, maar om een toekomst te hebben moet je wel mee kunnen spelen. Dat betekent toch wel dat je in het mainstream segment een realitische optie moet zijn. Dit is nu de 2e generatie die op de wereld is losgelaten. De eerste was DG1/Xe voor laptops. De 2e generatie weet geen indruk te maken. Daarmee raakt het perspectief op marktrelevantie uit het zicht. Als ik Intel zou zijn, zou ik de opvolger van de A780 als B380 in de markt zetten. Dat zou een veel realistischer propositie zijn. Een beetje zoals de Polaris architectuur van AMD. En dan kan je van daaruit verder werken. De vraag is of intel dat ziet zitten. De huidige chip is inderdaad wat groot voor wat ie kan.
[ Voor 3% gewijzigd door ocf81 op 13-08-2022 16:33 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
[ Voor 4% gewijzigd door XWB op 13-08-2022 16:58 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Dat is precies het probleem met hem. Zelfs als hij daadwerkelijk goede bronnen heeft, dan weet hij door zijn "analyses" het voor elkaar te krijgen dat je hem niet kan geloven...ocf81 schreef op zaterdag 13 augustus 2022 @ 17:08:
Er was natuurlijk dat gerucht van MLID, maar tja, dat is natuurlijk MLID, dus wat moet je daar nu van vinden?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zolang er niks is gezegd liggen alle opties nog open, maar het is natuurlijk wel een gegeven dat intel er niet goed voor staat.
Ik heb zelf het idee (puur speculatie van mijn kant) dat zolang intel niet zelf de chips kan bakken er voor hen weinig te halen valt in de GPU markt. Het produceren bij TSMC zal waarschijnlijk duurder zijn en het in stand houden van deze afhankelijkheid maakt de kans op een winstgevend product daarmee dus kleiner. Daarnaast is het ook zo dat hoe langer intel het volhoudt, hoe meer de huidige architectuur relevant zal raken, afgezien van bepaalde e-sports titels die noot meer zullen veranderen omdat ze al meer dan een decennium in (nagenoeg) ongewijzigde vorm meegaan, zoals CS/CSGO. Maar van die titels kan je afvragen of meer dan 120fps zinnig is.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Het plan was altijd al om deze generatie in relatief kleine hoeveelheden te produceren en dan pas bij toekomstige generaties een stevig marktaandeel te pakken. Die toekomstige generaties kunnen ze gewoon ontwerpen voor een Intel-proces.ocf81 schreef op zaterdag 13 augustus 2022 @ 17:23:
Ik heb zelf het idee (puur speculatie van mijn kant) dat zolang intel niet zelf de chips kan bakken er voor hen weinig te halen valt in de GPU markt. Het produceren bij TSMC zal waarschijnlijk duurder zijn en het in stand houden van deze afhankelijkheid maakt de kans op een winstgevend product daarmee dus kleiner.
De keuze voor TSMC was ook om daar ervaring mee op te doen, zodat er bij problemen met Intel 4, 3 of 20A eventueel kan worden uitgeweken naar TSMC om zo competitief te blijven en niet weer dezelfde stagnatie te hebben als bij Core 8de generatie tot de 11e generatie.
De huidige Intel-kaarten hebben wel erg instabiele frametimes en slechte 1% lows, wat vaak belangrijker is dan de gemiddelde frametimes, zeker bij shooters.Daarnaast is het ook zo dat hoe langer intel het volhoudt, hoe meer de huidige architectuur relevant zal raken, afgezien van bepaalde e-sports titels die noot meer zullen veranderen omdat ze al meer dan een decennium in (nagenoeg) ongewijzigde vorm meegaan, zoals CS/CSGO. Maar van die titels kan je afvragen of meer dan 120fps zinnig is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Wie A zegt, moet ook B zeggen, en ik denk dat de keuze voor C al gemaakt is. Zoals Pat Gelsinger al zei: hij is door de teleurstelling nu juist extra gedreven om van Intel Arc een succes te maken.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Inderdaad!sunsmountain schreef op zaterdag 13 augustus 2022 @ 19:03:
Er is nu in ieder geval een Arc nieuws topic, ik zocht hem al.
Ik zou het heel raar vinden als Intel het na een generatie al gaat stopzetten. Het heeft nog geen eens de kans gehad en gezien het voor hun redelijk nieuw is mag het best een aantal generaties kosten voordat het winst maakt zou ik zeggen. Zeker in een markt die door Nvidia (en AMD) wordt gedomineerd.Wie A zegt, moet ook B zeggen, en ik denk dat de keuze voor C al gemaakt is. Zoals Pat Gelsinger al zei: hij is door de teleurstelling nu juist extra gedreven om van Intel Arc een succes te maken.
Als je als aandeelhouder gelijk wonderen verwacht op dit gebied dan denk ik dat je eens goed moet gaan nadenken
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Graphene; a material that can do everything, except leave the lab. - Asianometry
Wat jij beschrijft was Gen 1. En dat is geprobeerd met DG1 en Xe voor laptops. Dit is Gen2. Weliswaar onder een andere naam, maar zeker Gen2. Dus het lijkt het mij dat het ook de bedoeling is dat er meer wordt verscheept. En ik ben het met je eens dat het een verstandige beslissing was om de eerste generatie bij TSMC neer te leggen, maar het punt wat ik wilde maken is dat intel juist zijn verlies kan verkleinen of winst kan pakken door zelf die fabricage te doen. Maar dan moet er natuurlijk wel een product zijn om te verkopenLudewig schreef op zaterdag 13 augustus 2022 @ 18:50:
[...]
Het plan was altijd al om deze generatie in relatief kleine hoeveelheden te produceren en dan pas bij toekomstige generaties een stevig marktaandeel te pakken. Die toekomstige generaties kunnen ze gewoon ontwerpen voor een Intel-proces.
De keuze voor TSMC was ook om daar ervaring mee op te doen, zodat er bij problemen met Intel 4, 3 of 20A eventueel kan worden uitgeweken naar TSMC om zo competitief te blijven en niet weer dezelfde stagnatie te hebben als bij Core 8de generatie tot de 11e generatie.
Consistente frametimes zijn inderdaad erg prettig. Maar consistent op 60 fps is denk ik voor 95% van de mensen prima.Ludewig schreef op zaterdag 13 augustus 2022 @ 18:50:
[...]
De huidige Intel-kaarten hebben wel erg instabiele frametimes en slechte 1% lows, wat vaak belangrijker is dan de gemiddelde frametimes, zeker bij shooters.
[ Voor 10% gewijzigd door ocf81 op 14-08-2022 19:29 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Arc is RDNA1 battlemage RDNA2 en is de kroon nog steeds ver weg al zou sub high-end wel te doen zijn. De derde gen zou kansen redelijk vergroten dat ze goed mee kunnen komen in moderne games.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ten eerste lijkt Alchemist nog veel meer op Turing dan ik al vermoedde. Inmiddels durf ik wel te stellen dat Intel hier hun "inspiratie" heeft opgedaan. Het is zeker geen kopie, maar de parallellen zijn er zeker. Wat je hier namelijk ziet is Xe haar Vector Engine. Het zijn twee SIMD8 datapaden, een voor elk FP en INT. Die zijn co-issue. Dat lijkt heel erg op Turing, maar de SIMD eenheden zijn half zo groot.
A cool aspect of Alchemist/Gen12.7 are dedicated issue ports for floating point and integer pipes, similar to what Nvidia did with Turing.
— Locuza (@Locuza_) 12 april 2022
Matrix units also have their own issue port, instructions can be co-issued to all.
2/x pic.twitter.com/3YzDkyskEd
Vervolgens deelt een Xe-core een instructie cache van 96KB. Dat is niet erg groot voor 16x SIMD8 FP en 16x SIMD8 INT + 16 Matrix cores + 1x RT unit. Het roept bij mij dan ook het vermoeden op dat Intel het zichzelf erg moeilijk heeft gemaakt. Ze hebben een zeer complexe scheduling van taken gecreëerd omdat instructies nu in threadgroepen van 16 verdeeld worden met een 50/50 verhouding. Ook is er weinig instructie cache om die threads in een wachtrij voor de Xe-core te zetten. Ergo, wat er waarschijnlijk gebeurd is dat de INT ALU's een flink deel van de tijd toch al stilliggen, maar er waarschijnlijk ook veel cycles verloren gaan omdat het FP deel van de Vector Engines, simpelweg geen instructies meer te berekenen hebben. Occupency ligt denk ik laag.

Dit is misschien ook wel het lastigste deel van een GPU. Extra problematisch wordt het met DX11 en lager.
Als je dan naar de Render Slice kijkt dan besef je dat de A380 maar twee slices heeft en dus acht Xe-cores. De A770 heeft 8 render slices waardoor dat probleem alleen maar groter kan worden. Het zou verklaren waarom Intel zoveel problemen lijkt te hebben.
Het is alleen niet alleen maar slecht. De Matrix cores van Arc A770 verslaan namelijk Nvidia hun "Tensor cores" van GA104 theorie met enig gemak in de meeste berekeningen. Verder denk ik dat Intel hun RT oplossing misschien ook wel meer aandacht verdient. Want dat lijkt ook meteen beter te zijn dan wat Ampere heeft.
At the GDC Intel also shared more details about their Ray Tracing hardware.
— Locuza (@Locuza_) 12 april 2022
It sounds like really good stuff, with dedicated scalar pipes for traversal + own caches for that.
New disclosure, a thread sorting unit to improve coherency.
Level 4 RT based on Imagination's paper.
4/x pic.twitter.com/Hf20iOJudN
Niet alleen qua feature ondersteuning, maar de manier waarop is misschien ook veel beter. Hoe ik het begrijp heeft een RT unit bij Xe ook haar eigen caches en werkt deze onafhankelijk van de rest van de render pipeline. Dit in tegenstelling tot Nvidia en zeker AMD waar RT instructies, de reguliere pipeline wel degelijk gaan onderbreken. Komt bij dat Intel kiest voor een model van een flinke RT unit voor 128 + 128 ALU's. Dat lijkt een beter model te zijn dan wat AMD met RDNA2 deed en dus ook beter dan Ampere vanwege de betere ondersteuning alsmede meer losstaand.
Onder de streep krijg je dit:
Overall this brings us to an updated throughput and architecture comparison table.
— Locuza (@Locuza_) 12 april 2022
On paper DG2-512 looks even better now.
HW ray sorting, wide range of matrix acceleration and dedicated issue ports for INT, FP and Matrix instructions.
16/x pic.twitter.com/O1NVMlKVxH
RDNA2 blijft gewoon een zeer efficiënt ontwerp voor hoe het presteert in traditionele shaders. Daar is AMD hun ontwerpfocus ook naartoe gegaan voor RDNA2. De perfecte RT unit of matrix cores was daar waarschijnlijk te veel gevraagd. We weten dat RDNA3 ook matrix units krijgt, RT is het grote raadsel. Bij Xe lijkt de focus juist gelegen te hebben om matrix en RT meteen goed te doen, en het technisch meteen beter zijn dan Ampere is noemenswaardig.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja met die miljarden haal je goede work force binnen.Help!!!! schreef op zaterdag 13 augustus 2022 @ 16:01:
Er is natuurlijk een reden dat er maar twee partijen zijn die echt goede dGPU's maken voor gamers en professionels. Goede dGPUs zijn serieus moeilijk. AMD en nVidia zijn door de wol geverfd en doen al decennia niks anders.
Als er een partij is die dit zou moeten kunnen is het Intel maar dan moet je bereid zijn om een lange adem te hebben. Anders moet je er gewoon niet aan beginnen is mijn mening. Als AMD iha al serieuze moeite heeft om nVidia bij te benen wat denk je dan, dat je met je eerste generatie gelijk meespeeltVolgens mij ben je dan serieus naief.
Maar de technikal debt in hardware maar nog meer in software begin je van nul.
N/vidia heerst om dat zij heel agressief in de software kant hebben geïnvesteerd de 20 a 30 jaar.
Zelfs met twimtbp zich op dringen bij game dev’s vorige api hun grote driver afdeling zelfs exe afvangt en recompile van shader code. Zelfs shade code afgevangen kan worden en vervangen.
Deze groot schalige werk wat voor zeer grote back catalog van heel veel dx9 en dx11 games al grootschalig gedaan is .
Daar kan je niks met miljarden. Ten 1st is bij ontwikkelen van de game nV direct mee bemoeid. Is er gebruik gemaakt van nv specifieke frameworks en sdk. Waar in heden die studio nu met dx12 titels bezig zijn en ondersteuning van ouw games al stopgezet is. Of originele teams al ontbonden zijn. Of studio al opgeheven.
Die debt kan je met je miljarden niet meer inhalen. Van die games heeft AMD ook last van. En AMD is nV ook laat gevolgt zover dat kon met gekrompen Radeon afdeling ivm bijna failissement van AMD. Die voorsprong was tov ATI al groot en onder AMD kon er minder met gekrompen afdelingen.
En daarmee wat iNtel heeft maximale technical debt in de software kant. Heeft AMD dat gedeeltelijk ook. En is dus ook bezig met opschalen . En daarmee de fine wine karakteristiek van AMD g-kaart keuze.
Waar AMD te maken heeft met fine wine effect.
Is intel eerder magere yogurt waar energie rijke vet mist of beperkte groep bio diverstity ,dat niet meer terug erin komt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Wat ik heb mee gekregen is dat het tot nu toe een redelijke "shitshow" is.
Weet iemand of er al bekend is wanneer ze de kaarten releasen?
Ik had een Arc kaart op het oog voor als upgrade voor mijn steeds ouder wordende RX580.
Ik game voornamelijk op Linux, dus gebruik alleen maar Vulkan dus die DX9/11 performance kan me gestolen worden.
Waarschijnlijk kijk ik het nog even aan.
Oudere gamen lopen nog niet helemaal soepel (drivers), maar zolang er nog geen prijs bekend is, is er weinig over te zeggen of het een goed of slecht product is.Ronnie N schreef op maandag 29 augustus 2022 @ 10:09:
Ik heb het hele Intel Arc verhaal zijdelings gevolgd.
Wat ik heb mee gekregen is dat het tot nu toe een redelijke "shitshow" is.
Weet iemand of er al bekend is wanneer ze de kaarten releasen?
Ik had een Arc kaart op het oog voor als upgrade voor mijn steeds ouder wordende RX580.
Ik game voornamelijk op Linux, dus gebruik alleen maar Vulkan dus die DX9/11 performance kan me gestolen worden.
Waarschijnlijk kijk ik het nog even aan.
Verwijderd
En ik moet zeggen dat ik er voor $ 140 / ~ € 150 zeker één zal kopen. (US prijs is warvoor het daar al werkelijk te koop is, EU prijs is een verwachting/gok van mij)
Al is het alleen maar om te kijken of ik mijn oude OpenCL 2.0 modellen aan de praat krijg. Die draaien op oude AMD hardware met oude drivers, omdat AMD in hun oneindige wijs(lees dom)heid elke keer het wiel opnieuw lijkt te willen uitvinden, waardoor de nieuwe software stack opeens features niet meer ondersteunde die de oude wel deed.
Met OpenCL 3.0 (wat bij mij nog open staat is hoeveel van OpenCL 2.0, wat nu optioneel is in 3.0 ze ondersteunen) en SYCL support is dat voor mij zeker interessant en de prijs is echt peanuts als ik die modellen eindelijk op moderne hardware met up to date drivers kan draaien.
@Ronnie N Michael heeft vooral game benchmarks gedraaid in zijn eerste A380 tests, dus kijk even naar mijn link.
Vooralsnog erg wisselvallig, van heel slecht tot heel goed - in zijn prijsklasse! - maar met de restrictie dat je een prerelease kernel moet gebruiken en o.a. Mesa eigenlijk zelf moet bouwen en updaten vanuit de git repos. Niet voor productie dus, maar leuk om te testen.
[ Voor 22% gewijzigd door Verwijderd op 29-08-2022 10:17 ]
Die benchmarks zijn inderdaad nogal wisselvallig, ik volg Michael maar had deze gemist, dank!
Het is inderdaad nog even afwachten wat de prijsstelling gaat zijn en hoe de kaarten gaan presteren.
Als ik vragen mag, wat voor modellen draai jij? Ik schrijf voor mijn afstuderen een Agent Based model, maar omdat ik bioloog schrijf ik dat in R en het is traag als stroop in de winter bergop, dus zit te kijken of ik dat ergens hardwarematig kan versnellen.
Verwijderd
Pricing modellen voor derivaten, portefeuille optimalisatie, ALM (verzekeraars, pensioenfondsen, pensioenproducten). Meeste modellen embarrassingly parallel en dus gigantische winst op GPUs.Ronnie N schreef op maandag 29 augustus 2022 @ 10:33:
Als ik vragen mag, wat voor modellen draai jij? Ik schrijf voor mijn afstuderen een Agent Based model, maar omdat ik bioloog schrijf ik dat in R en het is traag als stroop in de winter bergop, dus zit te kijken of ik dat ergens hardwarematig kan versnellen.
R heb ik schurft aan, Python met PyCuda of Arrayfire is fijn als je niet (exclusief) in c/c++ wil werken. Dan heb je meteen alle voordelen van Python om de resultaten de analyseren en visualiseren.
Interessant! Ik kon tot een half jaar geleden niet programmeren, en omdat we als biologen wel veel statistiek doen in R, leek dit een logische stap.Verwijderd schreef op maandag 29 augustus 2022 @ 10:45:
[...]
Pricing modellen voor derivaten, portefeuille optimalisatie, ALM (verzekeraars, pensioenfondsen, pensioenproducten). Meeste modellen embarrassingly parallel en dus gigantische winst op GPUs.
R heb ik schurft aan, Python met PyCuda of Arrayfire is fijn als je niet (exclusief) in c/c++ wil werken. Dan heb je meteen alle voordelen van Python om de resultaten de analyseren en visualiseren.
Dit gaat nu wel een beetje of-topic, dus laten we het hierbij houden.
Dank je Daniel, heel interessant om te zien dat Intel sterker inzet op Ray Tracing, en daarmee ook Nvidia lijkt te verslaan: A770 versus RTX 3060, mogelijk beter (voor recente games) voor een lagere prijs.DaniëlWW2 schreef op zondag 21 augustus 2022 @ 00:51:
En nu snap ik denk ik beter wat er nu met Xe gebeurd. Het antwoord blijkt er al even te zijn, als je het kan vinden.![]()
Ten eerste lijkt Alchemist nog veel meer op Turing dan ik al vermoedde. Inmiddels durf ik wel te stellen dat Intel hier hun "inspiratie" heeft opgedaan. Het is zeker geen kopie, maar de parallellen zijn er zeker. Wat je hier namelijk ziet is Xe haar Vector Engine. Het zijn twee SIMD8 datapaden, een voor elk FP en INT. Die zijn co-issue. Dat lijkt heel erg op Turing, maar de SIMD eenheden zijn half zo groot.
[Afbeelding]
[Afbeelding]
[Twitter]
Vervolgens deelt een Xe-core een instructie cache van 96KB. Dat is niet erg groot voor 16x SIMD8 FP en 16x SIMD8 INT + 16 Matrix cores + 1x RT unit. Het roept bij mij dan ook het vermoeden op dat Intel het zichzelf erg moeilijk heeft gemaakt. Ze hebben een zeer complexe scheduling van taken gecreëerd omdat instructies nu in threadgroepen van 16 verdeeld worden met een 50/50 verhouding. Ook is er weinig instructie cache om die threads in een wachtrij voor de Xe-core te zetten. Ergo, wat er waarschijnlijk gebeurd is dat de INT ALU's een flink deel van de tijd toch al stilliggen, maar er waarschijnlijk ook veel cycles verloren gaan omdat het FP deel van de Vector Engines, simpelweg geen instructies meer te berekenen hebben. Occupency ligt denk ik laag.
[Afbeelding]
Dit is misschien ook wel het lastigste deel van een GPU. Extra problematisch wordt het met DX11 en lager.
Als je dan naar de Render Slice kijkt dan besef je dat de A380 maar twee slices heeft en dus acht Xe-cores. De A770 heeft 8 render slices waardoor dat probleem alleen maar groter kan worden. Het zou verklaren waarom Intel zoveel problemen lijkt te hebben.
Het is alleen niet alleen maar slecht. De Matrix cores van Arc A770 verslaan namelijk Nvidia hun "Tensor cores" van GA104 theorie met enig gemak in de meeste berekeningen. Verder denk ik dat Intel hun RT oplossing misschien ook wel meer aandacht verdient. Want dat lijkt ook meteen beter te zijn dan wat Ampere heeft.
[Afbeelding]
[Afbeelding]
[Twitter]
Niet alleen qua feature ondersteuning, maar de manier waarop is misschien ook veel beter. Hoe ik het begrijp heeft een RT unit bij Xe ook haar eigen caches en werkt deze onafhankelijk van de rest van de render pipeline. Dit in tegenstelling tot Nvidia en zeker AMD waar RT instructies, de reguliere pipeline wel degelijk gaan onderbreken. Komt bij dat Intel kiest voor een model van een flinke RT unit voor 128 + 128 ALU's. Dat lijkt een beter model te zijn dan wat AMD met RDNA2 deed en dus ook beter dan Ampere vanwege de betere ondersteuning alsmede meer losstaand.
Onder de streep krijg je dit:
[Afbeelding]
[Twitter]
RDNA2 blijft gewoon een zeer efficiënt ontwerp voor hoe het presteert in traditionele shaders. Daar is AMD hun ontwerpfocus ook naartoe gegaan voor RDNA2. De perfecte RT unit of matrix cores was daar waarschijnlijk te veel gevraagd. We weten dat RDNA3 ook matrix units krijgt, RT is het grote raadsel. Bij Xe lijkt de focus juist gelegen te hebben om matrix en RT meteen goed te doen, en het technisch meteen beter zijn dan Ampere is noemenswaardig.
https://videocardz.com/ne...acing-at-1080p-resolution
Voor oudere of nog niet geoptimaliseerde games zal A770 slecht presteren, totdat het Intel driver team de achterstand heeft ingewerkt in het komende jaar. Maar ze gaan het wel doen/proberen, en ze gaan door met Intel Arc videokaarten: Battlemage next!
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Als dat ding tussen de prestaties zit van de 3060TI en 3070 wat de verwachting is voor de goede games zal dat ding dus geprijsd moeten worden rond de 3050 door DX10/11 prestaties en die zijn ondertussen al rond de 310 te koop. Neem daar de nieuw factor bij en het ontbrekende vertrouwen dan is een realistische prijs 250 euro. Als je nog een paar maanden wacht dan tanken de prijzen van de 3050, 3060 en de 3060 Stropdas. en dan is de Arc niet eens meer gratis weg te geven. Ze hebben veel en veel en veel te lang gewacht. We zijn ondertussen 12 maanden verder en hij is er nog steeds niet. Met een GPU cycle van 2 jaar heb je het toch wel erg vern%&kt.
er is gewoon nog geen enkel teken dat ze te koop gaan zijn binnen 2 maanden en dus heeft het echt geen zin meer. tenzij ze sub 200 gaan targeten maar hoe je 5 chips in een 200 range wil gaan plaatsen met een 380 die al 140 dollar kost...(wat overigens te duur is).
Hun prijzen gebaseerd op de prestaties van de slechtere games lijkt ook gebakken lucht. Ze presteren 30 tot 50% slechter op DX10/11 dat betekend dat je toch behoorlijk lager moet zitten en als de Arc380 140 euro is en de 6400 160 euro gaat dat toch ergens mis.
Deze generatie lijk iig een kansloos product te worden tenzij ze ergens heel veel prestatie hebben weten te vinden of alle DX10/11 problemen opgelost hebben wat in theorie onmogelijk is.
En nu kunnen we ook eindelijk zien hoeveel beter.sunsmountain schreef op vrijdag 2 september 2022 @ 12:27:
[...]
Dank je Daniel, heel interessant om te zien dat Intel sterker inzet op Ray Tracing, en daarmee ook Nvidia lijkt te verslaan: A770 versus RTX 3060, mogelijk beter (voor recente games) voor een lagere prijs.
https://videocardz.com/ne...acing-at-1080p-resolution
Voor oudere of nog niet geoptimaliseerde games zal A770 slecht presteren, totdat het Intel driver team de achterstand heeft ingewerkt in het komende jaar. Maar ze gaan het wel doen/proberen, en ze gaan door met Intel Arc videokaarten: Battlemage next!

Thread sorting en een eigen BvH cache was al duidelijk. De twee ray box engines met elk zes intersections per cycle alsmede nog een aparte ray triangle per cycle zijn nieuw.
Als je bedenkt dat een Xe core werkt met 128 FP + 128 INT ALU's, tja dan is dit niet slecht. Nvidia weigert te vertellen wat zei kunnen, maar van AMD weten we dat het met RDNA2 gaat om vier ray box of een ray intersect per cycle voor twee SIMD32 units. Die gebruiken alleen de hele CU inclusief caches en ALU's. Voor Intel is alleen onduidelijk hoe ze denoising doen.
Onder de streep lijkt Intel met 32 RT units, relatief iets beter te zijn dan de RTX3060 met 28 units. Er is dus zeker winst te behalen. Grootste nadeel is en blijft alleen hoeveel ruimte dit zal innemen. Ik vermoed dat het niet mals zal zijn hoeveel transistoren dit kost. Ook vraag ik me af in hoeverre het zinvol is dat Intel hun ray box en ray intersection op aparte hardware lijkt te doen. Denoising is ook een vraagteken waar ze dit precies doen. Ik zou denken op de matrix engines, maar ik heb geen idee.
In het algemeen denk ik dat Alchemist niet eens heel slecht is. Ik vermoed dat het voornamelijk heel erg inefficiënt is en Intel het zichzelf zo moeilijk maakt met zoveel rekeneenheden die zo complex aan elkaar hangen in zoveel kleine rekeneenheden. Ik vraag me nu al af of ze met Battlemage niet al een flink deel van die complexiteit eruit slopen en voor de Xe cores naar 4x SIMD32 gaan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Zeker! Voor zij die een toegankelijke video van Ray Tracing door Intel willen zien:DaniëlWW2 schreef op vrijdag 2 september 2022 @ 15:29:
[...]
En nu kunnen we ook eindelijk zien hoeveel beter.
[Afbeelding]
Thread sorting en een eigen BvH cache was al duidelijk. De twee ray box engines met elk zes intersections per cycle alsmede nog een aparte ray triangle per cycle zijn nieuw.
Als je bedenkt dat een Xe core werkt met 128 FP + 128 INT ALU's, tja dan is dit niet slecht. Nvidia weigert te vertellen wat zei kunnen, maar van AMD weten we dat het met RDNA2 gaat om vier ray box of een ray intersect per cycle voor twee SIMD32 units. Die gebruiken alleen de hele CU inclusief caches en ALU's. Voor Intel is alleen onduidelijk hoe ze denoising doen.
Onder de streep lijkt Intel met 32 RT units, relatief iets beter te zijn dan de RTX3060 met 28 units. Er is dus zeker winst te behalen. Grootste nadeel is en blijft alleen hoeveel ruimte dit zal innemen. Ik vermoed dat het niet mals zal zijn hoeveel transistoren dit kost. Ook vraag ik me af in hoeverre het zinvol is dat Intel hun ray box en ray intersection op aparte hardware lijkt te doen. Denoising is ook een vraagteken waar ze dit precies doen. Ik zou denken op de matrix engines, maar ik heb geen idee.
In het algemeen denk ik dat Alchemist niet eens heel slecht is. Ik vermoed dat het voornamelijk heel erg inefficiënt is en Intel het zichzelf zo moeilijk maakt met zoveel rekeneenheden die zo complex aan elkaar hangen in zoveel kleine rekeneenheden. Ik vraag me nu al af of ze met Battlemage niet al een flink deel van die complexiteit eruit slopen en voor de Xe cores naar 4x SIMD32 gaan.
YouTube: Intel Arc Graphics | Intel Arc A-Series Graphics Ray Tracing Technol...
Hun eerste generatie is inefficiënt ja, maar dat komt ook door de achterstand die ze in te halen hebben qua drivers. Hun ingenieurs zullen bij Battlemage en Celestial betere designs met minder transistors voor elkaar krijgen, zeker als je de oppervlakten vergelijkt met AMD en Nvidia. Als ze dan nog steeds een groot budget hebben en op prijs concurreren, is Intel Arc zo slecht nog niet in de toekomst.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
TL:DR;
Ze waren al 18 maanden te laat.
Toen vertraging fabriek door COVID. (Najaar 2021 uitgesteld)
Toen vertraging oorlog Rusland doordat veel driver developers daar zaten. (Voorjaar 2022 uitgesteld tot nu)
Dus... alle begin is moeilijk. Soms extra moeilijk.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Hij heeft schijnbaar goede bronnen alleen het probleem met intel is dat veel lagen en ergens beslissing makers strijd tegen mekaar voeren om desktop tak op te doeken. MLID communiceert dat uitdrukkelijk als gerucht dat niet bevestigd kan worden . Maar zijn analyse is zijn mening en dat is ook wat het is.DaniëlWW2 schreef op zaterdag 13 augustus 2022 @ 17:09:
[...]
Dat is precies het probleem met hem. Zelfs als hij daadwerkelijk goede bronnen heeft, dan weet hij door zijn "analyses" het voor elkaar te krijgen dat je hem niet kan geloven...
Dat jij het er niet mee eens bent. Is zijn probleem niet. Dat maakt hem geen fraud.
De kans is er dat desktop devisie geschrapt wordt. En reden is duidelijk.
Het gaat financieel niet goed met intel dus CEO krijgen dat op hun dak. En als de verwachting is dat nog jaar of twee moeten groeien in de software kant en drivers om grootste potentie uit hun hardware te halen. Dat kunnen de aandeelhouders te lang vinden. En dus dan de stekker er uit.
Wat sommige ook niet bevatten. Dat desktop gpu geschrapt kunnen worden. Houd niet in de ARC pro. Geschrapt wordt.
Zoals MLID zegt: I wouldn’t bet my live on it.
Daarnaast zijn er heel veel van ander wausies zoals graphicaly chalange. Waar de bronnen andere yt’bers zijn en hoop mening over geruchten zijn. En dan van die click bait titels gebruiken.
Dit is soort van gerucht waar je werkelijks niks mee kan. Een intel interne machtstrijd shit storm tussen groot aandeelhouders en ceo en afdeling hoofden. Dat gebeurt achter gesloten deuren.
Wat moet je ermee. We zien wel of battlemage er nog komt. Voor consument.
Jammer 3de speler is altijd goed.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ja, het blijven geruchten, maar we weten eigenlijk wel dat Intel discrete GPUs gaat schrappen.
- Nvidia en AMD lopen te ver voor
- Daar komen de 2e hands miner kaarten bij
- Drivers optimaliseren is moeilijk en kost veel werk
- Multi chiplets is moeilijk en kost veel werk
- Discrete GPUs gaan gewoon geen winst maken, ongeacht de inspanning door Intel
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
En ja iNtel ziet de bui al hangen daar kunnen deze ARC ook al niet tegen op. Dus dat word minstens jaar in rood hangen kans op 2 a 3 jaar om bij te komen is blijkbaar te lang omdat bij iNTel algeheel stuk minder gaat. Jammer.
Het is meer wegens omstandigheden. Waren jaar eerder begonnen zaten ze minden in de crypto gekte.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Wellicht zijn ze er ook met een foute instelling in gegaan. Denken dat ze in een of twee generaties op het niveau van AMD/Nvidia zitten. Daar kan best wat tijd overheen gaan en halverwege stoppen lijkt mij een verspilling van geld.
Snap ook dat dit een afweging is nu de economie slecht is en ze de beste release periode ooit hebben gemist een half jaar geleden.
In het rood hangen? Intel? Omdat ze één kwartaal verlies hebben gedraaid?SG schreef op zaterdag 10 september 2022 @ 15:14:
En ja iNtel ziet de bui al hangen daar kunnen deze ARC ook al niet tegen op. Dus dat word minstens jaar in rood hangen kans op 2 a 3 jaar om bij te komen is blijkbaar te lang omdat bij iNTel algeheel stuk minder gaat.
Het kwartaal ervoor was juist een monsterlijk goed kwartaal, met 8 miljard winst uit 18 miljard omzet, hoogste winst per kwartaal ooit. De afgelopen 4 jaar hadden ze elk jaar 21 miljard netto winst; met uitzondering van afgelopen jaar, toen was het maar 20 miljard. 5 jaar geleden was dat nog de helft. Ze hebben ook nog 27 miljard cash in de bank.
En zelfs dan nog, zoiets als Q2 kunnen ze jaren vol houden. Die 450 miljoen verlies kwam vooral door lagere marges, R&D en productiekosten zijn nauwelijks veranderd. Dat compenseren ze wel met hun jaarlijke CPU release.
Waarom typ jij toch altijd iNtel en nVidia? Laatste zal wel door hun oude logo komen waar de n cursief was...maar Intel? Die hebben nooit de nadruk op de N gelegd. Enige wat in hun logo ooit anders is geweest is dat de E lager werd gedrukt..
[ Voor 3% gewijzigd door Werelds op 10-09-2022 17:55 ]
Natuurlijk had iedereen moeten zien aankomen dat Alchemist niet erg competitief zou gaan zijn. Dat moet je weten voordat je hieraan begint. Het gaat enkele generaties duren.
Als het dan gebeurd, tja dan ligt het denk ik ook aan hoe ze dit bij Intel hun GPU divisie hebben gedaan. Natuurlijk is het mooi dat Intel meteen een fatsoenlijke RT implementatie heeft neergezet, flink capabele matrix hardware heeft, maar waarom begin je zo voor een gaming GPU? Waarom niet beginnen met de basis in shading hardware en hou het bij een of twee kleinere chips die je alleen in laptops stopt? Vanuit dat punt kan je doorontwikkelen en de stap naar desktop starten.
Een ander is dat Battlemage, Celestial etc alsnog doorontwikkeld zullen worden, maar dan blijkbaar alleen als onderdeel voor APU's Meteor Lake en verder. Waarom dan de dGPU's annuleren zodat je de R&D kosten van de architectuur moet verdelen over minder verkochte chips waarbij de GPU een extra is? Immers kan je die chips alsnog kwijt in laptops.
Laatste is het idee dat Intel wel doorgaat met Xe-HPC.Tja, dat roept bij mij meteen al de vraag op: Wie gaat hier precies instappen als Intel nu de boodschap uitstuurt dat een generatie met tegenslag, de roadmap met nog drie generaties al tot annuleren kan drukken? Dat is het signaal dat je uitstuurt als je nu Xe-HPG annuleert en dat is meteen het einde van Xe-HPC. Immers lig je daar nog veel, veel verder achter vanwege de software en moet je nog veel meer investeren. Die bereidheid is hiermee zeer twijfelachtig geworden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja maar Ryzen was bij generatie 1 toch ook perfect.... oh wacht....DaniëlWW2 schreef op zaterdag 10 september 2022 @ 18:41:
Ik snap het hele argument waarom Intel nu de gaming lijn op zou doeken niet...
Natuurlijk had iedereen moeten zien aankomen dat Alchemist niet erg competitief zou gaan zijn. Dat moet je weten voordat je hieraan begint. Het gaat enkele generaties duren.