Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
Oof. Slecht nieuws voor ons als consumenten, effectievere concurrentie zou beter zijn. Intel lijkt het wederom niet klaar te kunnen spelen op driverniveau, de hardware lijkt er wel toe in staat. Ze hebben niet lang meer voor de volgende generaties van AMD en NV, en die komen vast wel gewoon uit met goed werkende drivers...

Ik heb diverse mensen horen zeggen "no bad products, only bad prices" met het idee dat als Intel de zut maar goedkoop genoeg aan de man brengt dat het dan wel OK is, somehow. Dan moet je het er wel voor over willen hebben om te gokken op het driverteam daar, mij niet gezien. Bewijs eerst maar even dat dat goed zit, dan kijken we verder. Ondertussen verdienen ze hun geld waarschijnlijk toch wel op OEMs.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Nou ja, op zich ligt er een enorm gat op de GPU-markt onder de 200 euro. Dus als Intel die budget-markt een beetje op kan schudden zou ik al blij zijn, high-end houden AMD en NVidia elkaar wel zoet.

Maar het was leuk geweest als er iets meer in had gezeten, ja. Je zou toch hopen dat Intel's vlaggenschip in ieder geval mee kan doen in het mid-range-segment, niet dat die nog onder AMD's goedkoopste GPU's zit.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
Het was top geweest maar zou mij verbaasd hebben als Intel gelijk vol mee zou kunnen met AMD en nVidia. Het lijkt mij een redelijke eerste start, hopelijk is het goed genoeg voor Intel om vol te blijven houden.

Ze hebben nl. al eens eerder heel veel geld aan een dGPU project uitgegeven om het als een nachtkaars uit te laten gaan.

Als je een serieuze dGPU speler wilt worden dan zal je jezelf imo moeten commiteren over een langere periode en verliezen horen daarbij. Den Cost gaet voor den Baet uyt.

Wel benieuwd naar de serieuze reviews.

Dit is dan weer onhandig:

Intel's Arc A380 Performs Even Worse With an AMD CPU

[ Voor 27% gewijzigd door Help!!!! op 23-06-2022 12:06 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op donderdag 23 juni 2022 @ 11:42:
Het was top geweest maar zou mij verbaasd hebben als Intel gelijk vol mee zou kunnen met AMD en nVidia. Het lijkt mij een redelijke eerste start, hopelijk is het goed genoeg voor Intel om vol te blijven houden.

Ze hebben nl. al eens eerder heel veel geld aan een dGPU project uitgegeven om het als een nachtkaars uit te laten gaan.

Als je een serieuze dGPU speler wilt worden dan zal je jezelf imo moeten commiteren over een langere periode en verliezen horen daarbij. Den Cost gaet voor den Baet uyt.

Wel benieuwd naar de serieuze reviews.

Dit is dan weer onhandig:

Intel's Arc A380 Performs Even Worse With an AMD CPU
Dat is wel triest als dat klopt. Als het goed is zou er een gigantisch gpu bottleneck moeten zijn en die cpu's maken dan niks uit. Wellicht is het de implementatie van REBAR en 4G decoding op de Intel kaart die roet in het eten gooit?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja, het zat eraan te komen. Al maandenlang is het stil, uitstel na uitstel en opeens alleen in China verkrijgbaar zonder enige bombarie in de westerse wereld waar het geld nu eenmaal zit.

Maar dit is wel de kleinste chip. Het zal dus nog beter worden voor de grotere chips, als die schalen. Maar die komen zo laat dat ze erg goedkoop in de markt gezet moeten worden.

Deze chip is 157mm2 en legt het af tegen de uiterst miserabele 107mm2 Navi 24. Ergens is het sportief van Intel om op de valreep nog even Navi 24 van de troon te storen als grootste mislukking in twee jaar ellende in de GPU markt. Maar dat was denk ik niet de bedoeling. :z
https://www.techpowerup.com/gpu-specs/arc-a380.c3913
https://www.techpowerup.c...s/radeon-rx-6500-xt.c3850

Dan nog de vraag over drivers die helemaal acuut word als je ziet dat ze blijkbaar ook onderpresteren met Zen 3. Want het verschil tussen een 5600 en een 12400 is niet zo groot en die GPU is zo zwak dat er geen verschil zou moeten zijn.

[ Voor 5% gewijzigd door DaniëlWW2 op 23-06-2022 13:08 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

intel heeft al heel lang ervaring met REBAR. Het is al een tijd lang beschikbaar op Xeon CPU's en bijbehorende moederborden. (het zit op mijn 2011-3 moederborden)
Het lijkt me dan niet waarschijnlijk je dan ook wel aardig moet begrijpen hoe dat op de kaart moet worden toepast. Maar misschien zijn de verkeerde mensen aangetrokken in het ontwikkelteam voor de GPU's.
Maar goed, intel staat nu niet bepaald bekend om goede GPU ontwerpen. De i740 had ook een fundamenteel ontwerpprobleem.

[ Voor 19% gewijzigd door ocf81 op 23-06-2022 13:06 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Bij GamersNexus zijn ze nu ook in Intel hun socket 1700 probleem gedoken.
Het is het hele verhaal van hoe hun socket bevestiging werkt, druk testen op verschillende CPU's en vergelijken met Thermal Grizzly hun oplossing.

[ Voor 25% gewijzigd door DaniëlWW2 op 26-06-2022 09:22 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
Pikant: [WCCF Tech] Intel Releases Brand New Arc GPU Drivers That Focus On Optimizing Synthetic Benchmarks & Not Gaming Performance.

Blijkt dat de nog relatief goede showing van Arc in de benchmarks puur op het conto kwam van wat sjoemelsoftware "Advanced Performance Optimizations" die toevallig alleen iets doen in benchmarks. Wel hulde voor Intel dat ze dit in de meest recente releases gewoon ruiterlijk toegeven en het schuifje om het uit te zetten beschikbaar maken... Nu alleen nog even ook de games optimaliseren.

Nu snap ik ook waarom ze dit Alchemist noemen: men probeert van lood goud te maken. :+

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Intel heeft een gouden kans verknald door bij de executie van Alchemist zo veel fouten opeen te stapelen. Ik zie voor intel steeds minder kansen om nog aan te haken in de consumentenmarkt, tenzij Battlemage letterlijk 100% versnelling geeft t.o.v. Alchemist. Op een gegeven moment heb je een reputatie waar je niet zo makkelijk meer vanaf komt, en dat wordt ondertussen wel steeds meer realiteit voor intel als het om Arc in de consumentenmarkt gaat.

Voor de zakelijke markt is de one API nog wel interessant, dus daar zou intel nog wel iets kunnen bereiken als ze maar de support blijven leveren.

[ Voor 9% gewijzigd door ocf81 op 01-07-2022 13:27 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Sp3ci3s8472 schreef op donderdag 23 juni 2022 @ 12:53:
[...]


Dat is wel triest als dat klopt. Als het goed is zou er een gigantisch gpu bottleneck moeten zijn en die cpu's maken dan niks uit. Wellicht is het de implementatie van REBAR en 4G decoding op de Intel kaart die roet in het eten gooit?
Wat intel doet vanuit puur igpu opschalen naar DX12U dgpu is groter stap.
AMD Radeon tak heeft ook vanuit afgeknepen afdeling van GCN naar RDNA1 1 chipje naar RDNA2 3 chip familie opgeschaald. Uiteraard was de basis al running en is dus opschalen van de afdelingen.
Bij iNtel moest afdeling of team deel bijkomen die game specifiek optimised en alles wat nv en AMD ondertussen verzonnen hebben ook tegen hanger erbij nemen.

Denk dat ze bij de 2de gen intel als geheel hun draai gevonden zullen hebben en met gen3 ook gooi kunnen doen naar kroon.

Ik heb eerder het idee dat AMD beter hun plek tov NV inzien en niet te hard van stapel lopen. Dus goede geleidelijke opbouw van RDNA gen1 naar gen2 naar gen3. Een lange termijn sucses planning.
Maar bij intel mogelijk de druk zeer hoog is en de CEO te snel wil en dus deze markt segment onderschat. En dus de hardware er al is maar de software kant nog zwaar achter loopt.
Kan ook zijn dat je dit met generatie moet opbouwen. En niet iets is waar je even uit niets met 2 gevestigde merken op top niveau kan mee draaien. Maar ze komen er wel maar dat zal niet met deze gen zijn.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Review van de Intel Arc A380 door GamersNexus. Een punt wat goed naar voren komt is dat je REBAR aan moet zetten want anders is de kaart waardeloos. Daarnaast heeft de kaart het duidelijk moeilijker met (oudere) DX11 titels. Als je deze kaart neemt dan moet je dit vooral doen als je moderne spellen speelt en een modern systeem heeft wat REBAR ondersteunt. Aan de andere kant, je bent waarschijnlijk beter af met een tweedehands RX 470-RX580 (wat overigens ook waar is voor de 6400 en 1630 |:( ).

[ Voor 4% gewijzigd door Sp3ci3s8472 op 13-07-2022 17:35 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dit zou de Arc A750 moeten zijn:

Intel Arc A750 Limited Edition desktop GPU pictured

Gamers Nexus schijnt de kaart in handen te hebben, hopelijk verschijnt er binnenkort een review.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Voor intel is dit de intredings gen . Waar AMD een comeback met de gehele RDNA generaties.
Als AMD dat ook zeer geleidelijk doet van GCN naar rdna1 met midrange enkel 1 chip. Dan rdna2 pas op gang komt en met rdna3 mogelijk full concurreert met nv.

Is ARC een intreding en i740 is in zo ver grijs verleden dat die al niet mee telt. En is de igpu afdeling de basis waaruit zij schalen.
Denk dat 2de gen ARC pas iet zou kunnen beteken en met 3th gen mogelijk goed kan concurreren.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar is Arc A750. Geen benchmarks, wel details over de architectuur met Tom Petersen die nu voor Intel hun GPU divisie werkt (was Nvidia). :)


-$129-$139 MSRP voor de A380.
-Het is dus SIMD32 net zoals AMD en Nvidia.
-Een Render Engine is 8x SIMD32 voor een totaal van 256.
-Daarnaast hebben ze Matrix units die 1024 bit breed zijn. Zo te zien zijn dit er vier, dus elk 256bit breed.
-Er zit ook een thread sortering in elke Render Slice voor optimalisatie van het versturen van vergelijkbare thread waves naar de Render Engines. Dit om de Xe-Core in balans te houden zodat een deel niet stil komt te liggen.
-Een Xe-Core heeft16x Render en 16x Matrix engines.
-Ze zeggen bij Intel zelf al dat ARC geoptimaliseerd is voor DX12. Voor DX11 hebben ze veel werk te verzetten qua drivers. Hiervoor hebben ze een lijst van games die veel gespeeld worden of gebruikt worden in reviews. Daarbuiten is het echt een gevalletje hopen op optimalisatie.

Als ik dan wat dingen van vorig jaar erbij pak, tja het begint een beetje op een hybride tussen AMD en Nvidia te lijken. Aparte RT en matrix units zoals Nvidia, maar veel diepere rekenclusters zoals AMD. Ook erg breed zoals Nvidia maar ik vermoed net zoals AMD wel een hardware scheduling.
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/e/1/csm_Intel_Architecture_Day_Page_097_977ff5816d.jpg
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/1/f/csm_Intel_Architecture_Day_Page_098_df12e909d1.jpg
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/2/3/csm_Intel_Architecture_Day_Page_099_3a3d8813f4.jpg
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/e/f/csm_Intel_Architecture_Day_Page_100_11e35ac209.jpg
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/8/8/csm_Intel_Architecture_Day_Page_101_9508fd84c2.jpg
Afbeeldingslocatie: https://www.notebookcheck.net/fileadmin/_processed_/0/3/csm_Intel_Architecture_Day_Page_104_efad69dc39.jpg


edit: Er klopt alleen iets niet. Je hebt 128 Vector/Render Engines met elk 256 bit wat weer verdeeld zou zijn in 8x SIMD32. Ik wil nu graag de Vector Engine zelf zien want ik denk dat dit zeker geen 1 clockcycle issue architectuur is. Ik denk dat dit misschien veel meer op GCN lijkt qua issue van threads waarbij een elke clock cycle maar een deel van een SIMD32 berekend kan worden. Dat zou ook verklaren waarom ze een thread sorter nodig hebben voor elke Xe-core.

@Werelds Heb jij nog andere ideeën? :)

[ Voor 108% gewijzigd door DaniëlWW2 op 14-07-2022 23:16 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
@DaniëlWW2 weekend werk :p

Met 32 brede SIMD's zou het echter wel een 1-cycle moeten zijn, tenzij die 32 enkel slaat op het totaal aantal units en dus 32 "FP + INT" is, of de instructie cache niet genoeg uit kan delen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 14 juli 2022 @ 22:45:
@DaniëlWW2 weekend werk :p

Met 32 brede SIMD's zou het echter wel een 1-cycle moeten zijn, tenzij die 32 enkel slaat op het totaal aantal units en dus 32 "FP + INT" is, of de instructie cache niet genoeg uit kan delen.
Ik wil het dus zien omdat ik een beetje moeite heb te geloven dat de Arc A380 beschikt over 16384 SIMD32 clusters. Want als dat zo is, dan gaat er ergens denk ik iets een heel klein beetje mis. :+ :z


En toen vond ik het. Arc A380 heeft dus 1024 FP32 ALU's. Tja dat zou dan neerkomen op 1024 : 128 = 8x FP32 ALU per Vector Engine.

Ik vermoed dus dat die "SIMD32" heeft gezegd terwijl het eigenlijk wave32 moet zijn. Dit wordt vervolgens opgesplitst in SIMD8 en verdeeld binnen de Xe-core. Daarom is er een thread sorting unit die threads moet verdelen tussen de Vector Engines om ze te balanceren en allemaal aan het werk te houden. Dat heb je niet nodig met single issue SIMD32. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Weet iemand ook of SR-IOV ondersteund wordt op de Arc kaarten?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:54
ocf81 schreef op vrijdag 15 juli 2022 @ 16:41:
Weet iemand ook of SR-IOV ondersteund wordt op de Arc kaarten?
Ik zou er niet direct vanuit gaan, de hardware kan het mogelijk wel. maar wat ik begrijp heeft Intel de software support (nog) niet geactiveerd.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Om terug te komen op die Arc A750, Intel heeft een preview van de performance vrijgegeven:

Afbeeldingslocatie: https://www.techpowerup.com/img/a7y5mOu7YsgOpAq0.jpg

Afbeeldingslocatie: https://www.techpowerup.com/img/YKGolZz512aBZJbd.jpg

Zie https://game.intel.com/st...hics-performance-preview/

March of the Eagles


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En de traditionele tear down voor de geïnteresseerden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:44
Shrout en Petersen zijn ook bij LTT op bezoek geweest en wat zien we daar? Een doos van de A770;

YouTube: I Stand Corrected - WAN Show July 15, 2022

Ze halen de kaart ook uit de doos, 8+6 pins stroomaansluiting, ongeveer 70 graden onder load.

[ Voor 26% gewijzigd door NitroX infinity op 16-07-2022 11:00 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op donderdag 14 juli 2022 @ 20:38:
-$129-$139 MSRP voor de A380.
-Het is dus SIMD32 net zoals AMD en Nvidia.
-Een Render Engine is 8x SIMD32 voor een totaal van 256.
-Daarnaast hebben ze Matrix units die 1024 bit breed zijn. Zo te zien zijn dit er vier, dus elk 256bit breed.
-Er zit ook een thread sortering in elke Render Slice voor optimalisatie van het versturen van vergelijkbare thread waves naar de Render Engines. Dit om de Xe-Core in balans te houden zodat een deel niet stil komt te liggen.
-Een Xe-Core heeft16x Render en 16x Matrix engines.
-Ze zeggen bij Intel zelf al dat ARC geoptimaliseerd is voor DX12. Voor DX11 hebben ze veel werk te verzetten qua drivers. Hiervoor hebben ze een lijst van games die veel gespeeld worden of gebruikt worden in reviews. Daarbuiten is het echt een gevalletje hopen op optimalisatie.

Als ik dan wat dingen van vorig jaar erbij pak, tja het begint een beetje op een hybride tussen AMD en Nvidia te lijken. Aparte RT en matrix units zoals Nvidia, maar veel diepere rekenclusters zoals AMD. Ook erg breed zoals Nvidia maar ik vermoed net zoals AMD wel een hardware scheduling.
[[URL="https://www.notebookcheck.net/fileadmin/_processed_/e/1/csm_Intel_Architecture_Day_Page_097_


edit: Er klopt alleen iets niet. Je hebt 128 Vector/Render Engines met elk 256 bit wat weer verdeeld zou zijn in 8x SIMD32. Ik wil nu graag de Vector Engine zelf zien want ik denk dat dit zeker geen 1 clockcycle issue architectuur is. Ik denk dat dit misschien veel meer op GCN lijkt qua issue van threads waarbij een elke clock cycle maar een deel van een SIMD32 berekend kan worden. Dat zou ook verklaren waarom ze een thread sorter nodig hebben voor elke Xe-core.

@Werelds Heb jij nog andere ideeën? :)
DaniëlWW2 schreef op donderdag 14 juli 2022 @ 23:12:
[...]


Ik wil het dus zien omdat ik een beetje moeite heb te geloven dat de Arc A380 beschikt over 16384 SIMD32 clusters. Want als dat zo is, dan gaat er ergens denk ik iets een heel klein beetje mis. :+ :z


En toen vond ik het. Arc A380 heeft dus 1024 FP32 ALU's. Tja dat zou dan neerkomen op 1024 : 128 = 8x FP32 ALU per Vector Engine.

Ik vermoed dus dat die "SIMD32" heeft gezegd terwijl het eigenlijk wave32 moet zijn. Dit wordt vervolgens opgesplitst in SIMD8 en verdeeld binnen de Xe-core. Daarom is er een thread sorting unit die threads moet verdelen tussen de Vector Engines om ze te balanceren en allemaal aan het werk te houden. Dat heb je niet nodig met single issue SIMD32. :)
Heb het bekeken, zoals verwacht weinig echte details maar toch: hindsight is 20/20 en ik had het al uit je eerste post moeten halen.

Ze zeggen expliciet dat elke VE 256 bits is. Met 32-bit ALU's geeft dat dus inderdaad 8 ALU's per VE. Waarom ze dat op die manier stellen weet ik niet (heel vreemd), maar ik begin wel enigszins interesse in deze architectuur te krijgen want het lijkt er op dat ze een beetje AMD's aanpak volgen en proberen zo veel mogelijk te streamlinen en inderdaad veel in hardware proberen te doen.

Ik ga verder niet te veel achter de diagrammen zoeken, want er missen veel te veel details. Op papier doen ze 16xFP16 in een VE (packed math kunnen ze duidelijk; DP4a doen ze immers ook op 4x throughput), het lijnt allemaal mooi op met de 1024-bit XMX voor 4x4 matrices, enzovoort. Maar hoe het allemaal aan elkaar hangt weten we niet :)

En ze hebben duidelijk moeite met alles in blokjes van 8 te hakken als je kijkt naar de A380 performance. AMD en Nvidia doen beide meer met minder ALU's. De vraag is of dit veel pijn gaat doen met hun grotere GPU's.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zaterdag 16 juli 2022 @ 16:28:
[...]


[...]


Heb het bekeken, zoals verwacht weinig echte details maar toch: hindsight is 20/20 en ik had het al uit je eerste post moeten halen.

Ze zeggen expliciet dat elke VE 256 bits is. Met 32-bit ALU's geeft dat dus inderdaad 8 ALU's per VE. Waarom ze dat op die manier stellen weet ik niet (heel vreemd), maar ik begin wel enigszins interesse in deze architectuur te krijgen want het lijkt er op dat ze een beetje AMD's aanpak volgen en proberen zo veel mogelijk te streamlinen en inderdaad veel in hardware proberen te doen.

Ik ga verder niet te veel achter de diagrammen zoeken, want er missen veel te veel details. Op papier doen ze 16xFP16 in een VE (packed math kunnen ze duidelijk; DP4a doen ze immers ook op 4x throughput), het lijnt allemaal mooi op met de 1024-bit XMX voor 4x4 matrices, enzovoort. Maar hoe het allemaal aan elkaar hangt weten we niet :)

En ze hebben duidelijk moeite met alles in blokjes van 8 te hakken als je kijkt naar de A380 performance. AMD en Nvidia doen beide meer met minder ALU's. De vraag is of dit veel pijn gaat doen met hun grotere GPU's.
Bits en Bytes. -O- :(
Serieus elke keer mis ik het. }:|


Maar ik denk dat het meer lijkt op ideeën van zowel Nvidia als AMD nemen. Ze kiezen nu voor 16x 8 ALU's met een totaal van 128 per Xe-core. Uitgaande van single clock issue kijk je dan naar 4x wave32. Maar omdat het zo fijnmazig is, vermoed ik dat de ALU's per Vector Engine naar zowel FP als INT geswitched kunnen worden. Dat verklaard voor mij het beste waarom het zo fijnmazig moet zijn alsmede de noodzaak voor thread sortering. Dat heb je niet nodig als alle waves FP of INT is. Voor mij verklaard het misschien ook waarom ze zoveel ALU's nodig lijken te hebben. Daarnaast heb je de matrix cores die denk ik vooral gebruikt zullen worden voor denoising en XeSS.

Een Xe-core en hoger lijkt in het grotere geheel alleen veel meer op wat Nvidia doet. Het zijn veel, relatief kleine clusters die met elkaar verbonden zijn via een centrale L2 cache. Ertussen zit dan de Render Slice waarbij de globale opzet ook veel meer lijkt op een GPC dan een Shader Array.


Alles bij elkaar begin ik te vermoeden dat dit wel eens de kant op kan gaan van een hybride tussen GCN en Turing. Ze nemen GCN haar fijnmazigheid voor verschillende berekeningen en lijken het nog verder te vergroten door naar 8 ALU breed te gaan i.p.v. 16. Ook halen ze denk ik de grote zwakte van GCN weg met staggered issue vs. single issue. Ik vermoed namelijk dat elke clock cycle er in principe een workload uitgedeeld kan worden aan elke Vector Engine. Dat zal alleen een zeer complex verhaal worden omdat je elke clock cycle dus 16x, maximaal 8 threads moet uitdelen.

Het lijkt er ook op dat dit erg lastig kan zijn om aan het werk te houden. Want vanuit de eerste benchmarks is het verschil per titel enorm en zeker ook het verschil tussen DX11 en DX12/Vulkan. Eigenlijk lijkt dit alleen goed te werken met een goed geoptimaliseerde titel.

Hierbuiten lijkt het steeds meer op wat Nvidia al een tijd doet en dat roept inderdaad vragen op over hoe dit gaat presteren als je met meer dan twee Render Slices gaat werken. Alles zal exponentieel complexer worden om te voorzien van instructies of data, net zoals we eigenlijk al zien met GA102. Ik vermoed dus dat Intel de switching complexiteit binnen hun Xe-core vermijd, maar hiervoor terug wel extra problemen creëert.

Als ik gelijk heb, dan blijven twee vragen blijven vervolgens bestaan.
1) Kan Intel hun Xe-core dramatisch versimpelen?
2) Wat gebeurd er als je niet meer over 1024 ALU's spreekt, maar over zeg 4096, dus de grote DG2-512 chip die er ook nog gaat komen?

In deze setup heb je dan geen twee Render Slices meer, maar acht. En hoe gaat dat presteren met een centrale L2 cache setup? Want als Intel tegen dezelfde problemen aanloopt als Nvidia al lijkt te doen, dan gaat dat een probleem worden voor de komende generaties. Alchemist is uiteindelijk een proof of concept en op zich lijkt het niet heel dramatisch te zijn. Het grootste probleem is dat ze een jaar te laat zijn, maar dat kan gebeuren. Het is in ieder geval een basis. Een matige basis, maar al te hoge verwachtingen waren altijd onrealistisch. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op zaterdag 16 juli 2022 @ 19:14:
Een Xe-core en hoger lijkt in het grotere geheel alleen veel meer op wat Nvidia doet. Het zijn veel, relatief kleine clusters die met elkaar verbonden zijn via een centrale L2 cache. Ertussen zit dan de Render Slice waarbij de globale opzet ook veel meer lijkt op een GPC dan een Shader Array.
Ik moest even kijken waar je die L2$ vandaan haalde, maar dat was dus in die laatste slide, helemaal gemist. Dat leunt meer richting Nvidia dan AMD, want tenzij deze slides te top-level zijn, moeten geometry, RT units en de hele render backend alles dus uit L2$ halen.

Maar nogmaals, ik ga er nog niet te veel achter zoeken omdat ze ook niet op textures in gaan bijvoorbeeld. Er zit misschien wel een crossbar tussen de backend en de Xe-cores (lijkt er niet op, maar het kan - thread sorting unit laten ze ook buiten de Xe-cores zien :P). Hopelijk komt er wel nog een échte whitepaper, want dat is voor graphics programmeurs belangrijk om te kunnen optimaliseren.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk dat Intel dat wel zal doen. Ze hebben gewoon nul marktaandeel, willen XeSS gaan pushen en lijken specifieke optimalisaties voor hun hardware ook nodig te hebben. Verder is Koduri daar nu de baas en qua software kan je iemand slechter hebben.

Ze zijn trouwens bezig aan een PR tour want Petersen en Shroud zaten ook bij de WAN show. Daarin leken ze op zijn minste enige interesse te tonen. In ieder geval weet ik nu ook dat Arc, AV1 ondersteund. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
https://game.intel.com/st...hics-performance-preview/

Even los van de prestaties:
Performance results shown here are from a small subset of the games, that work very well with Intel® Arc™ and the Alchemist architecture. I’m not asserting that ALL GAMES will show these results, but it’s a view of what Intel Arc A-series cards are capable of with the right software and engineering enablement.
_/-\o_

Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.

A750 specs weten we verder volgens mij niet zeker, maar aangezien 770/780 de volle 8 slices wordt, mogen we er van uit gaan dat 750 6 of 7 slices wordt? Dus 3072 of 3584 ALU's. Lijkt dus niet echt beter te schalen met een grotere GPU, want de 3060 heeft 1792 FP32 en 1792 FP32/INT32. Als het 3584 is dan schaalt het mínder dan de 2-slice A380, als het 3072 is dan schaalt het iets beter, maar nog steeds zeker zo'n 20% minder bezet.

Grootste probleem blijft dat ze 2 jaar te laat zijn, hopelijk voor hen komt "Battlemage" ook "sooner than you think" :+

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En hier is de performance positie, als die al niet eerder gedeeld is.

Wat ze er alleen niet bij zeggen is dat vanwege alle delays die kaarten straks moeten concurreren met de RTX 4000 / RX 7000 videokaarten.

Afbeeldingslocatie: https://tweakers.net/i/USMkNnTbf5ybpNrlT4fcYFPcZ20=/800x/filters:strip_exif()/f/image/K3Uo1G4nd9EO9ENLiQgsiNoe.png?f=fotoalbum_large
https://wccftech.com/excl...nd-memory-configurations/

[ Voor 10% gewijzigd door XWB op 17-07-2022 01:42 ]

March of the Eagles


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:44
En weer een video;

YouTube: Intel is Hiding Data from Us: What GPU Benchmarks Don't Tell You

Frametime rendering breakdown en speed sync en smooth sync uitleg.

Wordt het overigens niet tijd voor een Intel Graphics topic?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Werelds schreef op zaterdag 16 juli 2022 @ 20:33:
[...]

Ik moest even kijken waar je die L2$ vandaan haalde, maar dat was dus in die laatste slide, helemaal gemist. Dat leunt meer richting Nvidia dan AMD, want tenzij deze slides te top-level zijn, moeten geometry, RT units en de hele render backend alles dus uit L2$ halen.

Maar nogmaals, ik ga er nog niet te veel achter zoeken omdat ze ook niet op textures in gaan bijvoorbeeld. Er zit misschien wel een crossbar tussen de backend en de Xe-cores (lijkt er niet op, maar het kan - thread sorting unit laten ze ook buiten de Xe-cores zien :P). Hopelijk komt er wel nog een échte whitepaper, want dat is voor graphics programmeurs belangrijk om te kunnen optimaliseren.
AMD en nVidia hebben voor dev support ook elk hun eigen developer render guidlines voor hoeveel command que etc en wat vooral niet te doen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Ten eerste zullen we Ryan Shrout niet al te veel krediet geven omdat die Intel hun Arc producten niet preventief de nek omdraait? :P
Immers laat hij alsnog de betere resultaten zien en niet de slechtere. We weten dat het slechter zal zijn, maar niet hoeveel slechter.

Tweede is dat er geen Arc A780 is. A770 is de top sku met 32 Xe-cores/4096 FP32 ALU's.

Ik denk dat het dan wel duidelijk is dat dit maximaal RX6700XT/RTX3060Ti niveau gaat halen. En voor een 400mm2+ chip is dat niet al te best. Dit ding zal het op prijs moeten gaan doen en met de crypto instorting zie ik een A770 onder de $400 waard zien zijn. Want bij gelijke prestaties zal je toch eerder voor AMD of Nvidia kiezen.

Ergens is $400 misschien zelfs te optimistisch omdat dat prestatiepunt zo belachelijk vol zit met zoveel oudere SKU's. Alles van RX5600XT, Vega, GTX1070/RTX2060 tot en met de RTX2080S zit daar ongeveer en telkens die paar procent sneller is gewoon niet relevant als upgrade pad. Je moet dat prestatiepunt echt ontsnappen of goedkoop zijn voor relevantie.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op zondag 17 juli 2022 @ 19:36:
Ik denk dat het dan wel duidelijk is dat dit maximaal RX6700XT/RTX3060Ti niveau gaat halen.
Of om het nog zieliger te laten klinken: RX 7600 / RTX 4050 niveau (er van uitgaande dat de nieuwe generatie opnieuw een rijtje opschuift).

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op zondag 17 juli 2022 @ 23:21:
[...]


Of om het nog zieliger te laten klinken: RX 7600 / RTX 4050 niveau (er van uitgaande dat de nieuwe generatie opnieuw een rijtje opschuift).
Navi 33 zou rond Navi 21 niveau zitten hé. Er is nog steeds een aardige kans dat de langzaamste dGPU SKU in de RDNA3 lijn, al ruim 50% sneller is als Arc A770. ;)

Intel heeft echt Battlemace nodig en snel. Ze zijn gewoon minstens een jaar te laat nu. Want nu rest is waarschijnlijk om de chips maar te verkopen aan de grote prebuild partijen voor fikse kortingen. Daarmee vallen ze voornamelijk Nvidia aan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:54
DaniëlWW2 schreef op maandag 18 juli 2022 @ 08:22:


Intel heeft echt Battlemace nodig en snel. Ze zijn gewoon minstens een jaar te laat nu. Want nu rest is waarschijnlijk om de chips maar te verkopen aan de grote prebuild partijen voor fikse kortingen. Daarmee vallen ze voornamelijk Nvidia aan.
Ik denk eigenlijk dat Intel het beter rustig aan kan doen, als ik het een beetje van een afstand bekijk lijkt het grote issue drivers te zijn, niet de hardware.

Ik vraag me af of 'gehaast' lanceren dan niet slechter is, kijk bijv. naar AMD, die hebben onder bepaalde groepen enthousiasts nog steeds de naam slechte drivers te hebben, terwijl ze daar de laatste jaren toch echt flink verbeterd hebben.

Als drivers inderdaad het issue zijn dan zou ik lekker rustig lanceren (misschien inderdaad alles via OEM's verkopen) en eerst zorgen dat het driver component voor gaming 100% op orde hebben. De rest lijkt immers wel redelijk op orde voor zover ik tot nu toe heb gezien.

Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:44
Die A380 lijkt helemaal zo slecht nog niet als je wat met de power targets en voltage offsets gaat klooien;

https://www.tomshardware....ck-shows-impressive-gains

Via; https://old.reddit.com/r/...0_shows_impressive_gains/

[ Voor 22% gewijzigd door NitroX infinity op 18-07-2022 20:56 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

NitroX infinity schreef op maandag 18 juli 2022 @ 20:55:
Die A380 lijkt helemaal zo slecht nog niet als je wat met de power targets en voltage offsets gaat klooien;

https://www.tomshardware....ck-shows-impressive-gains

Via; https://old.reddit.com/r/...0_shows_impressive_gains/
Dat kan je voor zowel AMD als Nvidia ook doen, met groot succes. Beiden willen een net hoge clocksnelheid en vallen daardoor buiten de sweetspot.
Daarnaast moet je niet vergeten dat niet alle chips dit waarschijnlijk zullen halen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Werelds schreef op zaterdag 16 juli 2022 @ 22:29:
https://game.intel.com/st...hics-performance-preview/

Even los van de prestaties:


[...]


_/-\o_

Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.
Die had ik ook niet verwacht, dit keer is het nieuws niet shrouded in darkness :+.
Goed om te zien dat hij context bij de berichten plaatst; grote verbetering.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10-09 18:05

CMT

Dat maakt mij toch nieuwsgierig naar Arc, ik hoop van harte dat ze de problemen weten op te lossen want een betaalbare budget/midrange kaart is hard nodig.
Zouden de andere modellen ook geplaagd zijn met een goed gebruik van de rekenkracht?
Wanneer een A380 werkelijk naar 75W verbruik zou gaan, dan zou het wel in de buurt van de prestaties van een GTX1070 kunnen komen.

*SNIP*
Modbreak:Hou het een beetje on-topic aub. Aankoopadviesvragen horen niet in dit subforum, al helemaal niet in dit topic. Wat jij voor je zus gaat kopen is niet nieuws(discussie)waardig. Offtopic deel van deze post en reacties die erop volgen verwijderd.

[ Voor 45% gewijzigd door dion_b op 20-07-2022 12:05 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Linus heeft ook eens iets meer interessants.
DX11 vs. DX12 kan echt dramatisch zijn. DX12 lijkt wel in orde, maar bijvoorbeeld in Shadow of the Tomb Raider kijk je echt naar de helft aan framerates van DX12 naar DX11 met de A770. (80 om 40)

En toen kwam wat marketingpraat, maar potentieel wel hoopvol. Want Intel lijkt het zich te beseffen, dus zouden ze op prijs gaan concurreren. En daarmee krijgen we dus precies wat we zo hard nodig hebben in deze markt, een speler die wel aan negatieve prijsdruk doet. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op woensdag 20 juli 2022 @ 20:21:
Linus heeft ook eens iets meer interessants.
DX11 vs. DX12 kan echt dramatisch zijn. DX12 lijkt wel in orde, maar bijvoorbeeld in Shadow of the Tomb Raider kijk je echt naar de helft aan framerates van DX12 naar DX11 met de A770. (80 om 40)
Dat zag je al duidelijk in de review van GamersNexus met hun tragere A3 series kaart.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Lijkt mij wel binnen verwachting dat dx11 games veel meer vergen van de driver teams. Bij Vulkan en DX12 zijn de dev meer verantwoordelijk voor robustheid en performance.
Daarbij zijn er heel veel DX11 games waar intel moet afwerken en ik denk dat de meest populaire grotere titels vooral die ook mee gebenched worden de voorrang krijgen. Wat intel moet doen hebben AMD en nV al grotendeel in verleden al gedaan. En gezien het vaker de wat oudere games zijn en intel de g-kaart prijs aan de hand van deze slecht schalende games en dus de dx12 titels het voor bang for the buck beter kunnen doen. Wel met tdp handicap.
Maar als ik ervoor ga dan minstens nextgen uper midrange of sub high-end en dit is het dus niet.

Al kijk ik meer uit naar raptor lake ULV instap cpu met weinig p-cores en veel e-cores voor home servertje. Meer omdat intel betere idle tdp heeft.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
Daar heb je de eerste rumors al.

YouTube: Intel SHUTTING DOWN the dGPU division?

Tegenvallende financial forecasts, recessie, grote investeringen nodig voor de nieuwe fabs.
En ze hebben al eerder een tegenvallend dGPU project na grote investeringen simpelweg gecanned. Dus who knows.

Ik hoop het niet en waarom begin je aan zo'n immens project als je je niet commit aan de lange adem die nodig is om zoiets tot een succes te maken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik heb dit al eens eerder als vrees uitgesproken, maar het lijkt toch echt waarheid te worden: "It's i740 all over again.". En de gelijkenis in oorzaken is zelfs akelig gelijksoortig. (afhankelijkheid van verbinding met systeemgeheugen)

Helaas is SR-IOV eruit gesloopt, dus het is ook geen interessante propositie meer voor mij. (zelfs niet voor mijn servers)

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja het zou een typische Intel zijn om er na een generatie al mee te stoppen. Maar ik betwijfel of ze het echt gaan doen tenzij er iets fundamenteel mis is met de Arc architectuur en roadmaps. Immers moet je dan een gigantische afschrijving gaan verantwoorden aan je aandeelhouders. De wafers zijn ook allang geboekt bij TSMC en daarover zal ook een enorm boetebedrag zitten als je die niet afneemt.

Wat ik wel waarschijnlijker acht is dat Intel de DIY dGPU markt niet echt gaat betreden. Ik zie Intel het liever houden bij dGPU in laptops en de grote systeem integrators voor desktop systemen. Voor de DIY markt, tja ze moeten erg op prijs gaan concurreren om daar iets te verkopen. Het product is niet erg goed als je vergelijkt met kleinere chips op dezelfde node. Navi 22/23/24 zijn veel betere chips en Navi 33 zit eraan te komen. Onder de prijs te gaan zitten, lijkt nu het plan te zijn, maar Intel verdient waarschijnlijk erg weinig op die chips.

Zeker in de laptopmarkt is het misschien anders. Daar kan Intel nog vertrouwen op hun CPU's om ook die GPU's te verkopen met koppelverkoop + korting. Eigenlijk hetzelfde wat AMD ook probeert en altijd twijfelachtig omdat het altijd tegen machtsmisbruik in de markt aanzit, maar ze kunnen het wel doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
Het zou erg kortzichtig van Intel zijn om Arc nu al de nek om te draaien wegens niet succesvol genoeg, want hardwaretechnisch lijkt Arc toch echt wel goede kaarten te hebben. Dit in tegenstelling tot i740/Larrabee, waar de hardware om te beginnen het al niet waar kon maken en waar de stekker eruit trekken in plaats van doormodderen toch wel een stuk aantrekkelijker was. De problemen van Arc zitten aan de softwarekant, en dat is een kwestie van tijd (en goedkoper op te lossen dan fundamentele hardwareproblemen). Alchemist zal voor de DIY markt inderdaad geen groot succes meer kunnen worden (too little, too late) maar het is ook weer niet alsof het compleet afgeschreven zou moeten worden. Was ik een decision maker bij Intel (ja ja...) dan zou ik het toch minstens nog aanzien tot Battlemage om te zien of we van "net niet" naar "on target" gegaan zijn.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar zijn de eerste systeemintegratie systemen van MSI en ASUS met Intel ARC.
Te voorspelbaar. :P
https://videocardz.com/ne...rc-a380-a310-desktop-gpus

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ik heb het in m'n eerste snelle blik helemaal gemist, maar Intel's (hardware :P) RT implementatie lijkt best degelijk te zijn. Het is afwachten tot de grotere GPU's, maar een vlak waar A380 het (in verhouding) wél goed doet is RT.

Natuurlijk nog steeds volstrekt onspeelbaar, maar de performance drop is in veel gevallen vergelijkbaar met de drop die een 3050 heeft (ook nog steeds volstrekt onspeelpaar op alle resoluties), terwijl AMD's 6400/6500 er soms niet eens doorheen komen.

Geef nou eens een whitepaper, ik wil weten wat jullie doen :(

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ze zeiden tijdens de PR tour al dat hun RT erg goed was. :)
Overigens heeft Intel inmiddels ook hun RT voor Vulkan titels gefikst. Want dat werkte door fouten in hun drivers, op 1% snelheid. Intel heeft dus meteen een van de grootste performance driver updates ooit gehad. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar gaan we. :P


-Smooth sync geeft gruwelijke artefacts in DX11/10/9.
-Monitoren worden niet herkent.
-Het driver menu (Arc control) is al zeer lastig om überhaupt te installeren. Daarnaast is het vrijwel onmogelijk om goed te installeren en die installatie kan zo misgaan dat je het niet meer kan opstarten of kan deinstalleren om het opnieuw te proberen. Zelfs DDU werkt niet.
-UI van Arc control is ook kapot.
-OC spul werkt ook niet.

Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
En dan te bedenken dat er nog steeds mensen zijn die het op kinderziektes willen gooien en dat Intel het eigenlijk helemaal niet zo slecht gedaan heeft want dit was een eerste release en ze hebben jaaaaren achterstand op AMD/Nvidia...

Nee, voor een miljardenbedrijf als Intel dat echt wel software kan schrijven (en ook al heel lang iGPU drivers heeft moeten bakken) is dit gewoon een hele slechte outing, optimalisaties voor games nog even helemaal daar gelaten. Het lijkt bijna alsof ze klaar waren met de hardware en toen bedachten dat er ook nog software nodig was en even een stagiair daarvoor moesten charteren.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En het doet me helaas erg veel denken aan Vega...
Ik begin steeds meer te vermoeden dat Raja Koduri gewoon over zijn kunnen is gepromoveerd. Want eerst ging het bij AMD aardig mis en nu met Intel weer. Dit zijn namelijk geen driverproblemen meer, maar een gebrek aan planning.

Want voor Intel is ook het nodige allemaal belooft wat er niet is of niet werkt. XeSS is bijvoorbeeld ook helemaal verdwenen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 1 augustus 2022 @ 21:37:
Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.
En je kunt het spul niet goed verwijderen of updaten, dus zou je deze kaarten alleen moeten gebruiken op een systeem waar je bereid bent om Windows opnieuw te installeren (en als je een masochist bent).

Ironisch genoeg is de kaart nog het meest geschikt voor reviewers (die meestal met een schone Windows-installatie beginnen en die betaald krijgen om buggy shit te reviewen), dus als die al zo gefrustreerd raken (Igor werd er ook gek van), dan is het voor de meeste normale consumenten gewoon niet te doen.
Ik begin steeds meer te vermoeden dat Raja Koduri gewoon over zijn kunnen is gepromoveerd. Want eerst ging het bij AMD aardig mis en nu met Intel weer. Dit zijn namelijk geen driverproblemen meer, maar een gebrek aan planning.
Hij is niet verantwoordelijk geweest voor de drivers of het totaalplaatje tot vrij recent. Ik wordt er eigenlijk een beetje moe van dat Koduri steeds de schuld krijgt.

Intel heeft ook allerlei problemen met projecten (gehad) waar Koduri helemaal niks mee te maken heeft, zoals Sapphire Rapids, Intel 7, Intel 4, Meteor Lake, etc. Juist doordat Intel zo slecht functioneert in het algemeen is het lastig om de schuldige aan te wijzen. Voor hetzelfde geld is Koduri de persoon die de chaos binnen Intel nog enigszins onder controle houd. Dat kun je van buiten af gewoon niet zeggen, want wij weten bijvoorbeeld niet wat Koduri aan het management heeft gerapporteerd.

Wat we wel van buiten kunnen zien is dat Pat Gelsinger meer vertrouwen heeft in Koduri dan in veel anderen, gezien de promotie. Of dat terecht is, is een tweede. Wellicht is Koduri goed in bullshitten, maar het kan ook dat Koduri achter de schermen daadwerkelijk relatief goed bezig is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 2 augustus 2022 @ 11:46:
Hij is niet verantwoordelijk geweest voor de drivers of het totaalplaatje tot vrij recent. Ik wordt er eigenlijk een beetje moe van dat Koduri steeds de schuld krijgt.

Intel heeft ook allerlei problemen met projecten (gehad) waar Koduri helemaal niks mee te maken heeft, zoals Sapphire Rapids, Intel 7, Intel 4, Meteor Lake, etc. Juist doordat Intel zo slecht functioneert in het algemeen is het lastig om de schuldige aan te wijzen. Voor hetzelfde geld is Koduri de persoon die de chaos binnen Intel nog enigszins onder controle houd. Dat kun je van buiten af gewoon niet zeggen, want wij weten bijvoorbeeld niet wat Koduri aan het management heeft gerapporteerd.

Wat we wel van buiten kunnen zien is dat Pat Gelsinger meer vertrouwen heeft in Koduri dan in veel anderen, gezien de promotie. Of dat terecht is, is een tweede. Wellicht is Koduri goed in bullshitten, maar het kan ook dat Koduri achter de schermen daadwerkelijk relatief goed bezig is.
Koduri is de baas van de hele GPU afdeling. Zijn taak is de hele afdeling overzien terwijl Intel Xe werd ontwikkeld. Hij is eindverantwoordelijk voor de architectuur, de softwareontwikkeling, marketing etc. En dat doet me zoveel aan Vega denken.

Qua hardware heb je hier een architectuur die op zich niet eens zo slecht lijkt te zijn. In DX12 waarbij de last voornamelijk op developers komt te liggen, lijkt het redelijk te werken. De voornaamste problemen zijn dat de chips te groot zijn en te veel energie verbruiken, zeker vergeleken met RDNA2. Maar dat viel te verwachten. RT lijkt verder zeker niet slecht te zijn voor een eerste poging en een compleet nieuwe dGPU architectuur van een bedrijf dat hier vrijwel nul ervaring mee heeft.

Qua software gaat alles mis. DX12 werkt, de rest niet. De DX11 drivers zijn dramatisch en alle beloofde features werken niet of worden niet eens meer besproken. En na eindeloze uitstel werd het product maar stilletjes gelanceerd en kwam er een PR campagne om wat schadebeperking te bewerkstelligen. Dat is mismanagement.

Intel ontwikkeld al meer dan een decennium drivers voor hun IGP's. Ze hebben een softwareteam en ze hadden het geld om dit team te laten groeien de afgelopen jaren. Prioriteit een bij dit product had moeten zijn dat het werkt. Daarin heeft Intel gefaald. Nu hebben ze geen functionele drivers en geen features na eindeloos uitstel. Niemand kon realistisch verwachten dat ze meteen even AMD en Nvidia gingen verslaan, maar Intel heeft die verwachtingen zelf gecreëerd.

Dat doet me zoveel aan Vega denken. Want bij die chip gebeurde hetzelfde. Op zich capable hardware in DX12, maar problemen met drivers, features die nooit hebben gewerkt en na eindeloze uitstel een deceptie. Komt daar ook nog eens bij dat ze ronduit domme TDP ratings aan Vega 56 en al helemaal Vega 64 gaven om het product er onnodig extra slecht eruit te laten zien. De meeste mensen die een RX Vega kochten, weten hoe extreem die dingen undervolten. Het is niet overdreven om te stellen dat je van 1200mv naar 900mv kan gaan en alsnog is je videokaart sneller. Ik heb het zelf gedaan en ik had een slechte chip die "maar" 1420MHz effectief deed op 910mv. Veel chips deden 1480-1500MHz op 900mv. Het scheelde je tientallen watts en opeens komt een RX Vega dan aardig in de buurt van Pascal in perf/watt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 2 augustus 2022 @ 12:22:
Intel ontwikkeld al meer dan een decennium drivers voor hun IGP's. Ze hebben een softwareteam en ze hadden het geld om dit team te laten groeien de afgelopen jaren. Prioriteit een bij dit product had moeten zijn dat het werkt. Daarin heeft Intel gefaald. Nu hebben ze geen functionele drivers en geen features na eindeloos uitstel. Niemand kon realistisch verwachten dat ze meteen even AMD en Nvidia gingen verslaan, maar Intel heeft die verwachtingen zelf gecreëerd.
Ze hebben altijd beweerd dat ze deze generatie nog niet competitief zouden zijn voor de high-end.

Volgens de laatste investor call hadden ze gedacht dat ze de iGPU drivers konden gebruiken/aanpassen, maar lukte dat niet. Alle grafische drivers worden gemaakt door een sub-afdeling onder leiding van Lisa Pearce. Uiteindelijk kan een manager als Koduri ook alleen maar afgaan op wat Lisa Pearce beloofd. Het kan best dat Koduri achter de schermen heeft gevraagd om versterking van het driver-team en heeft gewaarschuwd dat ze beter werk moeten gaan afleveren dan met hun iGPU drivers. Maar niemand heeft een magische knop waarmee dat zomaar gedaan kan worden.

Ik stel trouwens wel vraagtekens bij de keuze om tijd te verdoen met zaken als Smooth Sync, ipv de driver eerst goed te krijgen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
Ludewig schreef op dinsdag 2 augustus 2022 @ 14:18:
Volgens de laatste investor call hadden ze gedacht dat ze de iGPU drivers konden gebruiken/aanpassen, maar lukte dat niet. Alle grafische drivers worden gemaakt door een sub-afdeling onder leiding van Lisa Pearce. Uiteindelijk kan een manager als Koduri ook alleen maar afgaan op wat Lisa Pearce beloofd. Het kan best dat Koduri achter de schermen heeft gevraagd om versterking van het driver-team en heeft gewaarschuwd dat ze beter werk moeten gaan afleveren dan met hun iGPU drivers. Maar niemand heeft een magische knop waarmee dat zomaar gedaan kan worden.

Ik stel trouwens wel vraagtekens bij de keuze om tijd te verdoen met zaken als Smooth Sync, ipv de driver eerst goed te krijgen.
Dat lijkt mij typisch het brevet van onvermogen dat management afgegeven heeft (en dan laten we even in het midden welke manager(s) daar het meest verantwoordelijk voor zijn) met betrekking tot de planning. Het is geen kwestie van het team "versterken", er zit daar gewoon iets grondig fout in de aanpak. De verkeerde prioriteit wordt gegeven aan de verkeerde features die vervolgens verkeerd geïmplementeerd worden en klaarblijkelijk nooit langs QA gaan, of anders wel langs QA gegaan zijn maar dan vervolgens zonder enige tijd voor correctie voor het de deur uitgebonjourd wordt. De oplossing daar is geen blik mensen opentrekken of een pep talk dat meer kwaliteit verwacht wordt, maar nog eens even goed met het hele team gaan zitten om een plan uit te stippelen dat wel binding heeft met de realiteit. Het komt nu meer over alsof een hoge pief (en opnieuw laten we in het midden wie die pief dan is) de zweep erover gehaald heeft met een wishlist van "en DAN releasen we met DIT allemaal, dondert me niet hoe!" en vervolgens niet om kan gaan met feedback.

De PR dat ze de iGPU drivers wel eventjes zouden kunnen aanpassen kan onmogelijk van het front van de developers zelf zijn gekomen, of indien wel zullen die er vast heel snel op terug gekomen zijn. Het blijft speculeren wat er daar nu intern loos is natuurlijk, maar dat er wat loos is staat vast.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

De beslissing om features wel of niet te releasen in de staat waarin die nu is is natuurlijk sowieso een management-beslissing. Dat, of management was er niet van op de hoogte dat de kwaliteit schijnbaar dramatisch is en dan heb je een communicatieprobleem. Een ontwikkelaar die aan smooth sync zit te werken weet echt wel wat de staat van die feature is, of dat het nog compleet ongetest is op DX9/11.

Dat staat los van ontwikkelprioriteiten en planningen. Als het eenmaal zo ver is, release je iets in brakke staat of release je het dan gewoon niet, dat is gewoon een keuze.

Ik gok dat geen enkele gebruiker de keuze voor Arc op dit moment laat afhangen van features zoals smooth sync. Als je ook maar iets van hippe functionaliteit wil koop je in dit stadium gewoon nog AMD of NVidia. Dus wat dat betreft was het weglaten van alle kapotte features sowieso beter geweest. Uberhaupt nu een beetje leuke FPS krijgen met redelijke beeldkwaliteit is op dit moment het enige wat telt.

[ Voor 10% gewijzigd door bwerg op 02-08-2022 16:39 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
bwerg schreef op dinsdag 2 augustus 2022 @ 16:38:
De beslissing om features wel of niet te releasen in de staat waarin die nu is is natuurlijk sowieso een management-beslissing. Dat, of management was er niet van op de hoogte dat de kwaliteit schijnbaar dramatisch is en dan heb je een communicatieprobleem.
Dat laatste is in hiërarchische organisaties al snel een probleem omdat elke managementlaag de waarheid net wat leuker voorstelt om zo een goed voetje te halen bij z'n baas. Dus hoe meer lagen, hoe groter het verschil tussen de waarheid en wat de baas te horen krijgt.
Dat staat los van ontwikkelprioriteiten en planningen. Als het eenmaal zo ver is, release je iets in brakke staat of release je het dan gewoon niet, dat is gewoon een keuze.
Deze bedrijven hebben planningen die ze ook aan hun investeerders bekend moeten maken en aangezien ze beursgenoteerd zijn, moet dat openbaar worden. Die investeerders zijn net zo goed klant van het bedrijf, in de zin dat het bedrijf ze gelukkig moet houden. Het toegeven dat ze de planning niet halen zorgt voor grote koppen in de media die ze willen voorkomen.

Intel is al vrij ver gegaan door de kaarten alleen heel duur in China uit te brengen (waardoor ze vrijwel niets zullen verkopen), wat heel dicht bij een paper launch komt. Ze proberen overduidelijk tijd te rekken om de echte release pas te doen wanneer de drivers beter zijn.
Ik gok dat geen enkele gebruiker de keuze voor Arc op dit moment laat afhangen van features zoals smooth sync. Als je ook maar iets van hippe functionaliteit wil koop je in dit stadium gewoon nog AMD of NVidia. Dus wat dat betreft was het weglaten van alle kapotte features sowieso beter geweest.
Ja, maar mijn ervaring met topmanagement is dat ze zoiets nodig hebben om henzelf en de investeerders te overtuigen dat ze al beter zijn in bepaalde aspecten en dat ze daardoor niet puur op prijs hoeven te concurreren, maar echt het beste zullen zijn voor bepaalde groepen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

MneoreJ schreef op maandag 1 augustus 2022 @ 22:09:
En dan te bedenken dat er nog steeds mensen zijn die het op kinderziektes willen gooien en dat Intel het eigenlijk helemaal niet zo slecht gedaan heeft want dit was een eerste release en ze hebben jaaaaren achterstand op AMD/Nvidia...

Nee, voor een miljardenbedrijf als Intel dat echt wel software kan schrijven (en ook al heel lang iGPU drivers heeft moeten bakken) is dit gewoon een hele slechte outing, optimalisaties voor games nog even helemaal daar gelaten. Het lijkt bijna alsof ze klaar waren met de hardware en toen bedachten dat er ook nog software nodig was en even een stagiair daarvoor moesten charteren.
Ik denk dat je het onderschat. Net als intel. Met de I740 kwam in tijd dat nv nog niet zo agressief op driver en twimtbp bezig was en Cg ipv Cuda was.
Toen trok AMD Radeon ex ati afdeling met hun zware tijden mee naar beneden. En met de tijd ging nV steeds agressiever games optimaliseren bij de devs . Naast exe detectie met runtime recompile van shader code.
Dat was nV sterk staaltje driver afvanging in dx9 tot 11. En AMD ging juist op de handrem.
AMD heeft afgelopen jaren nun Radeon afdeling weer flink gas gegeven.
Intel begint pas en al die dx9 tot dx11 ouwe leem waar nV flink tekeer was gegaan met hun driver is iets nieuws voor intel. Igpu is meer het moet de functie robust bieden zoals referentie driver. Performance secondair. Nu in dgpu speeld performance een primaire rol wat de sku prijs bepaald tov de concurrentie.

Nv en AMD focussen zich nu op de nog zeer popu bench games onder dx11 en vooral het nieuwe spul. Omdat die ouwe leem al zijn optimalisatie slag hebben gehad.
Intel moet de algehele catalogus van populaire dx9 tot dx11 games nog wat nv en AMD in 10 jaar gedaan heb gespreid toen al die games na mekaar released werden. Moet intel die gehele back log even bij benen. Effe , dacht ik effe niet.

Denk niet dat miljarden het effe oplost. Je daarnaast veel games waar de dev teams al ont bonden zijn. Waar nV of ATI/AMD toen mogelijk wel met team hebben samen gewerkt. Dus dan moet het van 1 kant komen. Die games zijn nooit getest met intel arc. AMD en nV geven ook dev guides van do en do not’s. En games zijn niet ontwikkeld met arc pathway.

Het zou mij ook niet verbazen dat deze stand van driver afdelingen en werkwijze ook intel mogelijk onderschat.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op maandag 1 augustus 2022 @ 21:37:
En daar gaan we. :P
[YouTube: Completely Broken: Intel's Drivers Are Embarrassing (Arc GPUs)]

-Smooth sync geeft gruwelijke artefacts in DX11/10/9.
-Monitoren worden niet herkent.
-Het driver menu (Arc control) is al zeer lastig om überhaupt te installeren. Daarnaast is het vrijwel onmogelijk om goed te installeren en die installatie kan zo misgaan dat je het niet meer kan opstarten of kan deinstalleren om het opnieuw te proberen. Zelfs DDU werkt niet.
-UI van Arc control is ook kapot.
-OC spul werkt ook niet.

Eigenlijk werken alleen de drivers en dan alleen DX12. Het hele beloofde softwarepakket is gewoon kapot.
Had hem gezien; en mijn eerste gedachte. Niet heel veel anders dan het installatie proces van allerlei Intel drivers op mijn oude XPS 15 (iets van 6 jaar geleden). Uiteindelijk daar gewoon een verse Windows install gedaan en via Windows update de drivers erop gekregen.....
Tenzij je speciale features uit het driver package van Intel nodig hebt zou ik het gewoon bij de Windows update houden; en voor veel mensen zegt dat al genoeg. Want drivers wil je normalitair niet aan Windows overlaten....
Ben heel blij dat ik op mijn nieuwe werk laptop direct Windows eraf heb geflikkerd en PopOS erop heb gezet; zelfs met games ben ik nog geen rare dingen gekomen (behalve de Nvidia drivers); maar dat was te verwachten op Linux want Nvidia kan gewoon geen goede Linux drivers schrijven. Enige manier om soms het systeem weer te laten booten nadat Nvidia eruit klapt is de AlienWare overclock knop, waardoor het systeem in een soort van panick mode gaat en ik weer beeld krijg na een reboot.
offtopic:
Beetje offtopic rant :p.


Ik hoop dat Intel de drivers onder controle krijgt want het zou er jammer zijn als we de derde speler direct weer verliezen....

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11-09 16:16
SG schreef op dinsdag 2 augustus 2022 @ 19:40:
Intel begint pas en al die dx9 tot dx11 ouwe leem waar nV flink tekeer was gegaan met hun driver is iets nieuws voor intel. Igpu is meer het moet de functie robust bieden zoals referentie driver. Performance secondair. Nu in dgpu speeld performance een primaire rol wat de sku prijs bepaald tov de concurrentie.
Dat Intel achterloopt op DX11 en ouder is bekend. Dat is niet de issue; het is een begrijpelijke focus, en Intel geeft dat ook gewoon toe. Ik heb er als consument zelfs helemaal geen probleem mee omdat dat typisch iets is dat ze met tijd en aandacht kunnen verbeteren, terwijl we de nieuwe DX12 spellen dan toch al gewoon kunnen draaien op de hardware.

Althans, dat zou kunnen als de drivers niet ook op alle andere vlakken brak waren (zie filmpje eerder). De problemen die nu aan het licht komen met de mankerende software zijn veel fundamenteler dan nog geen DX11 ondersteuning hebben, en er is geen (goed) excuus voor. Wat ze nu hebben is domweg nog niet geschikt voor consumptie en had niet in die toestand uitgebracht moeten worden. Dat ze het toch gedaan hebben is ofwel wanbeleid, ofwel noodzaak om de schijn naar aandeelhouders op te houden (al zou ik verwachten dat dat met de Chinese "release" al afgedekt was). Gechargeerd: de A380 zou nu geen geld mogen kosten; Intel zou eerder de gebruikers moeten betalen omdat ze bètatesters zijn voor een kaart die nauwelijks mee kan, of als je pech hebt helemaal geen dienst wil doen. :P

Als ik zeg dat Intel een miljardenbedrijf is dan bedoel ik dat men daar zeer wel de capaciteit en ervaring heeft om een fatsoenlijk software dev traject op te zetten, met interne bèta's en kwaliteitscontrole. Dat is er nu nadrukkelijk niet, en of dat nu gepruts is of een bewuste keuze maakt dan nog niet eens zoveel uit.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
Ik zou het erg jammer vinden als Intel wederom na een halfbakken poging weer gelijk de handdoek werpt.

Intel GPU Business in a $3.5 Billion Hole, Jon Peddie Recommends Sell or Kill

Will AXG survive Gelsinger’s axe?

[ Voor 16% gewijzigd door Help!!!! op 12-08-2022 08:29 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik zou het ook jammer vinden, maar ik zou het niet gek vinden op basis van hoe hun videokaarten nu uit de verf komen. De huidige iteratie gaat niet meer succesvol worden, er is nog minstens één nieuwe generatie nodig en misschien wel twee voordat er een videokaart ligt die überhaupt een beetje verkoopbaar is. Voor losse verkoop loopt de GPU nu echt veel te ver achter en ook een OEM wil ten minste dat alles stabiel draait, dat laatste is ook niet het geval. Misschien dat de volgende generatie in ieder geval stabiel is, maar dan heb je nog steeds een budget-product met lage marges. Dan heb je het over doorsnee PC's voor mensen zonder hardware-verstand die ook wel een IGP hadden kunnen hebben, daar gaat een OEM niet veel voor betalen. Zeker niet op een moment dat AMD en NVidia nog veel onverkochte videokaarten op voorraad hebben.

Niet alleen blijft de kwaliteit nu achter, maar ook de prestaties per aantal transistors liggen nog een stuk lager dan bij AMD en Nvidia, dus Intel heeft nu ook relatief hoge productiekosten per marktsegment. De Arc A750 is 406mm2 op TSMC 6nm, de RX6650XT zal beter presteren en die is 237mm2 op TSMC 7nm. Voor dezelfde kosten als de Arc A750 bakt AMD zowat een RX6950XT, en binnenkort een RX7600 (navi33) die een factor veel over de A750 heen zal gaan. Dus ik kan me voorstellen dat Arc nu niet of nauwelijks met winst te verkopen is. Overtuig een investeerder maar dat een product doorgezet mag worden terwijl er letterlijk geen winst te behalen valt.

Ik zou al blij zijn als Intel quitte kan spelen en het niet op hoeft te geven, waarmee we een kans houden dat ze over een paar jaar echt kunnen concurreren om de (budget-)markt scherp te houden.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Werelds schreef op zaterdag 16 juli 2022 @ 22:29:
https://game.intel.com/st...hics-performance-preview/

Even los van de prestaties:


[...]


_/-\o_

Hulde, Ryan. Hij weet dat ze niet kunnen cherry-picken en doen alsof dat altijd zo is, dan is het meteen over en uit voor Arc.

A750 specs weten we verder volgens mij niet zeker, maar aangezien 770/780 de volle 8 slices wordt, mogen we er van uit gaan dat 750 6 of 7 slices wordt? Dus 3072 of 3584 ALU's. Lijkt dus niet echt beter te schalen met een grotere GPU, want de 3060 heeft 1792 FP32 en 1792 FP32/INT32. Als het 3584 is dan schaalt het mínder dan de 2-slice A380, als het 3072 is dan schaalt het iets beter, maar nog steeds zeker zo'n 20% minder bezet.

Grootste probleem blijft dat ze 2 jaar te laat zijn, hopelijk voor hen komt "Battlemage" ook "sooner than you think" :+
20% minder bezet, daar kan Nivida nog een puntje aan zuigen :) Ik vind de A750 met 3584 shading units toch een aardige prestatie ten op zichte van de 3060 met 3584 shading units, ook al is het alleen in DX12 en Vulkan games.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Tja, gelijk afschieten is wel erg snel, maar tegelijkertijd is elke nieuwe generatie die niet scoort een verliespost. Ik acht de kans dat intel er de brui aan geeft groot als Battlemage niet gaat scoren. Ik acht de kans dat Battlemage gaat scoren laag, er zijn (als ik het mij goed herinner) een paar bugs die pas met Celestial zullen worden verholpen die nu voor vertragingen zorgen. Conclusie (wel wat kort door de bocht, maar toch): exit intel is zeer waarschijnlijk.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
Er is natuurlijk een reden dat er maar twee partijen zijn die echt goede dGPU's maken voor gamers en professionels. Goede dGPUs zijn serieus moeilijk. AMD en nVidia zijn door de wol geverfd en doen al decennia niks anders.

Als er een partij is die dit zou moeten kunnen is het Intel maar dan moet je bereid zijn om een lange adem te hebben. Anders moet je er gewoon niet aan beginnen is mijn mening. Als AMD iha al serieuze moeite heeft om nVidia bij te benen wat denk je dan, dat je met je eerste generatie gelijk meespeelt :? Volgens mij ben je dan serieus naief.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Tja, kennis is tot op zekere hoogte te koop. Als je mee gaat doen en kennis inkoopt, wat intel overduidelijk geprobeerd heeft, dan is het ook wel logisch dat je enige verwachtingen hebt. Deze worden nu niet waargemaakt.

Gelijk voor de hoofdprijs lijkt me inderdaad ambitieus, maar om een toekomst te hebben moet je wel mee kunnen spelen. Dat betekent toch wel dat je in het mainstream segment een realitische optie moet zijn. Dit is nu de 2e generatie die op de wereld is losgelaten. De eerste was DG1/Xe voor laptops. De 2e generatie weet geen indruk te maken. Daarmee raakt het perspectief op marktrelevantie uit het zicht. Als ik Intel zou zijn, zou ik de opvolger van de A780 als B380 in de markt zetten. Dat zou een veel realistischer propositie zijn. Een beetje zoals de Polaris architectuur van AMD. En dan kan je van daaruit verder werken. De vraag is of intel dat ziet zitten. De huidige chip is inderdaad wat groot voor wat ie kan.

[ Voor 3% gewijzigd door ocf81 op 13-08-2022 16:33 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Tja, deze generatie Intel Arc is gewoon DOA maar is dan al bekend of Intel daadwerkelijk de stekker uit het programma wil trekken? Of is dat speculatie van Jon Peddie?

[ Voor 4% gewijzigd door XWB op 13-08-2022 16:58 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Er was natuurlijk dat gerucht van MLID, maar tja, dat is natuurlijk MLID, dus wat moet je daar nu van vinden?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ocf81 schreef op zaterdag 13 augustus 2022 @ 17:08:
Er was natuurlijk dat gerucht van MLID, maar tja, dat is natuurlijk MLID, dus wat moet je daar nu van vinden?
Dat is precies het probleem met hem. Zelfs als hij daadwerkelijk goede bronnen heeft, dan weet hij door zijn "analyses" het voor elkaar te krijgen dat je hem niet kan geloven...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

De vraag is nu een beetje of men elkaar aan het napraten is, of dat de GPU divisie echt op het hakblok ligt.
Zolang er niks is gezegd liggen alle opties nog open, maar het is natuurlijk wel een gegeven dat intel er niet goed voor staat.

Ik heb zelf het idee (puur speculatie van mijn kant) dat zolang intel niet zelf de chips kan bakken er voor hen weinig te halen valt in de GPU markt. Het produceren bij TSMC zal waarschijnlijk duurder zijn en het in stand houden van deze afhankelijkheid maakt de kans op een winstgevend product daarmee dus kleiner. Daarnaast is het ook zo dat hoe langer intel het volhoudt, hoe meer de huidige architectuur relevant zal raken, afgezien van bepaalde e-sports titels die noot meer zullen veranderen omdat ze al meer dan een decennium in (nagenoeg) ongewijzigde vorm meegaan, zoals CS/CSGO. Maar van die titels kan je afvragen of meer dan 120fps zinnig is.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ocf81 schreef op zaterdag 13 augustus 2022 @ 17:23:
Ik heb zelf het idee (puur speculatie van mijn kant) dat zolang intel niet zelf de chips kan bakken er voor hen weinig te halen valt in de GPU markt. Het produceren bij TSMC zal waarschijnlijk duurder zijn en het in stand houden van deze afhankelijkheid maakt de kans op een winstgevend product daarmee dus kleiner.
Het plan was altijd al om deze generatie in relatief kleine hoeveelheden te produceren en dan pas bij toekomstige generaties een stevig marktaandeel te pakken. Die toekomstige generaties kunnen ze gewoon ontwerpen voor een Intel-proces.

De keuze voor TSMC was ook om daar ervaring mee op te doen, zodat er bij problemen met Intel 4, 3 of 20A eventueel kan worden uitgeweken naar TSMC om zo competitief te blijven en niet weer dezelfde stagnatie te hebben als bij Core 8de generatie tot de 11e generatie.
Daarnaast is het ook zo dat hoe langer intel het volhoudt, hoe meer de huidige architectuur relevant zal raken, afgezien van bepaalde e-sports titels die noot meer zullen veranderen omdat ze al meer dan een decennium in (nagenoeg) ongewijzigde vorm meegaan, zoals CS/CSGO. Maar van die titels kan je afvragen of meer dan 120fps zinnig is.
De huidige Intel-kaarten hebben wel erg instabiele frametimes en slechte 1% lows, wat vaak belangrijker is dan de gemiddelde frametimes, zeker bij shooters.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Er is nu in ieder geval een Arc nieuws topic, ik zocht hem al.

Wie A zegt, moet ook B zeggen, en ik denk dat de keuze voor C al gemaakt is. Zoals Pat Gelsinger al zei: hij is door de teleurstelling nu juist extra gedreven om van Intel Arc een succes te maken.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

sunsmountain schreef op zaterdag 13 augustus 2022 @ 19:03:
Er is nu in ieder geval een Arc nieuws topic, ik zocht hem al.
Inderdaad!
Wie A zegt, moet ook B zeggen, en ik denk dat de keuze voor C al gemaakt is. Zoals Pat Gelsinger al zei: hij is door de teleurstelling nu juist extra gedreven om van Intel Arc een succes te maken.
Ik zou het heel raar vinden als Intel het na een generatie al gaat stopzetten. Het heeft nog geen eens de kans gehad en gezien het voor hun redelijk nieuw is mag het best een aantal generaties kosten voordat het winst maakt zou ik zeggen. Zeker in een markt die door Nvidia (en AMD) wordt gedomineerd.
Als je als aandeelhouder gelijk wonderen verwacht op dit gebied dan denk ik dat je eens goed moet gaan nadenken :+.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

ARC Pro by LTT

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:44
A380 vs RX 6400;

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ludewig schreef op zaterdag 13 augustus 2022 @ 18:50:
[...]


Het plan was altijd al om deze generatie in relatief kleine hoeveelheden te produceren en dan pas bij toekomstige generaties een stevig marktaandeel te pakken. Die toekomstige generaties kunnen ze gewoon ontwerpen voor een Intel-proces.

De keuze voor TSMC was ook om daar ervaring mee op te doen, zodat er bij problemen met Intel 4, 3 of 20A eventueel kan worden uitgeweken naar TSMC om zo competitief te blijven en niet weer dezelfde stagnatie te hebben als bij Core 8de generatie tot de 11e generatie.
Wat jij beschrijft was Gen 1. En dat is geprobeerd met DG1 en Xe voor laptops. Dit is Gen2. Weliswaar onder een andere naam, maar zeker Gen2. Dus het lijkt het mij dat het ook de bedoeling is dat er meer wordt verscheept. En ik ben het met je eens dat het een verstandige beslissing was om de eerste generatie bij TSMC neer te leggen, maar het punt wat ik wilde maken is dat intel juist zijn verlies kan verkleinen of winst kan pakken door zelf die fabricage te doen. Maar dan moet er natuurlijk wel een product zijn om te verkopen :)
Ludewig schreef op zaterdag 13 augustus 2022 @ 18:50:
[...]


De huidige Intel-kaarten hebben wel erg instabiele frametimes en slechte 1% lows, wat vaak belangrijker is dan de gemiddelde frametimes, zeker bij shooters.
Consistente frametimes zijn inderdaad erg prettig. Maar consistent op 60 fps is denk ik voor 95% van de mensen prima.

[ Voor 10% gewijzigd door ocf81 op 14-08-2022 19:29 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Ik zie DG1 meer Beta voor dev’s wat je niet met RDNA1 omgooi van architectuur leuned op GCN dna. Is DG1 architectuur introductie voor branch.
Arc is RDNA1 battlemage RDNA2 en is de kroon nog steeds ver weg al zou sub high-end wel te doen zijn. De derde gen zou kansen redelijk vergroten dat ze goed mee kunnen komen in moderne games.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En nu snap ik denk ik beter wat er nu met Xe gebeurd. Het antwoord blijkt er al even te zijn, als je het kan vinden. :P

Ten eerste lijkt Alchemist nog veel meer op Turing dan ik al vermoedde. Inmiddels durf ik wel te stellen dat Intel hier hun "inspiratie" heeft opgedaan. Het is zeker geen kopie, maar de parallellen zijn er zeker. Wat je hier namelijk ziet is Xe haar Vector Engine. Het zijn twee SIMD8 datapaden, een voor elk FP en INT. Die zijn co-issue. Dat lijkt heel erg op Turing, maar de SIMD eenheden zijn half zo groot.

Afbeeldingslocatie: https://pbs.twimg.com/media/FQG2dk7XMAMZ3PU?format=png&name=large
Afbeeldingslocatie: https://pbs.twimg.com/media/FQG2aybWUAsRhuG?format=jpg&name=large



Vervolgens deelt een Xe-core een instructie cache van 96KB. Dat is niet erg groot voor 16x SIMD8 FP en 16x SIMD8 INT + 16 Matrix cores + 1x RT unit. Het roept bij mij dan ook het vermoeden op dat Intel het zichzelf erg moeilijk heeft gemaakt. Ze hebben een zeer complexe scheduling van taken gecreëerd omdat instructies nu in threadgroepen van 16 verdeeld worden met een 50/50 verhouding. Ook is er weinig instructie cache om die threads in een wachtrij voor de Xe-core te zetten. Ergo, wat er waarschijnlijk gebeurd is dat de INT ALU's een flink deel van de tijd toch al stilliggen, maar er waarschijnlijk ook veel cycles verloren gaan omdat het FP deel van de Vector Engines, simpelweg geen instructies meer te berekenen hebben. Occupency ligt denk ik laag.

Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a380/images/arch3.jpg

Dit is misschien ook wel het lastigste deel van een GPU. Extra problematisch wordt het met DX11 en lager.
Als je dan naar de Render Slice kijkt dan besef je dat de A380 maar twee slices heeft en dus acht Xe-cores. De A770 heeft 8 render slices waardoor dat probleem alleen maar groter kan worden. Het zou verklaren waarom Intel zoveel problemen lijkt te hebben.


Het is alleen niet alleen maar slecht. De Matrix cores van Arc A770 verslaan namelijk Nvidia hun "Tensor cores" van GA104 theorie met enig gemak in de meeste berekeningen. Verder denk ik dat Intel hun RT oplossing misschien ook wel meer aandacht verdient. Want dat lijkt ook meteen beter te zijn dan wat Ampere heeft.

Afbeeldingslocatie: https://pbs.twimg.com/media/FQG47cNXoAEW3Gu?format=png&name=large
Afbeeldingslocatie: https://pbs.twimg.com/media/FQG48N3XsAMzvxR?format=png&name=large


Niet alleen qua feature ondersteuning, maar de manier waarop is misschien ook veel beter. Hoe ik het begrijp heeft een RT unit bij Xe ook haar eigen caches en werkt deze onafhankelijk van de rest van de render pipeline. Dit in tegenstelling tot Nvidia en zeker AMD waar RT instructies, de reguliere pipeline wel degelijk gaan onderbreken. Komt bij dat Intel kiest voor een model van een flinke RT unit voor 128 + 128 ALU's. Dat lijkt een beter model te zijn dan wat AMD met RDNA2 deed en dus ook beter dan Ampere vanwege de betere ondersteuning alsmede meer losstaand.


Onder de streep krijg je dit:
Afbeeldingslocatie: https://pbs.twimg.com/media/FQHYe9tXsAITkNv?format=png&name=large

RDNA2 blijft gewoon een zeer efficiënt ontwerp voor hoe het presteert in traditionele shaders. Daar is AMD hun ontwerpfocus ook naartoe gegaan voor RDNA2. De perfecte RT unit of matrix cores was daar waarschijnlijk te veel gevraagd. We weten dat RDNA3 ook matrix units krijgt, RT is het grote raadsel. Bij Xe lijkt de focus juist gelegen te hebben om matrix en RT meteen goed te doen, en het technisch meteen beter zijn dan Ampere is noemenswaardig. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Help!!!! schreef op zaterdag 13 augustus 2022 @ 16:01:
Er is natuurlijk een reden dat er maar twee partijen zijn die echt goede dGPU's maken voor gamers en professionels. Goede dGPUs zijn serieus moeilijk. AMD en nVidia zijn door de wol geverfd en doen al decennia niks anders.

Als er een partij is die dit zou moeten kunnen is het Intel maar dan moet je bereid zijn om een lange adem te hebben. Anders moet je er gewoon niet aan beginnen is mijn mening. Als AMD iha al serieuze moeite heeft om nVidia bij te benen wat denk je dan, dat je met je eerste generatie gelijk meespeelt :? Volgens mij ben je dan serieus naief.
Ja met die miljarden haal je goede work force binnen.
Maar de technikal debt in hardware maar nog meer in software begin je van nul.
N/vidia heerst om dat zij heel agressief in de software kant hebben geïnvesteerd de 20 a 30 jaar.
Zelfs met twimtbp zich op dringen bij game dev’s vorige api hun grote driver afdeling zelfs exe afvangt en recompile van shader code. Zelfs shade code afgevangen kan worden en vervangen.
Deze groot schalige werk wat voor zeer grote back catalog van heel veel dx9 en dx11 games al grootschalig gedaan is .
Daar kan je niks met miljarden. Ten 1st is bij ontwikkelen van de game nV direct mee bemoeid. Is er gebruik gemaakt van nv specifieke frameworks en sdk. Waar in heden die studio nu met dx12 titels bezig zijn en ondersteuning van ouw games al stopgezet is. Of originele teams al ontbonden zijn. Of studio al opgeheven.
Die debt kan je met je miljarden niet meer inhalen. Van die games heeft AMD ook last van. En AMD is nV ook laat gevolgt zover dat kon met gekrompen Radeon afdeling ivm bijna failissement van AMD. Die voorsprong was tov ATI al groot en onder AMD kon er minder met gekrompen afdelingen.
En daarmee wat iNtel heeft maximale technical debt in de software kant. Heeft AMD dat gedeeltelijk ook. En is dus ook bezig met opschalen . En daarmee de fine wine karakteristiek van AMD g-kaart keuze.
Waar AMD te maken heeft met fine wine effect.
Is intel eerder magere yogurt waar energie rijke vet mist of beperkte groep bio diverstity ,dat niet meer terug erin komt.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Ronnie N
  • Registratie: September 2010
  • Laatst online: 04-09 13:38
Ik heb het hele Intel Arc verhaal zijdelings gevolgd.
Wat ik heb mee gekregen is dat het tot nu toe een redelijke "shitshow" is.

Weet iemand of er al bekend is wanneer ze de kaarten releasen?

Ik had een Arc kaart op het oog voor als upgrade voor mijn steeds ouder wordende RX580.
Ik game voornamelijk op Linux, dus gebruik alleen maar Vulkan dus die DX9/11 performance kan me gestolen worden.

Waarschijnlijk kijk ik het nog even aan.

Acties:
  • 0 Henk 'm!

  • Ernemmer
  • Registratie: Juli 2009
  • Niet online
Ronnie N schreef op maandag 29 augustus 2022 @ 10:09:
Ik heb het hele Intel Arc verhaal zijdelings gevolgd.
Wat ik heb mee gekregen is dat het tot nu toe een redelijke "shitshow" is.

Weet iemand of er al bekend is wanneer ze de kaarten releasen?

Ik had een Arc kaart op het oog voor als upgrade voor mijn steeds ouder wordende RX580.
Ik game voornamelijk op Linux, dus gebruik alleen maar Vulkan dus die DX9/11 performance kan me gestolen worden.

Waarschijnlijk kijk ik het nog even aan.
Oudere gamen lopen nog niet helemaal soepel (drivers), maar zolang er nog geen prijs bekend is, is er weinig over te zeggen of het een goed of slecht product is.

Acties:
  • 0 Henk 'm!

Verwijderd

Net op phoronix gelezen over de A380.

En ik moet zeggen dat ik er voor $ 140 / ~ € 150 zeker één zal kopen. (US prijs is warvoor het daar al werkelijk te koop is, EU prijs is een verwachting/gok van mij)

Al is het alleen maar om te kijken of ik mijn oude OpenCL 2.0 modellen aan de praat krijg. Die draaien op oude AMD hardware met oude drivers, omdat AMD in hun oneindige wijs(lees dom)heid elke keer het wiel opnieuw lijkt te willen uitvinden, waardoor de nieuwe software stack opeens features niet meer ondersteunde die de oude wel deed.

Met OpenCL 3.0 (wat bij mij nog open staat is hoeveel van OpenCL 2.0, wat nu optioneel is in 3.0 ze ondersteunen) en SYCL support is dat voor mij zeker interessant en de prijs is echt peanuts als ik die modellen eindelijk op moderne hardware met up to date drivers kan draaien.

@Ronnie N Michael heeft vooral game benchmarks gedraaid in zijn eerste A380 tests, dus kijk even naar mijn link.

Vooralsnog erg wisselvallig, van heel slecht tot heel goed - in zijn prijsklasse! - maar met de restrictie dat je een prerelease kernel moet gebruiken en o.a. Mesa eigenlijk zelf moet bouwen en updaten vanuit de git repos. Niet voor productie dus, maar leuk om te testen.

[ Voor 22% gewijzigd door Verwijderd op 29-08-2022 10:17 ]


Acties:
  • 0 Henk 'm!

  • Ronnie N
  • Registratie: September 2010
  • Laatst online: 04-09 13:38
Dank!

Die benchmarks zijn inderdaad nogal wisselvallig, ik volg Michael maar had deze gemist, dank!

Het is inderdaad nog even afwachten wat de prijsstelling gaat zijn en hoe de kaarten gaan presteren.

Als ik vragen mag, wat voor modellen draai jij? Ik schrijf voor mijn afstuderen een Agent Based model, maar omdat ik bioloog schrijf ik dat in R en het is traag als stroop in de winter bergop, dus zit te kijken of ik dat ergens hardwarematig kan versnellen.

Acties:
  • 0 Henk 'm!

Verwijderd

Ronnie N schreef op maandag 29 augustus 2022 @ 10:33:
Als ik vragen mag, wat voor modellen draai jij? Ik schrijf voor mijn afstuderen een Agent Based model, maar omdat ik bioloog schrijf ik dat in R en het is traag als stroop in de winter bergop, dus zit te kijken of ik dat ergens hardwarematig kan versnellen.
Pricing modellen voor derivaten, portefeuille optimalisatie, ALM (verzekeraars, pensioenfondsen, pensioenproducten). Meeste modellen embarrassingly parallel en dus gigantische winst op GPUs.

R heb ik schurft aan, Python met PyCuda of Arrayfire is fijn als je niet (exclusief) in c/c++ wil werken. Dan heb je meteen alle voordelen van Python om de resultaten de analyseren en visualiseren.

Acties:
  • 0 Henk 'm!

  • Ronnie N
  • Registratie: September 2010
  • Laatst online: 04-09 13:38
Verwijderd schreef op maandag 29 augustus 2022 @ 10:45:
[...]

Pricing modellen voor derivaten, portefeuille optimalisatie, ALM (verzekeraars, pensioenfondsen, pensioenproducten). Meeste modellen embarrassingly parallel en dus gigantische winst op GPUs.

R heb ik schurft aan, Python met PyCuda of Arrayfire is fijn als je niet (exclusief) in c/c++ wil werken. Dan heb je meteen alle voordelen van Python om de resultaten de analyseren en visualiseren.
Interessant! Ik kon tot een half jaar geleden niet programmeren, en omdat we als biologen wel veel statistiek doen in R, leek dit een logische stap.

Dit gaat nu wel een beetje of-topic, dus laten we het hierbij houden.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
DaniëlWW2 schreef op zondag 21 augustus 2022 @ 00:51:
En nu snap ik denk ik beter wat er nu met Xe gebeurd. Het antwoord blijkt er al even te zijn, als je het kan vinden. :P

Ten eerste lijkt Alchemist nog veel meer op Turing dan ik al vermoedde. Inmiddels durf ik wel te stellen dat Intel hier hun "inspiratie" heeft opgedaan. Het is zeker geen kopie, maar de parallellen zijn er zeker. Wat je hier namelijk ziet is Xe haar Vector Engine. Het zijn twee SIMD8 datapaden, een voor elk FP en INT. Die zijn co-issue. Dat lijkt heel erg op Turing, maar de SIMD eenheden zijn half zo groot.

[Afbeelding]
[Afbeelding]

[Twitter]

Vervolgens deelt een Xe-core een instructie cache van 96KB. Dat is niet erg groot voor 16x SIMD8 FP en 16x SIMD8 INT + 16 Matrix cores + 1x RT unit. Het roept bij mij dan ook het vermoeden op dat Intel het zichzelf erg moeilijk heeft gemaakt. Ze hebben een zeer complexe scheduling van taken gecreëerd omdat instructies nu in threadgroepen van 16 verdeeld worden met een 50/50 verhouding. Ook is er weinig instructie cache om die threads in een wachtrij voor de Xe-core te zetten. Ergo, wat er waarschijnlijk gebeurd is dat de INT ALU's een flink deel van de tijd toch al stilliggen, maar er waarschijnlijk ook veel cycles verloren gaan omdat het FP deel van de Vector Engines, simpelweg geen instructies meer te berekenen hebben. Occupency ligt denk ik laag.

[Afbeelding]

Dit is misschien ook wel het lastigste deel van een GPU. Extra problematisch wordt het met DX11 en lager.
Als je dan naar de Render Slice kijkt dan besef je dat de A380 maar twee slices heeft en dus acht Xe-cores. De A770 heeft 8 render slices waardoor dat probleem alleen maar groter kan worden. Het zou verklaren waarom Intel zoveel problemen lijkt te hebben.


Het is alleen niet alleen maar slecht. De Matrix cores van Arc A770 verslaan namelijk Nvidia hun "Tensor cores" van GA104 theorie met enig gemak in de meeste berekeningen. Verder denk ik dat Intel hun RT oplossing misschien ook wel meer aandacht verdient. Want dat lijkt ook meteen beter te zijn dan wat Ampere heeft.

[Afbeelding]
[Afbeelding]
[Twitter]

Niet alleen qua feature ondersteuning, maar de manier waarop is misschien ook veel beter. Hoe ik het begrijp heeft een RT unit bij Xe ook haar eigen caches en werkt deze onafhankelijk van de rest van de render pipeline. Dit in tegenstelling tot Nvidia en zeker AMD waar RT instructies, de reguliere pipeline wel degelijk gaan onderbreken. Komt bij dat Intel kiest voor een model van een flinke RT unit voor 128 + 128 ALU's. Dat lijkt een beter model te zijn dan wat AMD met RDNA2 deed en dus ook beter dan Ampere vanwege de betere ondersteuning alsmede meer losstaand.


Onder de streep krijg je dit:
[Afbeelding]
[Twitter]
RDNA2 blijft gewoon een zeer efficiënt ontwerp voor hoe het presteert in traditionele shaders. Daar is AMD hun ontwerpfocus ook naartoe gegaan voor RDNA2. De perfecte RT unit of matrix cores was daar waarschijnlijk te veel gevraagd. We weten dat RDNA3 ook matrix units krijgt, RT is het grote raadsel. Bij Xe lijkt de focus juist gelegen te hebben om matrix en RT meteen goed te doen, en het technisch meteen beter zijn dan Ampere is noemenswaardig. :)
Dank je Daniel, heel interessant om te zien dat Intel sterker inzet op Ray Tracing, en daarmee ook Nvidia lijkt te verslaan: A770 versus RTX 3060, mogelijk beter (voor recente games) voor een lagere prijs.

https://videocardz.com/ne...acing-at-1080p-resolution

Voor oudere of nog niet geoptimaliseerde games zal A770 slecht presteren, totdat het Intel driver team de achterstand heeft ingewerkt in het komende jaar. Maar ze gaan het wel doen/proberen, en ze gaan door met Intel Arc videokaarten: Battlemage next!

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21:38
Ik begin ondertussen echt te hopen dat ze Arc gewoon schrappen en op de achtergrond Battlemage naar voren geschoven hebben. Want de 770 is over 2-3 maanden al niet eens meer te verkopen voor 300 euro...

Als dat ding tussen de prestaties zit van de 3060TI en 3070 wat de verwachting is voor de goede games zal dat ding dus geprijsd moeten worden rond de 3050 door DX10/11 prestaties en die zijn ondertussen al rond de 310 te koop. Neem daar de nieuw factor bij en het ontbrekende vertrouwen dan is een realistische prijs 250 euro. Als je nog een paar maanden wacht dan tanken de prijzen van de 3050, 3060 en de 3060 Stropdas. en dan is de Arc niet eens meer gratis weg te geven. Ze hebben veel en veel en veel te lang gewacht. We zijn ondertussen 12 maanden verder en hij is er nog steeds niet. Met een GPU cycle van 2 jaar heb je het toch wel erg vern%&kt.

er is gewoon nog geen enkel teken dat ze te koop gaan zijn binnen 2 maanden en dus heeft het echt geen zin meer. tenzij ze sub 200 gaan targeten maar hoe je 5 chips in een 200 range wil gaan plaatsen met een 380 die al 140 dollar kost...(wat overigens te duur is).
Hun prijzen gebaseerd op de prestaties van de slechtere games lijkt ook gebakken lucht. Ze presteren 30 tot 50% slechter op DX10/11 dat betekend dat je toch behoorlijk lager moet zitten en als de Arc380 140 euro is en de 6400 160 euro gaat dat toch ergens mis.

Deze generatie lijk iig een kansloos product te worden tenzij ze ergens heel veel prestatie hebben weten te vinden of alle DX10/11 problemen opgelost hebben wat in theorie onmogelijk is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op vrijdag 2 september 2022 @ 12:27:
[...]


Dank je Daniel, heel interessant om te zien dat Intel sterker inzet op Ray Tracing, en daarmee ook Nvidia lijkt te verslaan: A770 versus RTX 3060, mogelijk beter (voor recente games) voor een lagere prijs.

https://videocardz.com/ne...acing-at-1080p-resolution

Voor oudere of nog niet geoptimaliseerde games zal A770 slecht presteren, totdat het Intel driver team de achterstand heeft ingewerkt in het komende jaar. Maar ze gaan het wel doen/proberen, en ze gaan door met Intel Arc videokaarten: Battlemage next!
En nu kunnen we ook eindelijk zien hoeveel beter.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/09/arc-ray-tracing-hardware-1.jpg

Thread sorting en een eigen BvH cache was al duidelijk. De twee ray box engines met elk zes intersections per cycle alsmede nog een aparte ray triangle per cycle zijn nieuw.

Als je bedenkt dat een Xe core werkt met 128 FP + 128 INT ALU's, tja dan is dit niet slecht. Nvidia weigert te vertellen wat zei kunnen, maar van AMD weten we dat het met RDNA2 gaat om vier ray box of een ray intersect per cycle voor twee SIMD32 units. Die gebruiken alleen de hele CU inclusief caches en ALU's. Voor Intel is alleen onduidelijk hoe ze denoising doen.

Onder de streep lijkt Intel met 32 RT units, relatief iets beter te zijn dan de RTX3060 met 28 units. Er is dus zeker winst te behalen. Grootste nadeel is en blijft alleen hoeveel ruimte dit zal innemen. Ik vermoed dat het niet mals zal zijn hoeveel transistoren dit kost. Ook vraag ik me af in hoeverre het zinvol is dat Intel hun ray box en ray intersection op aparte hardware lijkt te doen. Denoising is ook een vraagteken waar ze dit precies doen. Ik zou denken op de matrix engines, maar ik heb geen idee.

In het algemeen denk ik dat Alchemist niet eens heel slecht is. Ik vermoed dat het voornamelijk heel erg inefficiënt is en Intel het zichzelf zo moeilijk maakt met zoveel rekeneenheden die zo complex aan elkaar hangen in zoveel kleine rekeneenheden. Ik vraag me nu al af of ze met Battlemage niet al een flink deel van die complexiteit eruit slopen en voor de Xe cores naar 4x SIMD32 gaan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
DaniëlWW2 schreef op vrijdag 2 september 2022 @ 15:29:
[...]


En nu kunnen we ook eindelijk zien hoeveel beter.
[Afbeelding]

Thread sorting en een eigen BvH cache was al duidelijk. De twee ray box engines met elk zes intersections per cycle alsmede nog een aparte ray triangle per cycle zijn nieuw.

Als je bedenkt dat een Xe core werkt met 128 FP + 128 INT ALU's, tja dan is dit niet slecht. Nvidia weigert te vertellen wat zei kunnen, maar van AMD weten we dat het met RDNA2 gaat om vier ray box of een ray intersect per cycle voor twee SIMD32 units. Die gebruiken alleen de hele CU inclusief caches en ALU's. Voor Intel is alleen onduidelijk hoe ze denoising doen.

Onder de streep lijkt Intel met 32 RT units, relatief iets beter te zijn dan de RTX3060 met 28 units. Er is dus zeker winst te behalen. Grootste nadeel is en blijft alleen hoeveel ruimte dit zal innemen. Ik vermoed dat het niet mals zal zijn hoeveel transistoren dit kost. Ook vraag ik me af in hoeverre het zinvol is dat Intel hun ray box en ray intersection op aparte hardware lijkt te doen. Denoising is ook een vraagteken waar ze dit precies doen. Ik zou denken op de matrix engines, maar ik heb geen idee.

In het algemeen denk ik dat Alchemist niet eens heel slecht is. Ik vermoed dat het voornamelijk heel erg inefficiënt is en Intel het zichzelf zo moeilijk maakt met zoveel rekeneenheden die zo complex aan elkaar hangen in zoveel kleine rekeneenheden. Ik vraag me nu al af of ze met Battlemage niet al een flink deel van die complexiteit eruit slopen en voor de Xe cores naar 4x SIMD32 gaan.
Zeker! Voor zij die een toegankelijke video van Ray Tracing door Intel willen zien:
YouTube: Intel Arc Graphics | Intel Arc A-Series Graphics Ray Tracing Technol...

Hun eerste generatie is inefficiënt ja, maar dat komt ook door de achterstand die ze in te halen hebben qua drivers. Hun ingenieurs zullen bij Battlemage en Celestial betere designs met minder transistors voor elkaar krijgen, zeker als je de oppervlakten vergelijkt met AMD en Nvidia. Als ze dan nog steeds een groot budget hebben en op prijs concurreren, is Intel Arc zo slecht nog niet in de toekomst.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
TL:DR;
Ze waren al 18 maanden te laat.
Toen vertraging fabriek door COVID. (Najaar 2021 uitgesteld)
Toen vertraging oorlog Rusland doordat veel driver developers daar zaten. (Voorjaar 2022 uitgesteld tot nu)

Dus... alle begin is moeilijk. Soms extra moeilijk.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

DaniëlWW2 schreef op zaterdag 13 augustus 2022 @ 17:09:
[...]


Dat is precies het probleem met hem. Zelfs als hij daadwerkelijk goede bronnen heeft, dan weet hij door zijn "analyses" het voor elkaar te krijgen dat je hem niet kan geloven...
Hij heeft schijnbaar goede bronnen alleen het probleem met intel is dat veel lagen en ergens beslissing makers strijd tegen mekaar voeren om desktop tak op te doeken. MLID communiceert dat uitdrukkelijk als gerucht dat niet bevestigd kan worden . Maar zijn analyse is zijn mening en dat is ook wat het is.
Dat jij het er niet mee eens bent. Is zijn probleem niet. Dat maakt hem geen fraud.

De kans is er dat desktop devisie geschrapt wordt. En reden is duidelijk.
Het gaat financieel niet goed met intel dus CEO krijgen dat op hun dak. En als de verwachting is dat nog jaar of twee moeten groeien in de software kant en drivers om grootste potentie uit hun hardware te halen. Dat kunnen de aandeelhouders te lang vinden. En dus dan de stekker er uit.

Wat sommige ook niet bevatten. Dat desktop gpu geschrapt kunnen worden. Houd niet in de ARC pro. Geschrapt wordt.

Zoals MLID zegt: I wouldn’t bet my live on it.
Daarnaast zijn er heel veel van ander wausies zoals graphicaly chalange. Waar de bronnen andere yt’bers zijn en hoop mening over geruchten zijn. En dan van die click bait titels gebruiken.

Dit is soort van gerucht waar je werkelijks niks mee kan. Een intel interne machtstrijd shit storm tussen groot aandeelhouders en ceo en afdeling hoofden. Dat gebeurt achter gesloten deuren.
Wat moet je ermee. We zien wel of battlemage er nog komt. Voor consument.

Jammer 3de speler is altijd goed.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
YouTube: Intel’s Xe Odyssey is Over: Discrete ARC is Effectively Cancelled

Ja, het blijven geruchten, maar we weten eigenlijk wel dat Intel discrete GPUs gaat schrappen.
  • Nvidia en AMD lopen te ver voor
  • Daar komen de 2e hands miner kaarten bij
  • Drivers optimaliseren is moeilijk en kost veel werk
  • Multi chiplets is moeilijk en kost veel werk
  • Discrete GPUs gaan gewoon geen winst maken, ongeacht de inspanning door Intel
Ze behouden wel GPU technologie voor data centers, professionele workstations en APUs. Daar zit wel geld in, daar kunnen ze zich dan op focusen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Tja het zit iNtel nu zwaar tegen. Intel AMD nVidia hebben alle in de GPU markt met crash te maken. Crypto gekte is over die bubbel is gebarsten en dat komt eigen zo abrubt dat ook nV en AMD daar last van hebben. Dat er overvloed aan 2de hands huidige gen de markt gaat overspoelen.
En ja iNtel ziet de bui al hangen daar kunnen deze ARC ook al niet tegen op. Dus dat word minstens jaar in rood hangen kans op 2 a 3 jaar om bij te komen is blijkbaar te lang omdat bij iNTel algeheel stuk minder gaat. Jammer.
Het is meer wegens omstandigheden. Waren jaar eerder begonnen zaten ze minden in de crypto gekte.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Erg jammer als dit zo zou zijn. Ze stoppen er in feite mee voordat ze het een echte kans hebben gegeven.

Wellicht zijn ze er ook met een foute instelling in gegaan. Denken dat ze in een of twee generaties op het niveau van AMD/Nvidia zitten. Daar kan best wat tijd overheen gaan en halverwege stoppen lijkt mij een verspilling van geld.
Snap ook dat dit een afweging is nu de economie slecht is en ze de beste release periode ooit hebben gemist een half jaar geleden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
SG schreef op zaterdag 10 september 2022 @ 15:14:
En ja iNtel ziet de bui al hangen daar kunnen deze ARC ook al niet tegen op. Dus dat word minstens jaar in rood hangen kans op 2 a 3 jaar om bij te komen is blijkbaar te lang omdat bij iNTel algeheel stuk minder gaat.
In het rood hangen? Intel? Omdat ze één kwartaal verlies hebben gedraaid?

Het kwartaal ervoor was juist een monsterlijk goed kwartaal, met 8 miljard winst uit 18 miljard omzet, hoogste winst per kwartaal ooit. De afgelopen 4 jaar hadden ze elk jaar 21 miljard netto winst; met uitzondering van afgelopen jaar, toen was het maar 20 miljard. 5 jaar geleden was dat nog de helft. Ze hebben ook nog 27 miljard cash in de bank.

En zelfs dan nog, zoiets als Q2 kunnen ze jaren vol houden. Die 450 miljoen verlies kwam vooral door lagere marges, R&D en productiekosten zijn nauwelijks veranderd. Dat compenseren ze wel met hun jaarlijke CPU release.


offtopic:
Waarom typ jij toch altijd iNtel en nVidia? Laatste zal wel door hun oude logo komen waar de n cursief was...maar Intel? Die hebben nooit de nadruk op de N gelegd. Enige wat in hun logo ooit anders is geweest is dat de E lager werd gedrukt..

[ Voor 3% gewijzigd door Werelds op 10-09-2022 17:55 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik snap het hele argument waarom Intel nu de gaming lijn op zou doeken niet...
Natuurlijk had iedereen moeten zien aankomen dat Alchemist niet erg competitief zou gaan zijn. Dat moet je weten voordat je hieraan begint. Het gaat enkele generaties duren.

Als het dan gebeurd, tja dan ligt het denk ik ook aan hoe ze dit bij Intel hun GPU divisie hebben gedaan. Natuurlijk is het mooi dat Intel meteen een fatsoenlijke RT implementatie heeft neergezet, flink capabele matrix hardware heeft, maar waarom begin je zo voor een gaming GPU? Waarom niet beginnen met de basis in shading hardware en hou het bij een of twee kleinere chips die je alleen in laptops stopt? Vanuit dat punt kan je doorontwikkelen en de stap naar desktop starten.

Een ander is dat Battlemage, Celestial etc alsnog doorontwikkeld zullen worden, maar dan blijkbaar alleen als onderdeel voor APU's Meteor Lake en verder. Waarom dan de dGPU's annuleren zodat je de R&D kosten van de architectuur moet verdelen over minder verkochte chips waarbij de GPU een extra is? Immers kan je die chips alsnog kwijt in laptops.

Laatste is het idee dat Intel wel doorgaat met Xe-HPC.Tja, dat roept bij mij meteen al de vraag op: Wie gaat hier precies instappen als Intel nu de boodschap uitstuurt dat een generatie met tegenslag, de roadmap met nog drie generaties al tot annuleren kan drukken? Dat is het signaal dat je uitstuurt als je nu Xe-HPG annuleert en dat is meteen het einde van Xe-HPC. Immers lig je daar nog veel, veel verder achter vanwege de software en moet je nog veel meer investeren. Die bereidheid is hiermee zeer twijfelachtig geworden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21:38
DaniëlWW2 schreef op zaterdag 10 september 2022 @ 18:41:
Ik snap het hele argument waarom Intel nu de gaming lijn op zou doeken niet...
Natuurlijk had iedereen moeten zien aankomen dat Alchemist niet erg competitief zou gaan zijn. Dat moet je weten voordat je hieraan begint. Het gaat enkele generaties duren.
Ja maar Ryzen was bij generatie 1 toch ook perfect.... oh wacht.... :+
Pagina: 1 2 3 Laatste