Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Dus ik denk dat Arc haar overlijdensbericht misschien toch wat voortijdig was.
Verder kan ik het sarcasme ook waarderen. :P






edit: Tja ik zou dit ook niet verwachten van de grote baas zelf als die weet dat het bijna voorbij is...

[ Voor 22% gewijzigd door DaniëlWW2 op 12-09-2022 12:32 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
Maar, maar, MLID heeft toch enorm betrouwbare bronnen die er nooit naast zitten? En iedereen weet toch eigenlijk al dat Intel ermee op gaat houden, hoe kan dat nou niet zo zijn? :P

Ik denk dat dit een hoop schieten voor open doel/wens is de vader van de gedachte is. Uiteindelijk kan de beslissing om er wel of niet mee door te gaan alleen van de hogere regionen komen, en de kans dat dat eventjes gaat lekken voor een definitief besluit is een stuk kleiner dan dat er een of ander technisch detail gelekt wordt. Natuurlijk zijn er ook genoeg mensen binnen Intel zelf die er het hunne van denken, maar de meesten van die mensen gaan er domweg niet over.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Dat hebben ze in elk geval wel aardig voor elkaar. Er is nog wat werk aan de winkel, maar DLSS, FSR en XeSS zullen sowieso permanent in ontwikkeling zijn. Dat soort algoritmes kunnen altijd getweaked worden :)

Nu wachten op z'n volgende video, want nu wil ik zien hoe XeSS het doet op andere hardware.

Ik lach stiekem ook wel weer een beetje om het "better than native" verhaal, want zoals elke keer komt dat neer op dat waardeloze TAA. Als ik me niet vergis heeft dit spel echter ook SMAA T2x, wat iets beter uit ziet. Voor de verschillen die hij er uit pikt vermoed ik dat SMAA (1x) en T2x daar beter mee om zouden gaan. Zoiets als dat net aan het begin. TAA smeert daar gewoon vaseline overheen, ik vermoed dat SMAA daar in al z'n vormen veel beter mee om gaat (4x zeker). FXAA zal het denk ik niet geheel weg smeren, maar wel een stuk vager maken.

Edit: kleine toevoeging overigens: https://twitter.com/Dachsjaeger/status/1570284419688108033

Mooi zo Intel, zo hoort het. Gebruiken wat er beschikbaar is.

[ Voor 8% gewijzigd door Werelds op 15-09-2022 11:04 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Fijn dat het niet helemaal af lijkt te hangen van correcte vendor ID.
Hier kan je ook zien dat Navi 10 wat apart is omdat deze niet dezelfde low precision INT capaciteiten van Navi 14 en RDNA2 heeft (geen 4xINT4). Dus dat zal geen DP4a acceleratie worden. Verder is de Nvidia ondersteuning hiervan ook wat beperkter. Wat je dus eigenlijk zou willen zien is een test met een RDNA2 chip tegenover een vergelijkbare Ampere chip. Want de RDNA2 chip zou hier een groter voordeel in moeten hebben.



Het enige dat ik me wel afvraag is of Intel het kan volhouden om matrix INT8 exclusief te houden. Op het moment heeft AMD dit niet, maar dat gaat waarschijnlijk veranderen. Nvidia heeft het wel, maar Nvidia hun hardware is zeker niet zo capabel als Intel hierin.

Afbeeldingslocatie: https://pbs.twimg.com/media/FQHYe9tXsAITkNv?format=png&name=large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Daarvoor moeten er eerst wat gestandaardiseerde instructies komen voor Wave Matrix rekenwerk. Dat zit er vast al aan te komen.

Belangrijk in dit alles is dat AMD INT8 (dp4a) op 4xFP32 rate doet met hun gewone ALU's, terwijl Nvidia dat slechts op 2x kan doen. Dat betekent dat een volle GA102 op 2 GHz "slechts 86 TOPs haalt, terwijl een volle Navi 21 op 2,25 daar 92 TOPs kan halen. En dan komt AMD's scheduling flexibiliteit daar nog eens bovenop. Ik zou er dus niet raar van op kijken als XeSS beter presteert op AMD's hardware.

Ik moet eerlijk toegeven dat ik best gecharmeerd ben van wat Intel allemaal aan het doen is. Ja, de performance komt 2 jaar te laat, maar dat weten ze ook. Het is nog even wachten tot de definitieve 770 prestaties uit reviews komen, maar het ontwerp lijkt helemaal niet slecht te zijn en een mix van de andere twee te zijn. Vervolgens komen ze met dingen als XeSS en doen ze dat op de juiste manier (niet dat ze een keus hebben :P). De eigen hardware optimaal gebruiken, maar ook zo veel mogelijk optimaliseren voor bestaande hardware. Zelfs een gigant als Intel kan zoiets niet in één keer foutloos doen en ze doen het best aardig.

Ik hoop wel dat ze snel kunnen volgen met Battlemage en Celestial (wat een namen :D). Ik zie hier een solide basis, daar moeten ze nu snel op door kunnen pakken.

Of misschien is het gewoon dat ik het leuk vind een nieuwe gladiator in de arena te zien :+

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Werelds schreef op donderdag 15 september 2022 @ 12:06:
Daarvoor moeten er eerst wat gestandaardiseerde instructies komen voor Wave Matrix rekenwerk. Dat zit er vast al aan te komen.

Belangrijk in dit alles is dat AMD INT8 (dp4a) op 4xFP32 rate doet met hun gewone ALU's, terwijl Nvidia dat slechts op 2x kan doen. Dat betekent dat een volle GA102 op 2 GHz "slechts 86 TOPs haalt, terwijl een volle Navi 21 op 2,25 daar 92 TOPs kan halen. En dan komt AMD's scheduling flexibiliteit daar nog eens bovenop. Ik zou er dus niet raar van op kijken als XeSS beter presteert op AMD's hardware.
Yup en daarom haalde ik Navi 10 eruit omdat die 4xINT8 niet heeft. Turing en Ampere zijn 2xINT16 en niet in staat tot 4xINT8. Pascal weet ik niet eens of die 2xINT16 kan. Zou ik moeten opzoeken.
Ik moet eerlijk toegeven dat ik best gecharmeerd ben van wat Intel allemaal aan het doen is. Ja, de performance komt 2 jaar te laat, maar dat weten ze ook. Het is nog even wachten tot de definitieve 770 prestaties uit reviews komen, maar het ontwerp lijkt helemaal niet slecht te zijn en een mix van de andere twee te zijn. Vervolgens komen ze met dingen als XeSS en doen ze dat op de juiste manier (niet dat ze een keus hebben :P). De eigen hardware optimaal gebruiken, maar ook zo veel mogelijk optimaliseren voor bestaande hardware. Zelfs een gigant als Intel kan zoiets niet in één keer foutloos doen en ze doen het best aardig.

Ik hoop wel dat ze snel kunnen volgen met Battlemage en Celestial (wat een namen :D). Ik zie hier een solide basis, daar moeten ze nu snel op door kunnen pakken.

Of misschien is het gewoon dat ik het leuk vind een nieuwe gladiator in de arena te zien :+
Ik ook wel. Alchemist is helaas een jaar te laat, maar aan de andere kant waren ze ook allemaal verdwenen in cryptomines als ze er een jaar geleden waren geweest.

Zoals ik hier ook al eerder zei, zit ik eigenlijk vooral met de vraag of Intel het zichzelf ook niet zo moeilijk heeft gemaakt met hoe Alchemist in elkaar zit. Ze hebben alles verdeeld in zoveel kleine SIMD8 partities met aparte INT en FP ALU's, relatief kleine instruction cache voor de hele Xe core alsmede andere caches. Ik vraag me eigenlijk af wat er zou gebeuren als Intel die complexiteit weg gaat halen en naar 4xSIMD32 (zowel FP als INT) zou gaan of zelfs maar naar 4x 16xFP en 16xINT zou gaan met veel minder partities.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
DaniëlWW2 schreef op donderdag 15 september 2022 @ 12:54:
Yup en daarom haalde ik Navi 10 eruit omdat die 4xINT8 niet heeft. Turing en Ampere zijn 2xINT16 en niet in staat tot 4xINT8. Pascal weet ik niet eens of die 2xINT16 kan. Zou ik moeten opzoeken.
Ja, dat kan die, zowel dp4a als dp2a worden versneld. Waardoor een 1080 Ti of Titan X(p)/Xp zo'n beetje even veel kan leveren als GA104.

FP16 dan weer niet, dat is volstrekt onbruikbaar op Pascal. Dat loopt op halve snelheid via de FP64 ALU's 8)7

Edit: halve snelheid van FP64, wat al niet noemenswaardig is. ~350 GF FP64, de helft daarvan aan FP16. Niks dus. Enkel aanwezig voor compatibiliteit.
Zoals ik hier ook al eerder zei, zit ik eigenlijk vooral met de vraag of Intel het zichzelf ook niet zo moeilijk heeft gemaakt met hoe Alchemist in elkaar zit. Ze hebben alles verdeeld in zoveel kleine SIMD8 partities met aparte INT en FP ALU's, relatief kleine instruction cache voor de hele Xe core alsmede andere caches. Ik vraag me eigenlijk af wat er zou gebeuren als Intel die complexiteit weg gaat halen en naar 4xSIMD32 (zowel FP als INT) zou gaan of zelfs maar naar 4x 16xFP en 16xINT zou gaan met veel minder partities.
Ik denk dat die SIMD8 wel gaat verdwijnen. Dat lijkt een artefact van het verleden te zijn.

[ Voor 5% gewijzigd door Werelds op 15-09-2022 13:05 ]


  • SG
  • Registratie: Januari 2001
  • Laatst online: 04-05 16:37

SG

SG surft naar info hardewaren

MneoreJ schreef op maandag 12 september 2022 @ 11:44:
Maar, maar, MLID heeft toch enorm betrouwbare bronnen die er nooit naast zitten? En iedereen weet toch eigenlijk al dat Intel ermee op gaat houden, hoe kan dat nou niet zo zijn? :P

Ik denk dat dit een hoop schieten voor open doel/wens is de vader van de gedachte is. Uiteindelijk kan de beslissing om er wel of niet mee door te gaan alleen van de hogere regionen komen, en de kans dat dat eventjes gaat lekken voor een definitief besluit is een stuk kleiner dan dat er een of ander technisch detail gelekt wordt. Natuurlijk zijn er ook genoeg mensen binnen Intel zelf die er het hunne van denken, maar de meesten van die mensen gaan er domweg niet over.
Er waten 4 sources aangeduid met elk een anderr melding. Waarvan er 1 meer de nadruk gaf dat over was maar die andere 3 niet. Dus ja de sources zaten mogelijk nog ver van de werkelijk desisionmakers. Ik hoop dat ze doorgaan.
Misschien dat hun decoders encoder top zijn. hun 1st dgpu i740 had ik van Asus gehad

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
ASRock A380 is nu te koop in Europa:

https://www.techpowerup.c...able-in-europe-for-189eur

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De Arc A770 gaat $329 kosten in de VS.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
YouTube: Intel Arc A770 & Intel Arc A750 Graphics: Price & Performance

Arc A770 $329
Arc A750 $289

Ze hebben lopen werken aan de drivers, verliezen nog steeds in DX11, maar niet meer met zoveel omdat ze de DX12 modus van die spellen hebben verbeterd. Als je de keuze hebt: zet ReBar aan en speel het spel in DX12.

Prijs zo laag dat ze op performance/$ winnen van de Nvidia RTX 3060. Ik durf het bijna niet te zeggen, maar dat is toch best goed voor een 1ste kaart! De lange termijn intentie spreekt er wat meer in door, maar ik weet zeker dat Pat op de achtergrond de zweep er op houdt. Net zoals Lisa met haar Luger P08. :P

MLID zat weer poep te verspreiden, bah wat is het toch een vervelend maar vermakelijk ventje.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
Q & A met Pat Gelsinger

Uit zijn antwoord blijkt dat hij voorlopig niet gaat stoppen met dGPU's.


TechPowerUp: Intel Arc A750 & A770 Unboxing & Preview

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:51
Ik heb gister verschillende video's zitten bekijken over de Arc gpu's maar ik blijf toch met een hoop vraagtekens zitten. De game resultaten die ze laten zien zijn namelijk leuk en aardig maar deze zijn allemaal geoptimaliseerd in de drivers.

De grote vraag gaat zijn hoe doen nieuwe games het op de dag/week van de release. Komen er voor alle grote titles day 1 drivers voor/als de game uit is zoals AMD en Nvidia of gaat dit weken/maanden duren of gebeurt het helemaal niet. En hoe presteert een game zonder die driver tweaks. Bij AMD en Nvidia werken games al aardig zonder je drivers te updaten maar die zijn dan ook al jaren ontwikkeld.

Dat is toch wel een behoorlijk onzeker punt en ik hoop dan ook dat reviewers hier bij iedere release van nieuwe games aandacht aan gaan besteden omdat dit vertrouwen helpt genereren of juist het tegenovergestelde.

Ik hoop dat games gewoon werken vanaf dag 1 en je iets performance erbij kan krijgen omdat dat goed voor de markt is maar we moeten het nog maar zien.
sunsmountain schreef op vrijdag 30 september 2022 @ 21:45:
YouTube: Intel Arc A770 & Intel Arc A750 Graphics: Price & Performance

Arc A770 $329
Arc A750 $289

Ze hebben lopen werken aan de drivers, verliezen nog steeds in DX11, maar niet meer met zoveel omdat ze de DX12 modus van die spellen hebben verbeterd. Als je de keuze hebt: zet ReBar aan en speel het spel in DX12.

Prijs zo laag dat ze op performance/$ winnen van de Nvidia RTX 3060. Ik durf het bijna niet te zeggen, maar dat is toch best goed voor een 1ste kaart! De lange termijn intentie spreekt er wat meer in door, maar ik weet zeker dat Pat op de achtergrond de zweep er op houdt. Net zoals Lisa met haar Luger P08. :P

MLID zat weer poep te verspreiden, bah wat is het toch een vervelend maar vermakelijk ventje.
Was het niet zo dat Intel zelf had gezegt dat als je geen ReBar had je beter wat anders kon kopen?

En ja MLID mag van mij gewoon lekker de komende 50 jaar vakantie vieren op een onbewoond eiland. Als je maar genoeg roddels de lucht in slingerd is er vanzelf wel eens wat waar en daar teert hij dan weer op omdat mensen een selectief geheugen hebben.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter
fwiw: review: Intel Arc A380 - Geen hoogvlieger onder de gpu's

Het idle verbruik (volgens tweakers) is wel heel stevig met 19,8 watt. 2x zoveel als de amd die het al slechter doet dan nvidia....

Er is nog een hoop werk aan de winkel bij Intel/Raja.

[ Voor 37% gewijzigd door Help!!!! op 03-10-2022 09:44 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
Pijnlijk. Net de scenario's waar de kaart nog eventueel goed voor zou zijn vereisen wel een minimaal idle verbruik. Of althans veel minder dan 27% van het totale verbruik... Hopelijk niet een hardware maar een driver issue.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 04-05 16:37

SG

SG surft naar info hardewaren

computerjunky schreef op zaterdag 1 oktober 2022 @ 14:32:
Ik heb gister verschillende video's zitten bekijken over de Arc gpu's maar ik blijf toch met een hoop vraagtekens zitten. De game resultaten die ze laten zien zijn namelijk leuk en aardig maar deze zijn allemaal geoptimaliseerd in de drivers.

De grote vraag gaat zijn hoe doen nieuwe games het op de dag/week van de release. Komen er voor alle grote titles day 1 drivers voor/als de game uit is zoals AMD en Nvidia of gaat dit weken/maanden duren of gebeurt het helemaal niet. En hoe presteert een game zonder die driver tweaks. Bij AMD en Nvidia werken games al aardig zonder je drivers te updaten maar die zijn dan ook al jaren ontwikkeld.

Dat is toch wel een behoorlijk onzeker punt en ik hoop dan ook dat reviewers hier bij iedere release van nieuwe games aandacht aan gaan besteden omdat dit vertrouwen helpt genereren of juist het tegenovergestelde.

Ik hoop dat games gewoon werken vanaf dag 1 en je iets performance erbij kan krijgen omdat dat goed voor de markt is maar we moeten het nog maar zien.


[...]


Was het niet zo dat Intel zelf had gezegt dat als je geen ReBar had je beter wat anders kon kopen?

En ja MLID mag van mij gewoon lekker de komende 50 jaar vakantie vieren op een onbewoond eiland. Als je maar genoeg roddels de lucht in slingerd is er vanzelf wel eens wat waar en daar teert hij dan weer op omdat mensen een selectief geheugen hebben.
Release games zodra intel dgpu meer markt aandeel hebben en dan met name ook laptops dan krijg je dat er bij devs ook de derde API path guidelines gevolgt zal worden. En dus rekening wordt gehouden met wat je vooral niet moet doen in vulkan en dx12 api en wat wel wordt aangeraden en dat gamedev dus naast nvidia AMD en dan ook intel gpu profilering gaan gebruiken. Met de tijd zullen nieuwe releases het dus beter doen. Nu zijn DX12 games API use meer op nvidia guidlines gericht en ook wat op AMD maar nog niet op intel guid laat staan of die er al is. Ik vermoed dat dar pas met battle mage kan gaan aanzwellen dus mogelijk in 2024 met hun nextgen.

Probleem van dx11 en ouder games is dat zij voornamelijk zijn ontwikkeld en gpu profilering en gyidlines van de heersende dgpu bakkers. De api setting en keuzen van features en aantallen zijn daar dus al gauw niet optimaal voor arc. En missen enige profilering en dev optimalisatie wat tien wel voor nv ATI / AMDTI gedaan was. Vooral als ARC niet dicht bij nv of AMD guidlines ligt. Of daar sterk gevoelig voor is.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
NDA is verlopen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Jammer dat alle reviewers dollarprijzen vergelijken. Dan lijkt de 770 opeens een slechte deal. Maar hier in Europa, kost een 3060 gewoon 400 euro, en een 3060Ti 500 euro. Dan is een kaart van richting de 300 euro prima te verantwoorden.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Jeroenneman schreef op woensdag 5 oktober 2022 @ 15:35:
[...]

Jammer dat alle reviewers dollarprijzen vergelijken. Dan lijkt de 770 opeens een slechte deal. Maar hier in Europa, kost een 3060 gewoon 400 euro, en een 3060Ti 500 euro. Dan is een kaart van richting de 300 euro prima te verantwoorden.
De A770 kost alleen $330 en dat zal omgerekend €400 worden. Vervolgens gaat het meer om de RX6600 series die inmiddels ook dergelijke prijspunten halen en beter zijn. Zeker de RX6600 is de enige realistische optie voor meer traditionele mainstream budgetten.

Ik ben op zich gewoon blij dat Intel haar intreden doet in deze markt, maar dit product legt het af tegen de veel efficiënte N23 chip. Immers is die 237mm2 en de Intel DG2-512 is 406mm2. Verbruik is ook fors hoger, maar de prestatiepunten zijn niet constant. De ene game RX6800 niveau en de volgende het afleggen tegen de RX6600 is gewoon niet goed.

De enige winst is waarschijnlijk RT, maar dat moet ik nog zien. Intel moet nu hun verlies nemen en hopen dat Battlemage een stuk beter is. Verder kan Intel zich ook maar beter positioneren tegen Nvidia want tegen AMD hun lagere segment redden ze het niet met huidige marktomstandigheden.

[ Voor 7% gewijzigd door DaniëlWW2 op 05-10-2022 15:55 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 13:41
Op basis van de de reviews, zie ik nog geen reden om mijn huidige videokaart te vervangen voor een Intel Arc. Maar de reviews maken me wel nieuwsgierig naar toekomstige Intel videokaarten om tegen die tijd wellicht wel een vervanging te overwegen.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

DaniëlWW2 schreef op woensdag 5 oktober 2022 @ 15:48:
[...]


De A770 kost alleen $330 en dat zal omgerekend €400 worden. Vervolgens gaat het meer om de RX6600 series die inmiddels ook dergelijke prijspunten halen en beter zijn. Zeker de RX6600 is de enige realistische optie voor meer traditionele mainstream budgetten.

Ik ben op zich gewoon blij dat Intel haar intreden doet in deze markt, maar dit product legt het af tegen de veel efficiënte N23 chip. Immers is die 237mm2 en de Intel DG2-512 is 406mm2. Verbruik is ook fors hoger, maar de prestatiepunten zijn niet constant. De ene game RX6800 niveau en de volgende het afleggen tegen de RX6600 is gewoon niet goed.

De enige winst is waarschijnlijk RT, maar dat moet ik nog zien. Intel moet nu hun verlies nemen en hopen dat Battlemage een stuk beter is. Verder kan Intel zich ook maar beter positioneren tegen Nvidia want tegen AMD hun lagere segment redden ze het niet met huidige marktomstandigheden.
Ben benieuwd naar de 750. Die zou nog een stukje goedkoper moeten zijn, en op 1440p scoren beide Intel kaarten toch echt een stukje hoger dan een 6600(XT).

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Topicstarter

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Klunssmurf
  • Registratie: November 2006
  • Niet online
Ik kijk nog uit naar de productivity benchmarks.

Hoe dan ook had ik al besloten om de A770 LE aan te schaffen zodra het kan, gewoon uit nieuwsgierigheid :-)

https://www.youtube.com/@Klunssmurf-zc3yd/featured


Acties:
  • 0 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 04-05 09:00
Is iemand al goeie AI / deep learning benchmarks tegengekomen? Ik ben erg nieuwsgierig hoe de Arc A770 16GB daarin presteert, aangezien het momenteel by far de goedkoopste kaart met 16GB VRAM is (waar grotere modellen in passen, wat zeer belangrijk is voor deep learning).

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Iemand is niet erg blij met het "limited edition" ontwerp. :P


Het is een zeer complex en zo te zien ook duur ontwerp om te maken. Tientallen schroeven, lastig uit elkaar te halen, lijm, tape, veel plastic, PCB's voor de RGB elementen etc.

[ Voor 30% gewijzigd door DaniëlWW2 op 06-10-2022 09:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Klunssmurf
  • Registratie: November 2006
  • Niet online
DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 08:13:
Iemand is niet erg blij met het "limited edition" ontwerp. :P
[YouTube: Intel's Taped & Glued Arc A770 GPU: Tear-Down & Disassembly of Limited Edition Card]

Het is een zeer complex en zo te zien ook duur ontwerp om te maken. Tientallen schroeven, lastig uit elkaar te halen, lijm, tape, veel plastic, PCB's voor de RGB elementen etc.
Ja ongelooflijk, wat een gedoe wordt dat als je de koelpasta moet vervangen of de boel grondig wilt afstoffen.

https://www.youtube.com/@Klunssmurf-zc3yd/featured


Acties:
  • +2 Henk 'm!

  • Novermars_
  • Registratie: Februari 2022
  • Laatst online: 08-01 20:04
Klunssmurf schreef op woensdag 5 oktober 2022 @ 19:57:
Ik kijk nog uit naar de productivity benchmarks.

Hoe dan ook had ik al besloten om de A770 LE aan te schaffen zodra het kan, gewoon uit nieuwsgierigheid :-)
https://techgage.com/arti...-a770-workstation-review/

Kleine kanttekening, de Pro versies van Arc hebben geoptimaliseerde drivers voor de OpenGL viewports, die de consumer versies niet hebben. Blender/cycles wordt nog heel hard aan gewerkt. Momenteel maakt de implementatie nog geen gebruik van de ray tracing hardware (vandaar het grote verschil met optix), dit komt later nog!

Acties:
  • +1 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
Zijn ze eigenlijk al te koop in Europa?

Voor een eerste gen is dit meer dan ok te noemen. Linus verwoordde het in z'n laatste podcast wel goed. Hardware team en software team hebben gewoon alles in parallel moeten ontwikkelen. Om software problemen in hardware op te lossen, of hardware problemen in software op te lossen, moet er veel tijd zijn en vaak kunnen itereren. Wat natuurlijk niet altijd mogelijk is en soms moet een product ook gewoon de deur uit op een bepaald moment. Bedrijven zijn geen hobby clubjes, maar werken met strakke deadlines en allerhande logistieke en markt gerelateerde beperkingen en wetmatigheden.

Dus misschien is dit eerste product eerder beperkt in gebruik. Voornamelijk DX12 en RTX als ik de review zo wat lees. Maar is dat slecht? Voor een eerste poging? Hoe verder we gaan in generaties, hoe verder in het verleden DX9 en DX10 zullen liggen. Soms moet je het ook gewoon kunnen loslaten en accepteren dat deze kaart bestaat voor games vanaf nu, naar de toekomst toe.

Misschien kunnen ze nog wel wat sleutelen aan DX9 en DX10 in een soort api-vertaler modus, en indien niet, gewoon laten vallen.

Maar dan ook wel duidelijk communiceren en de kaarten als dusdanig in de markt zetten. Want op de huidige gen API's presteren ze blijkbaar erg goed (vooral de A770 en 750), Veel geheugen voor wie dat belangrijk vindt (AI, onderzoek, renderfarms, ...) en de gap met 3060 et 6600xt klasse kaarten wordt enkel maar groter, hoe hoger de resolutie. En met RTX. Dus ze doen iets goed

Kijk er maar digital foundry op na op youtube.

Ik zou de sprong wel durven nemen. Zeker als de qua prijs een mooi alternatief bieden.

En dan nog moeten ze als gamer super blij zijn dat er een derde speler in dit monopolie zit. Met genoeg eigen en ingekochte productie capaciteit, om te vermijden dat we ooit nog in de situatie van 2020 en 2021 terecht komen! Met middenklasse gpu's voor 1500-2000 euro.

Ik verwacht zelfs dat intel qua verkoopsaantallen nog wel voorbij AMD kan. Intel is toch een erg bekende naam, en heeft een voet in de deur bij system integrators (dell. hp, ...). In de gaming markt is Nvidia haast een monopolie. AMD aandeel is erg beperkt.

Maar de vraag, zijn ze in onze omgeving al te koop? Staat nog niets in de pricewatch

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 04-05 16:37

SG

SG surft naar info hardewaren

Nou ja de nextgen komt voorlopig uitsluitend boven vorige halo sku. Dus arc concurreerd voorlopig tegen rtx30 6xxx instappers. RT performance is concurrerend doet redelijk met dx12 en vulkan,
Enige probleem de software is nog alfa beta.
Voor nieuwe games. Dev zullen nog niet staan te springen om voor arc specifiek te optimaliseren. Al zullen Xess supporten de games dat vermoedelijk wel doen.
Tijdens game productie zal arc ook vaker in Q&A traject opgenomen worden.
Dus enige goede kans dat nieuwe games iig wel met ARC aware getest zijn .
En de drivers daardoor en moderne api wel stuk beter kunnen doen.

Enige oude game die voor moj belangrijk is. Is Rocksmith2014

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • Novermars_
  • Registratie: Februari 2022
  • Laatst online: 08-01 20:04
Amos_x schreef op zaterdag 8 oktober 2022 @ 18:29:
Zijn ze eigenlijk al te koop in Europa?

(...)

Maar de vraag, zijn ze in onze omgeving al te koop? Staat nog niets in de pricewatch
12 Oktober is de release! Geen idee wat de beschikbaarheid in Europa zal zijn. Vermoed dat de 770 16GB snel uitverkocht zal zijn...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)


Lijkt maar een paar procent langzamer te zijn waardoor de prijs/perf beter uitvalt. :)
Voor de rest dezelfde problemen met efficiëntie, drivers etc.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
Arc is in potentie behoorlijk interessant, zeker als (zoals het nu lijkt) het gros van de problemen in de drivers zit. Als ze het idle verbruik onder controle krijgen zie ik Battlemage nog wel wat worden, zelfs als ze dan nog steeds moeite hebben met DX11, omdat de rauwe perf daar dan grotendeels voor gaat compenseren (e-sports even daargelaten). Het is dat ik geen tijd/zin heb om betatester te worden, anders zou Alchemist zelf ook al interessant zijn puur om mee te spelen.

Waar ik een beetje voor vrees is dat ze met AMD en NV mee willen gaan doen aan de bovenkant voor AI workloads (die 16 GB op de A770 zit er niet op om Tetris mee te spelen) en dat we dan aan de onderkant alsnog buiten de boot gaan vallen als zelfbouwers. Laten we hopen dat er met 3 spelers dan genoeg motivatie is om daar te blijven concurreren zonder dat alles naar OEM's gaat.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Heeft iemand als een Intel Arc gpu? Zou die het volgende willen testen?
DXVK the DirectX 9-11 to Vulkan translation layer is significantly more mature than the translation layer that Intel is using to translate DirectX to DirectX 12 and should provide better performance on Alchemist. You can use it by copying the DXVK versions of DirectX DLLs into your games’ folders.

https://github.com/doitsujin/dxvk
Geen idee of dat met die DLL's mogelijk is. Wellicht is Linux draaien met Steam Proton een goede tweede optie.
Best geinteresseerd of dit de DX9/DX11 performance problemen oplost.

Als dit inderdaad zo is; waarom maakt Intel zijn eigen vertaal laag als je mee kan werken aan een open source variant.

[ Voor 9% gewijzigd door Sp3ci3s8472 op 09-10-2022 19:05 ]


Acties:
  • 0 Henk 'm!

  • Novermars_
  • Registratie: Februari 2022
  • Laatst online: 08-01 20:04
Sp3ci3s8472 schreef op zondag 9 oktober 2022 @ 19:04:

Als dit inderdaad zo is; waarom maakt Intel zijn eigen vertaal laag als je mee kan werken aan een open source variant.
DX9->DX12 gebeurt met software van Microsoft, zover ik weet zijn er wel gewoon dx11 drivers, maar die zijn voor veel games niet geoptimaliseerd.

Denk als er echt winst zou zijn dat Intel er wel voor gekozen zou hebben. Kan je vertellen dat de GPU driver teams (gaming+compute) geen leuke 9 maanden hebben gehad en dat er grof geld hun kant opgegooid is.

Verwacht dat vooral in compute/media deze kaarten best goed zullen verkopen, daar krijg je 3060 TI/3070 hardware voor relatief weinig geld. SYCL/DPC++ is echt een verademing tov OpenCL en CUDA...

Gaming zal nog wel even een tijdje duren, al helpt XeSS zeker. Intel is ook erg sterk met ray tracing, dus dat is ook een plus!

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Novermars_ schreef op zondag 9 oktober 2022 @ 20:58:
[...]

DX9->DX12 gebeurt met software van Microsoft, zover ik weet zijn er wel gewoon dx11 drivers, maar die zijn voor veel games niet geoptimaliseerd.
Daarom Vulkan -> DX9/DX11; het is iets wat actief aan gewerkt wordt door Valve en de community. Dit heeft wellicht een betere performance, ik hoop dat reviewers hier naar gaan kijken.

Misschien dat ik aan het einde van het jaar een Intel gpu aanschaf om mee te spelen (en ook om te zien of het goed om kan gaan met Godot).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Chips and Cheese heeft flink wat details omtrent de A770 getest. Denk aan latencies, beschikbare bandbreedte en occupency.

Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_latency_compared-1.png?ssl=1

Het beeld dat naar voren komt is dat de A770 interne bandbreedte lijkt te missen om workgroups naar de rekeneenheden te krijgen. Als het wel lukt en ze hoge occupency halen, dan is het qua latency niet verkeerd.
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_1workgroup_bandwidth-2.png?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_cache_bw_scaling-2.png?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_bw_compared-1.png?ssl=1

Specifiek lijkt ARC FMA instructies niet erg leuk te vinden.
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_fp32_throughput.png?resize=610%2C600&ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_fp32_latency-1.png?resize=589%2C546&ssl=1
INT multiply idem.
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_single_workgroup_int32-1.png?resize=688%2C558&ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_int32_latency-1.png?resize=598%2C547&ssl=1

https://chipsandcheese.co...hmarking-intels-arc-a770/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
En XeSS lijkt helaas ook tegen te vallen. Slechtere beeldkwaliteit (meer artefacts) dan FSR2 en DLSS2 en presteert ook niet zo best.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

De A750 lijkt te koop:
uitvoering: Intel Arc A750

Wel erg prijzig voor die kaart.

Acties:
  • 0 Henk 'm!

  • Novermars_
  • Registratie: Februari 2022
  • Laatst online: 08-01 20:04
DaniëlWW2 schreef op maandag 24 oktober 2022 @ 12:28:
En XeSS lijkt helaas ook tegen te vallen. Slechtere beeldkwaliteit (meer artefacts) dan FSR2 en DLSS2 en presteert ook niet zo best.
[YouTube: Slower and Uglier - Intel XeSS vs Nvidia DLSS 2 vs AMD FSR 2]
Vond het een beetje flauw dat ze geen Intel kaart erbij pakken, zeker met het excuus "heeft een eigen video nodig". Desondanks zijn de resultaten wel een beetje teleurstellend op AMD/NVIDIA, ben benieuwd of er tijd ingestoken gaat worden om dit te verbeteren vanuit Intel.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:53

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Dank je!
Ik had een prijs alert gezet op de A750 die ik poste want de rest was er toen nog niet.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Ik vraag mij af wat voor zin het heeft dat Intel XeSS open heeft gemaakt voor iedereen. Het draait kort samengevat voor geen meter op AMD kaarten en maar een heel klein beetje beter op Nvidia kaarten. Dit is op midrange kaarten.

FSR2 hoewel het geen ML gebruikt werkt op alle kaarten goed.In kwaliteit is het stuivertje wisselen tussen FSR2 en XeSS; beiden zou ik niet aanzetten. DLSS is de winnaar, maar zelfs dat zou ik nooit overwegen :P.

https://www.youtube.com/watch?v=8pFCd76eV0U

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
Sp3ci3s8472 schreef op maandag 24 oktober 2022 @ 20:01:
Ik vraag mij af wat voor zin het heeft dat Intel XeSS open heeft gemaakt voor iedereen.
Nog altijd beter dan niet open, a la Nvidia. Even afgezien van de daadwerkelijke resultaten op dit moment helpt dat anderen ook weer om dingen compatibel te maken en inspiratie op te doen voor verbeteringen.

Noch AMD noch NV hebben XeSS op dit moment nodig als techniek, natuurlijk, dat dan weer niet. Zoals met de meeste Arc dingen is Intel een beetje ingehaald door de realiteit.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

MneoreJ schreef op dinsdag 25 oktober 2022 @ 10:50:
[...]

Nog altijd beter dan niet open, a la Nvidia. Even afgezien van de daadwerkelijke resultaten op dit moment helpt dat anderen ook weer om dingen compatibel te maken en inspiratie op te doen voor verbeteringen.

Noch AMD noch NV hebben XeSS op dit moment nodig als techniek, natuurlijk, dat dan weer niet. Zoals met de meeste Arc dingen is Intel een beetje ingehaald door de realiteit.
Het is misschien een stap beter dan Nvidia dat het ook op AMD en Nvidia kaarten kan draaien. Alleen is de performance daar zo slecht data je het eigenlijk nooit wil gebruiken.

Ze zijn helaas ook niet open zoals FSR; namelijk de sourcecode is niet open:
https://github.com/intel/xess
In tegenstelling dus tot AMD:
https://github.com/GPUOpen-Effects/FidelityFX-FSR2

Zowel AMD als Nvidia moeten dus tegen een zwarte box optimaliseren. Net zoals vroeger met Gamewrecks van Nvidia.
Nu weet ik niet of je kan optimaliseren met XeSS, wellicht dat Werelds hier wat over te zeggen heeft :p.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
Sp3ci3s8472 schreef op dinsdag 25 oktober 2022 @ 17:49:
Ze zijn helaas ook niet open zoals FSR; namelijk de sourcecode is niet open:
https://github.com/intel/xess
Aha. Ja, ik in mijn naïviteit dacht dat als je een Github repo heb je daar ook source neerzet, maar dat is buiten Intel gerekend, die doodleuk alleen een .lib neerzetten om mee te linken. Dan neem ik al het positieve dat ik gezegd heb weer terug. }:|

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:13
Ik heb de asrock a770 phantom gaming 8gb gekocht .
voor 386 euro haal je een prima kaart in huis prima voor 1440p .
wordt niet warmer dan 62 c en is stil.
op een b450 Asus strix gaming i moederbord en een 8 core amd processor.
drivers worden steeds beter .

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik vraag me oprecht waarom je de A770 zou kopen en niet de RX6650XT / RX6700XT, ik zie vooralsnog geen enkel voordeel behalve AV1-encoding en wel een hele boel nadelen. Het is niet alsof Intel Arc beter heeft gepositioneerd in de prijs-prestatiecurve dan de concurrentie.

NVidia is in dat segment (RTX 3060 / RX3060Ti) wat duurder dus in vergelijking met NVidia snap ik de keuze nog, en NVidia moet het dan hebben van extra features en betere drivers. Maar in die opzichten doet AMD het vooralsnog ook duidelijk beter dan Intel.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Sp3ci3s8472 schreef op maandag 10 oktober 2022 @ 15:21:
[...]


Daarom Vulkan -> DX9/DX11; het is iets wat actief aan gewerkt wordt door Valve en de community. Dit heeft wellicht een betere performance, ik hoop dat reviewers hier naar gaan kijken.

Misschien dat ik aan het einde van het jaar een Intel gpu aanschaf om mee te spelen (en ook om te zien of het goed om kan gaan met Godot).
Intel heeft het licht gezien:
https://www.tomshardware....ge-valves-dxvk-translator

Dat bevestigd mijn vermoeden dat als ik met DXVK zou gebruiken dat ik er een grote kans was dat er een performance verbetering zou zijn.
In plaats van dat ze hun eigen emulatie gebruiken, gebruiken ze dus nu eentje die waarschijnlijk op alle vlakken beter is.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Zonder veel details te vertellen gaat Intel zijn GPU divisie herorganiseren:

Intel Reorganises its Graphics Chip Division

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
XWB schreef op donderdag 22 december 2022 @ 11:53:
Zonder veel details te vertellen gaat Intel zijn GPU divisie herorganiseren:

Intel Reorganises its Graphics Chip Division
Tja voor Koduri is het dan waarschijnlijk wat ik al jaren vermoed en ook wel eens gezegd heb.
De man lijkt zeer goed te kunnen functioneren als GPU architect, maar een divisie leiden kan hij gewoon niet. We zagen het met de RTG die onder zijn leiderschap eigenlijk afgleed en na zijn vertrek begon op te krabbelen (is nog steeds bij lange na niet goed, maar beter dan het was) en bij Intel is het ook alles behalve goed gegaan.

Ik denk dat dit een goede stap is. Het is alleen de vraag wanneer de effecten hiervan duidelijk worden en wat die effecten zijn. Het kan immers ook altijd nog erger worden. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Sp3ci3s8472 schreef op dinsdag 25 oktober 2022 @ 17:49:
Zowel AMD als Nvidia moeten dus tegen een zwarte box optimaliseren. Net zoals vroeger met Gamewrecks van Nvidia.
Nu weet ik niet of je kan optimaliseren met XeSS, wellicht dat Werelds hier wat over te zeggen heeft :p.
Zie dit nu pas :+

Enige optimalisaties zouden echter in XeSS zelf zitten, niet andersom. Het kan best zijn dat de manier waarop Intel het geheel op non-Intel GPU's draait beter kan. Ze maken dan wel gebruik van dp4a instructies, maar wellicht is de manier waarop niet optimaal, iets in die trant (denk aan data structuren). AMD's WMMA in RDNA3 heeft bijvoorbeeld ook wat beperkingen in hoe je de data klaar voorbereid.

Acties:
  • 0 Henk 'm!

  • ColonelPhantom
  • Registratie: Augustus 2014
  • Laatst online: 05-04 20:20
bwerg schreef op zaterdag 10 december 2022 @ 16:45:
Ik vraag me oprecht waarom je de A770 zou kopen en niet de RX6650XT / RX6700XT, ik zie vooralsnog geen enkel voordeel behalve AV1-encoding en wel een hele boel nadelen. Het is niet alsof Intel Arc beter heeft gepositioneerd in de prijs-prestatiecurve dan de concurrentie.

NVidia is in dat segment (RTX 3060 / RX3060Ti) wat duurder dus in vergelijking met NVidia snap ik de keuze nog, en NVidia moet het dan hebben van extra features en betere drivers. Maar in die opzichten doet AMD het vooralsnog ook duidelijk beter dan Intel.
De A770 is inderdaad niet heel competitief met AMD, zeker de 16GB die nu te koop is voor 400 en daarmee bijna aan de prijs van een 6700 XT zit 8)7

De A750 is gestaag in prijs gedaald en kost nu nog maar 315, minder dan een 6650 XT :D De A750 kan echter sneller zijn, afhankelijk van de game en hoe goed deze is geoptimaliseerd, als ook het gebruik van bijvoorbeeld raytracing of hogere resoluties, wat beide sterke punten zijn van Alchemist en zwakke punten van RDNA2.

Ik zou niet zeggen dat een A750 strikt beter is dan een 6650 XT, maar andersom zeker ook niet. Wel is de Intel natuurlijk meer een gok als het op drivers en zo aankomt.

Bedankt! - Gamer - Tweaker - Retrogaming - Een dag niet getweakt is een dag niet geleefd


Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
Mijn game pc is niet 'mission critical', niet voor werk bedoeld of hoeft ook niet per se helemaal perfect te zijn. Hobby dus. Op zich ben ik wel de ideale klant voor een dergelijk product die langs alle kanten nog heel erg 'iffy' is. (drivers, ondersteuning, misschien stop intel er binnen drie jaar mee)

Maar ik kan op zich wel een avontuurtje nu en dan waarderen, dus waarom niet.

Maar ik vind nergens een officiele Intel kaart te koop (wat ze bij nvidia foundry edition noemen?). Het klinkt dom, en mijn case is dicht/geen window, maar toch vind ik die intel kaartjes best wel erg stijlvol.

Eindelijk is terug naar subtiele, professioneel ogende hardware.

Er staat in de pricewatch wel een vendor kaart te koop van de A750 of 770 van asrock? Weer met infantiele gamery look.

Een snelle search op google naar een A770 'shopping' levert ook geen stock op.

edit: zijn er signalen dat aan het idle verbruik nog iets kan gedaan worden? Of is dat een gevolg van het hardware design en kan je daar op driverniveau helemaal niets meer aan verbeteren (maw iets voor de volgende generatie)

[ Voor 11% gewijzigd door Amos_x op 26-12-2022 15:29 ]


Acties:
  • +1 Henk 'm!

  • Skyline GT-R
  • Registratie: Januari 2004
  • Laatst online: 17:24

Skyline GT-R

RB26DETT

285K // Z890 Master // 48GB DDR5-8000C38 // RTX 5080 Master


Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
Nice! Heb duidelijk niet goed genoeg gezocht. :X

379 euro voor een A770? 16GB vram? Hmmm tempting! Zal er wat nachtjes laten over gaan en eens vergelijken met 3060/3060Ti/3070 klasse hardware

Acties:
  • +1 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Amos_x schreef op maandag 26 december 2022 @ 15:28:
edit: zijn er signalen dat aan het idle verbruik nog iets kan gedaan worden? Of is dat een gevolg van het hardware design en kan je daar op driverniveau helemaal niets meer aan verbeteren (maw iets voor de volgende generatie)
Zonder diepgaande technische kennis is het lastig te zeggen waar het aan ligt en hoe lastig het te fixen is. Maar als het eenvoudig was had Intel het wel gedaan. Oudere generaties AMD (denk aan 2007-2010) hadden een vergelijkbaar idle-verbruik en dat is destijds nooit met drivers gefixt.

Idle-verbruik reduceren kost best wat moeite (delen van je GPU uitzetten of terugklokken terwijl alles moet blijven werken) dus ik kan me voorstellen dat Intel de moeite liever in stabiliteit, prestaties en feature steekt.

Dus: hopelijk bij de volgende generatie.

[ Voor 14% gewijzigd door bwerg op 26-12-2022 18:28 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • ColonelPhantom
  • Registratie: Augustus 2014
  • Laatst online: 05-04 20:20
Amos_x schreef op maandag 26 december 2022 @ 15:28:
Er staat in de pricewatch wel een vendor kaart te koop van de A750 of 770 van asrock? Weer met infantiele gamery look.
Dan gok ik dat je niet helemaal goed gekeken hebt, want de A770 staat bij Proshop te koop in de Pricewatch: uitvoering: Intel Arc A770 16GB

Als je filtert op "Videochip merk: Intel" zie je ook een A750 LE.

Bedankt! - Gamer - Tweaker - Retrogaming - Een dag niet getweakt is een dag niet geleefd


Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
ColonelPhantom schreef op woensdag 28 december 2022 @ 00:11:
[...]


Dan gok ik dat je niet helemaal goed gekeken hebt, want de A770 staat bij Proshop te koop in de Pricewatch: uitvoering: Intel Arc A770 16GB

Als je filtert op "Videochip merk: Intel" zie je ook een A750 LE.
Dat was op het moment van m'n post niet het geval bij mij mijn weten. Je kon inderdaad klikken op A770, maar de pagina was leeg, en bood drie linkjes aan naar gelijkaardige producten of die kaart van asrock

Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
Domme vraag. Stel dat je een intel cpu (of amd cpu?) met iGPU combineert met een ARC. Kan je dan naar keuze en afhankelijk van je workload switchen van de iGPU naar de ARC DGPU?

MOBO en ARC elk met een hdmi naar pc scherm en dan switchen op het scherm.

Dit om een workaround te vinden voor het hoge idle verbruik. Het gebeurt soms dat ik weken/maanden niet game of die extra kracht niet nodig heb. Of zal de ARC, als 'ie in de pc zit, toch sowieso die idle draw uit de PCI-e poort trekken? (40 watt was het toch in idle?)

379 euro voor een 3060ti equivalent kaart met redelijke ray tracing is toch echt niet slecht.

Hoe is VR op intel ARC? Iemand ervaring? MSFS bvb?

Acties:
  • +1 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Amos_x schreef op woensdag 28 december 2022 @ 12:42:
Domme vraag. Stel dat je een intel cpu (of amd cpu?) met iGPU combineert met een ARC. Kan je dan naar keuze en afhankelijk van je workload switchen van de iGPU naar de ARC DGPU?

MOBO en ARC elk met een hdmi naar pc scherm en dan switchen op het scherm.
Ik vraag me af of je vanuit je OS zomaar je videokaart kan uitschakelen? Enkel de kabel eruit trekken of de monitor op een andere ingang instellen zal nog niet zorgen dat de videokaart uit gaat of minder gaat verbruiken.

Het is wel mogelijk om deep sleep power states in te schakelen, maar dat is een feature die hier normaal niet voor wordt gebruikt, en dat beinvloedt ook de PCIe-interfaces naar bijvoorbeeld je SSD. Dus ja, er is wel wat mogelijk maar het is wel een hack met mogelijke bij-effecten.

[ Voor 7% gewijzigd door bwerg op 28-12-2022 14:23 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:13
Idle schommelt tussen 35/40 watt gebruik dat is wat ik aflees.

Acties:
  • +2 Henk 'm!

  • Majin Buu
  • Registratie: April 2005
  • Niet online
Nou, ik ga een gokje wagen en heb de A770 aangeschaft.

Heb goede hoop dat de drivers nog verder geoptimaliseerd worden, deze vid geeft mij iig een nu al een goed gevoel.

YouTube: Intel ARC Graphics Cards Are Already Getting Better...

R7 9700X / GB B650 Gaming X AX / RTX 5070 Gaming OC


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Is er al nieuws over Battlemage?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • +1 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:13
Majin Buu schreef op maandag 16 januari 2023 @ 11:48:
Nou, ik ga een gokje wagen en heb de A770 aangeschaft.

Heb goede hoop dat de drivers nog verder geoptimaliseerd worden, deze vid geeft mij iig een nu al een goed gevoel.

YouTube: Intel ARC Graphics Cards Are Already Getting Better...
Ik heb er ook geen spijt van de drivers worden elke keer weer wat beter overklokken gaat ook prima zit nu op 2.7 GHz .

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Flinke claims, nu nog zien. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:13
Nieuwe drivers instal gedaan het gaat zeker de goede kant op .
Callisto protocol loopt echt soepel nu .

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 02:23
DaniëlWW2 schreef op donderdag 22 december 2022 @ 12:07:
[...]


Tja voor Koduri is het dan waarschijnlijk wat ik al jaren vermoed en ook wel eens gezegd heb.
De man lijkt zeer goed te kunnen functioneren als GPU architect, maar een divisie leiden kan hij gewoon niet. We zagen het met de RTG die onder zijn leiderschap eigenlijk afgleed en na zijn vertrek begon op te krabbelen (is nog steeds bij lange na niet goed, maar beter dan het was) en bij Intel is het ook alles behalve goed gegaan.
Koduri heeft heel AMD naar pc gaming gepushed.


Kan wel zijn dat het meer een visionair is dan een praktische leider. Uiteindelijk heeft hij wat mij betreft vooral veel pech gehad. Want de eerste kaart was prima en het doel was logisch en duidelijk; geen profits maar marketshare en mindshare. Echter toen kwam de eerste mining hype en die 'gesponsorde' gpu's gingen niet naar gamers maar naar miners. Dan zit je met de gebakken peren want geld verdien je niet en marketshare en mindshare werden ook niet gewonnen.

Verder vind ik het ergens nog wel logisch dat ze de prijs pas verlagen wanneer de grootste problemen zijn opgelost (ik doel op het nieuws dat hij naar $249 gaat). Je hebt immers niks aan een grote user base met een negatieve ervaring. Heel lang intern blijven testen schiet ook niet op, in het 'wild' kom je toch altijd dingen tegen die je niet had verwacht. Dus an sich en een opschalend iets qua aantrekkelijkheid van je product wellicht nog wel een zinnige optie. We gaan het mee maken...

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:53

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
sdk1985 schreef op woensdag 1 februari 2023 @ 23:11:
[...]

Koduri heeft heel AMD naar pc gaming gepushed.

[YouTube: The Future of Radeon: An Interview with Raja Koduri]
Kan wel zijn dat het meer een visionair is dan een praktische leider. Uiteindelijk heeft hij wat mij betreft vooral veel pech gehad. Want de eerste kaart was prima en het doel was logisch en duidelijk; geen profits maar marketshare en mindshare. Echter toen kwam de eerste mining hype en die 'gesponsorde' gpu's gingen niet naar gamers maar naar miners. Dan zit je met de gebakken peren want geld verdien je niet en marketshare en mindshare werden ook niet gewonnen.

Verder vind ik het ergens nog wel logisch dat ze de prijs pas verlagen wanneer de grootste problemen zijn opgelost (ik doel op het nieuws dat hij naar $249 gaat). Je hebt immers niks aan een grote user base met een negatieve ervaring. Heel lang intern blijven testen schiet ook niet op, in het 'wild' kom je toch altijd dingen tegen die je niet had verwacht. Dus an sich en een opschalend iets qua aantrekkelijkheid van je product wellicht nog wel een zinnige optie. We gaan het mee maken...
Probleem is dat de eerste versie van Arc bepaalde basis hardware verkeerd heeft gekozen, zoals bijvoorbeeld de memory controller. Ik denk dat Koduri daarbij te weinig heeft geluisterd naar zijn ingenieurs. Of er wordt bij Intel teveel geleund op de visie van de leiding. Het Intel driver team heeft daar nu omheen moeten werken, onder goed leiderschap van Lisa Pearce.

De mining periode had juist een garantie kunnen zijn dat alle Arc kaarten verkopen, zodat ze meer driver feedback krijgen dan nu. Nu moeten ze het met een prijsverlaging doen. Het is wel een aardig instapkaartje:
uitvoering: ASRock Intel Arc A750 Challenger D 8GB OC
maar ik zou zelf toch eerder een AMD of Nvidia kaart kopen.

Wat wel echt pech was, was dat work from home het moeilijker maakte om de Intel Arc hardware te testen, en door remote werken kwam feedback misschien minder bij Kodori terecht. Wat ook pech was, was het Intel team in Oekraïne/Rusland door het uitbreken van oorlog. Aan dat soort dingen kan je niks doen.

Maar eens afwachten of Battlemage en Celestial doorgaan, en zo ja of ze de hardware kinderziektes opgelost hebben.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • no_way_today
  • Registratie: December 2008
  • Laatst online: 03-05 23:37
Heeft iemand zelf al de nieuwste vs de vorige drivers getest en is de arc nu een goed alternatief?

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
no_way_today schreef op vrijdag 10 februari 2023 @ 19:41:
Heeft iemand zelf al de nieuwste vs de vorige drivers getest en is de arc nu een goed alternatief?
Een goed alternatief voor wat, is de vraag? Je kunt online genoeg tests vinden (voorbeeld, Gamers Nexus) -- hierboven ook al gelinkt, zie ik nu). Intel heeft de ergste/meest opzienbarende bottlenecks in DX9 scenario's sterk verminderd en de ergste kinderziektes uit de drivers gehaald, maar feit blijft dat je Arc alleen zou moeten overwegen als je avontuurlijk ingesteld bent.

Wat mij betreft is de prijs die Intel vraagt nog steeds te hoog voor een doorsnee consument als je ook voor de groene of rode concurrentie kan gaan en daarmee een kaart kan halen met aanzienlijk minder kans op onaangename verrassingen, maar voor anderen kan de nieuwigheid, de tweakfactor of gewoon de gunfactor juist een plus zijn. Of het dan een "goed" alternatief is hangt helemaal af van je wensen en verwachtingen.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 19:52
Zag dat de a750 al voor een goede 280 euro te vinden is. Best interessant denk ik

uitvoering: ASRock Intel Arc A750 Challenger D 8GB OC

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
De A750 zit op het niveau van een RX 6600, die je al voor 260 kunt krijgen. De A750 is beter in raytracing voor wie daar aan wil snuffelen -- het scheelt ook weer niet heel erg veel op dat niveau maar genoeg om spellen misschien van "net niet speelbaar" tot "net wel" te tillen. Voor 25 euro extra kun je dan ook nog zeggen dat je een van de eerste instappers was op Intel. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • m-buurman
  • Registratie: Juni 2007
  • Laatst online: 18:54

m-buurman

hmmm...coffee!!

Ik heb de A750 tweedehands van iemand die ook wou zien wat de kaart in huis heeft en tot op heden heb ik met de huidige drivers geen problemen ondervonden. Nu ben ik geen hardcore gamer maar het voldoet meer dan prima voor bijv Anno 1800 en FH5 op UWQHD.

Een van de voornaamste redenen dat ik deze kaart wou is de snelle en kwalitatief goede encoder voor HEVC én AV1 waardoor even snel wat omzetten nu ook daadwerkelijk even snel kan. Op dit prijsniveau kunnen AMD en nVidia dat niet bieden.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 05-05 13:02
Puur voor games is het het net niet. Als hij sneller is dan bijv. de 6600 dan is dat niet zo gek veel maar hij kan wel gewoon beduidend minder presteren in sommige games helaas.

Het is EEN alternatief maar wat mij betreft nog steeds geen goed alternatief.

Ik hoop dat de volgende generatie een flinke stap maakt en dat het een prima alternatief wordt, alleen maar beter voor de markt.

Maar als ze echt gaan concurreren zal de prijs ook even hoog zijn... we zullen zien.

Voor nu wil ik er ook wel even mee spelen maar tis me net wat teveel geld voor iets wat ik waarschijnlijk weinig zal gebruiken (heb 2 beduidend snellere kaarten in de systemen).

Mocht ik shoppen in dat segment dan zou ik de 770 overwegen tegen de 6600 vanwege de 16gb . Maar vanwege de tekortkomingen ook alleen als ze evenveel zouden kosten.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Prijzen van de Arc 750 zijn eindelijk wat lager; misschien pik ik er een op nu.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Ik heb nu al vaker gemopperd over Koduri en dat Alchemist me aan Vega doet denken. Nou daar gaat Koduri bij Intel. Het lijkt allemaal zo enorm veel op hoe het rond Vega ging. Inefficiënte en veel te grote chip, problemen met software features of bugs, problemen met utilisatie van hardware en features, geforceerd lagere prijs omdat het product niet competitief is en nu is Koduri weer weg nadat alles misging...

nieuws: Raja Koduri vertrekt bij Intel waar hij chief architect van gpu-divis...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik vraag me dan af wat er nu van Intel op GPU gebied terecht moet gaan komen. Is dit niet de zwanenzang van de GPU divisie, buiten de iGPU's? Rialto Bridge is ook al geen echt succes, dus dat punt is ook een streepje tegen. Aan de andere kant kan Intel ook weer niet zo makkelijk zonder. De toekomst lijkt toch echt meer in de richting van accelerators te gaan. Maar hoe ze dat dan gaan doen?

[ Voor 27% gewijzigd door ocf81 op 21-03-2023 23:26 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 11:56
ocf81 schreef op dinsdag 21 maart 2023 @ 23:20:
Ik vraag me dan af wat er nu van Intel op GPU gebied terecht moet gaan komen. Is dit niet de zwanenzang van de GPU divisie, buiten de iGPU's?
Raja Koduri is al vaker weggegaan bij bedrijven. Dat hij bij Intel weg zou gaan stond eigenlijk ook al vast, alleen het wanneer niet. Om dat nou een zwanenzang te noemen lijkt me alleszins voorbarig. Het is niet alsof Koduri hoogstpersoonlijk heel Arc ontworpen heeft en men nu met de handen in het haar zit voor hoe het nu moet na Battlemage. :P Je kunt het in plaats van een zwanenzang ook zien als een divisie die de steunwieltjes niet meer nodig heeft. De waarheid zal ergens in het midden liggen.

Het idee dat Koduri de bron van alle kwaad is mag ook wel eens genuanceerd worden. De beste man is geen verlosser, dat mag duidelijk zijn, maar het is zeer de vraag of er zonder hem en zijn jaren ervaring überhaupt wel een dGPU divisie van de grond gekomen was bij Intel, ook als die divisie niet gelijk de hele wereld op z'n kop zet met het eerste product.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Heb nu eindelijk een uitvoering: ASRock Intel Arc A750 Challenger D 8GB OC besteld. Ik ben heel benieuwd hoe hij zich gaat gedragen in OpenGL applicaties; met name in Godot gezien ik hem daar juist voor heb gekocht.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Was helemaal vergeten dat Matrox er ook nog was:
https://www.anandtech.com...s-for-luma-graphics-cards

Die zijn nu een ook een AIB van Intel geworden.

Acties:
  • +1 Henk 'm!

  • Captain Pym
  • Registratie: Augustus 2012
  • Laatst online: 20-02 19:57
Amos_x schreef op woensdag 28 december 2022 @ 12:42:
Domme vraag. Stel dat je een intel cpu (of amd cpu?) met iGPU combineert met een ARC. Kan je dan naar keuze en afhankelijk van je workload switchen van de iGPU naar de ARC DGPU?

MOBO en ARC elk met een hdmi naar pc scherm en dan switchen op het scherm.

Dit om een workaround te vinden voor het hoge idle verbruik. Het gebeurt soms dat ik weken/maanden niet game of die extra kracht niet nodig heb. Of zal de ARC, als 'ie in de pc zit, toch sowieso die idle draw uit de PCI-e poort trekken? (40 watt was het toch in idle?)

379 euro voor een 3060ti equivalent kaart met redelijke ray tracing is toch echt niet slecht.

Hoe is VR op intel ARC? Iemand ervaring? MSFS bvb?
Er is wel iets dat heet Intel Deep Link Technology. Dat zorgt er eigenlijk alleen voor dat de iGPU en ARC GPU in specifieke ondersteunde scenario's samenwerken.
Best wel stoer voor content creators maar zeker niet iets om de gemiddelde consument over de streep te slepen.
https://www.intel.com/con...gy/adaptix/deep-link.html

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik zou wel graag zien dat spellen de iGPU gaan gebruiken voor betere natuurkundige berekeningen. Op zich zou dat moeten kunnen. En omdat AMD met AM5 nu ook standaard een iGPU meelevert zou dat ook geen probleem meet moeten zijn.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Oh dit is leuk. :*)

Intel heeft een UI bovenop PresentMon gebouwd. Dat is een applicatie waarmee je frametimes kan meten bovenop andere metrics zoals temperaturen, fps, voltage, frequentie etc. Maar Intel heeft er ook een functie bij ontwikkeld die ze GPU Busy noemen. Dat is een relatief simpele overlay bovenop je frametime grafieken. Simpelweg als de GPU Busy lijn ongeveer over de frametime ligt, dan is je systeem in balans of heb je de gewenste GPU beperking. Ligt de GPU busy lijn onder de frametime, dan kijk je naar een bottleneck. En dit is vendor agnostisch met ondersteuning voor DX9/DX11/DX12 en Vulkan. :Y


https://game.intel.com/story/intel-presentmon/

@CMT Nu ben ik toch stiekem benieuwd naar die RTX4090. ;)
@Werelds Ik vermoed zo dat jij dit ook wel leuk vind. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Had hem inderdaad al gezien, mooi werk. Voor reviewers meer werk, maar voor ons consumenten komt er gewoon nog betere data. Zien welke games gewoon brak zijn, welke drivers traag zijn :)

Ik blijf er bij dat Intel goed bezig is. Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken. Dit valt gewoon in dat laatste er bij, mooi dat ze het open maken. En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op vrijdag 18 augustus 2023 @ 20:27:
Ik blijf er bij dat Intel goed bezig is.
Ze hebben in elk geval weer eigen ideeën, waardoor ze dingen oppakken die Nvidia en AMD laten liggen.
Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken.
Hopelijk gaat het beter met Battlemage.
En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.
Het is ook goed om te zien dat hij nu zelfstandig mag opereren, terwijl bij de lancering van Arc onze goede vriend Ryan Shroud er steeds bij zat. Ben niet zo'n fan van hem. Blijkbaar heeft Intel nu het vertrouwen dat Petersen geen verkeerde dingen zegt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:06
@DaniëlWW2
Oh wow, hier kan ik echt enthousiast van worden :). Sommige in-game benchmarks hadden iets vergelijkbaars, met een CPU time & GPU time meting (o.a. Borderlands 3, Shadow of the Tombraider), maar dit is wel next level en zal veel meer inzicht geven.
Ik hoop dat dit ook een aanzet kan zijn voor developers om games of de driver te optimaliseren voor de dual-issue mogelijkheid van RDNA3. Dat zou wel heel leuk zijn als zo meteen meer games op het niveau van Cyberpunk 2077, Cod MW weten te presteren en het vuur aan de schenen legt van de RTX4090.

Helaas heb juist gisteren de 4090FE uit het testsysteem gehaald om aan de slag te kunnen gaan met het tunen van de 6950XT (de deadline van het verjaardagsproject begint een beetje te dringen).
Maar ik kan het wel even ombouwen mocht je benieuwd zijn naar bepaalde metingen/benchmark met GPU busy ;). Of was de opmerking bedoeld meer in algemene zin om een 4090 aan te schaffen?

@Werelds
Vind ik ook. Ze timmeren echt hard aan de weg en ik kijk dan ook reikhalzend uit naar Battlemage.
Het idle verbruik was met de ARC 700 serie redelijk op te lossen door specifieke PCIe ASPM bios (regelt de PCIe powerstates) opties aan te zetten (als het moederbord deze optie heeft). Resultaat was van ca. 40W idle naar een meer normale 8-20W. En met de driver hebben ze flinke stappen gezet. Ik zou wel eens willen zien hoe de verhouding daarmee nu is t.o.v. de 3060Ti.

[ Voor 20% gewijzigd door CMT op 19-08-2023 12:36 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op zaterdag 19 augustus 2023 @ 02:22:
En met de driver hebben ze flinke stappen gezet. Ik zou wel eens willen zien hoe de verhouding daarmee nu is t.o.v. de 3060Ti.
Ze kwamen ook van ver. Ik heb het idee dat ze nog steeds wel flink achterlopen op Nvidia en AMD. Ik vrees eigenlijk dat het nog een generatie kaarten duurt voordat dit echt op orde raakt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Werelds schreef op vrijdag 18 augustus 2023 @ 20:27:
Had hem inderdaad al gezien, mooi werk. Voor reviewers meer werk, maar voor ons consumenten komt er gewoon nog betere data. Zien welke games gewoon brak zijn, welke drivers traag zijn :)

Ik blijf er bij dat Intel goed bezig is. Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken. Dit valt gewoon in dat laatste er bij, mooi dat ze het open maken. En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.
Dit is eigenlijk ook precies wat ik van AMD had willen zien.
Ze hebben nu al twee generaties duidelijk een VRAM voordeel wat nu zo hard gaat tellen. Vervolgens hebben ze al zoveel generaties een duidelijk overhead voordeel en dan komt Intel met de tool om het makkelijk uitleesbaar te maken. Datzelfde Intel waar nog steeds een hele hoop games botweg niet fatsoenlijk draaien. Maar Intel durft het wel aan dit breed inzichtelijk te maken en te adverteren.


Tweede is dat ik ook al ben gaan spelen met XeSS. Het is helaas Witcher 3 en Cyberpunk waar alle aandacht naar Nvidia gaat en de rest ook nog wel eens komt, maar daar zit ook wel potentie in. Het lijkt een beetje gemixed te zijn omdat beide implementaties vrij matig lijken. FSR2 is een beetje blurry, maar wel consistent. XeSS is net wat meer gedetailleerd dichtbij en soms net wat scherper, maar op soms zelfs een paar meter zakt het al in. XeSS lijkt shimmering wel beter te voorkomen dan FSR2. In die twee games is het precies zoals Nvidia zou willen. :z Witcher 3 doet pijn. Best game ever. :> ;(

Maar bij mij roept het wel weer een andere vraag op. XeSS heeft een Intel only mode op hun toch niet misstaande XMX engines. FSR2 is puur shader. XeSS met XMX kan ik niet testen met mijn gloednieuwe RX7900XT, maar die heeft matrix acceleration. Het zal niet geweldig zijn, maar het zit erin. Ik zit me al maanden hardop af te vragen wanneer dit gebruikt gaat worden voor een temporal upscaler? Het is voor mij zo'n inkoppertje.

Ik had het er volgens mij anderhalf jaar geleden al over toen al lekte dat RDNA3 die functionaliteit had. FSR2 lijkt als algoritme echt niet slecht te zijn, maar lijkt rauwe rekenkracht te missen voor die laatste stap. XeSS lijkt ook de potentie te hebben om vergelijkbaar met DLSS2 te zijn, maar dan alleen de XMX versie. Concreet voor mij: Wanneer gaat Intel of AMD in het gat duiken en hun upscaler openstellen aan de matrix hardware van de concurrenten? Desnoods alleen voor elkaar en niet Nvidia als daar problemen ontstaan.

Degene die het doet, is voor mij zeker de morele winnaar, als je niet gewoon de winnaar in de upscaling race gaat worden door die zet. Het kan me weinig schelen of het "FSR2 AI" of XeSS is. Persoonlijk game ik nog steeds graag zonder, maar voor RT is soms ook mooi :*) is het helaas toch wel nodig. Ik kan er mee wegkomen zonder, maar met upscaling zijn de framerates wat comfortabeler in die twee games. Uiteraard beiden met mods om het ergste van de RTX implementaties eraf te schrapen. Ik haalde zelfs circa 45fps met full PT in Cyberpunk en FSR2 met een snelle test. :P

offtopic:
Vanuit AMD kan ik ook niet begrijpen wat ze aan het doen zijn. Komende week lijkt N32 te komen en vermoedelijk horen we dan ook wat over FSR3. Aardige kans dat het in Starfield zit. Misschien ook wel goed omdat het een "Todd Howard" game is, dus twee CPU cores aanspreken zou al wat zijn. :Y)
Verder ga ik dat aankijken. Bij FSR3 zal ook een forse latency reductie moeten zitten omdat het anders onbruikbaar is. En of het nu beter gaat werken dan DLSS3...


Ik snap vervolgens gewoon niet waarom AMD dit niet allang gebruikt voor een betere "FSR2 AI". Ze kunnen zo nota bene meeliften op de AI hype door iets AI te noemen. :z

Ik wil graag aanstippen dat Intel XeSS in XMX mode 128 INT8 Ops/cycle tot haar beschikkking heeft. Of die ook allemaal nodig zijn of in gebruik, laat ik in het midden. De fallback is DP4a waarbij maximaal 4x INT8 worden gedaan door een SIMD32. Daarom is XeSS van mindere kwaliteit zonder XMX engines.
XeSS operates on Intel's Arc XMX cores, but it can also run on other GPUs in a slightly different mode. DP4a instructions are basically four INT8 (8-bit integer) calculations done using a single 32-bit register, what you'd typically have access to via a GPU shader core. XMX cores meanwhile natively support INT8 and can operate on 128 values at once.
https://www.tomshardware....hnology-demo-and-overview

Ondertussen kan RDNA3 in WMMA mode, 256 INT8 Ops/Cycle doen. Hierbij vermoed ik dat er wat terminologie verwarring optreed. AMD lijkt waarde van een INT8 instructie waar twee operaties worden afgehandeld te hebben opgegeven en Intel een instructie met een operatie per clock. Ze lijken dus gelijkwaardig te zijn.

Het is hier verder niet parallel met een apart hardware block. Het zal serieel moeten. AMD hun voordeel zal zoals altijd uit betere scheduling en occupency moeten komen. Maar meer doen met minder hardware is wat RDNA doet.

In theorie zou XeSS haar XMX mode dus moeten kunnen werken op RDNA3. Misschien niet als XMX mode, maar als een meer generieke "WMMA/matrix INT8 mode". Dit geld overigens ook voor Nvidia. Turing haar Tensor cores doen in voor FP16 64 instructies met twee operaties per clock (FMA) voor een totaal van 128. Voor INT8 is het ook 128/256.

Overigens is FSR2 veel meer gebaseerd op floats dan integers. Met name FP16 met een FP32 fall back laag. Maar RDNA3 ondersteunt ook WMMA voor FP16. Er zitten alleen beperkingen op die tweede SIMD32. Idem voor dual issue wat er ook nog is. Hoe dat precies zit, durf ik niet te zeggen.

Kort samengevat:
XeSS = matrix integer based. XeSS heeft een shader DP4a fall back waarmee je met AMD per SIMD32, 32 x 4 = 128 INT8 per clock hebt. Nvidia heeft per SIMD32 maar 16x INT en zo te zien ook geen ondersteuning voor low precision acceleratie. Kan het in ieder geval niet vinden.
FSR2 = voornamelijk FP16 based. Vertrouwt grotendeels op SIMD32 x 2 = 64 FP16 voor AMD. Nvidia heeft met Ampere en Ada weer hun 2x FP16 functionaliteit verloren dus maximaal 32. Turing is ook maximaal 32 omdat er maar 16 FP ALU's zijn. ARC heeft wel 2x FP16, maar heeft net zoals Turing een 50/50 split tussen FP en INT units. Per Xe-Core met 256 shaders dus 128 x 2 = 256. Voor diezelfde 256 Shaders kan AMD 512 FP16 instructies uitvoeren. En dat is waarschijnlijk waarom FSR2, veel meer floating points gebruikt.
DLSS2 = Nvidia black box en waarschijnlijk grotendeels integer based. Maar gezien Turing kan het niet meer zijn dan XeSS op een XMX engine.

Afbeeldingslocatie: https://tweakers.net/i/fOCeIJ3a7nE6hE2yQJVVL6K3Zgk=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/KtISx5L0HavMZpncpDuGrekJ.webp?f=fotoalbum_medium
Afbeeldingslocatie: https://tweakers.net/i/1fK4ucV8L7rPqP0VAnzi8g-vakg=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/3szHXrHlYLeWIG6te5Wrm6EG.webp?f=fotoalbum_medium
Afbeeldingslocatie: https://tweakers.net/i/2XdxGLG9LF9aqALDOpJrlVMkJes=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/RPUnOHi11kI0XSn7jlvCyAne.webp?f=fotoalbum_medium

Afijn genoeg over de RTG. :P
Ik ben uiteraard al gaan spelen met Intel PresentMon. Ik heb deze config al gemaakt. Er zijn nog veel meer settings, maar deze interesseerden mij. Je kan settings groeperen, bepaalde uitleeswaarden rechts zetten, elke setting een kleur uit een kleurenpalet geven, profielen maken met gewenste settings en die opslaan en voor sommige functies kan je ook een histogram maken.
Afbeeldingslocatie: https://tweakers.net/i/ytPIp9PgI4TFE8kem2BJ-uHosWk=/800x/filters:strip_icc():strip_exif()/f/image/LJFrfNiNB83HHkqX0yVmNEEV.jpg?f=fotoalbum_large

De software auto target de grafisch meest intensieve workload en dat lijkt te werken. Op de achtergrond leest de software zo te zien ook telemetrie vanuit AMD hun software uit. Hotkeys voor zowel aanzetten als logging zijn alsmede een limiet hoe lang je de logging wil maken. Daarbij zitten ook zaken zoals GPU voltage, tearing en de verschillende fasen van frame rendering.
Afbeeldingslocatie: https://tweakers.net/i/RVcatgfbDqR2C7TYOZC3Srj3O4A=/800x/filters:strip_icc():strip_exif()/f/image/l9r32VqwfnWLEAZmrL2OBB1k.jpg?f=fotoalbum_large

In game krijg je dan dit. Helaas werkt niet alles. Ik heb verder bewust ANNO 1800 gekozen omdat deze game het concept van multicore CPU ook lastig vind. Beetje rond mijn stad bewegen en dan krijg je al zoiets als dit:
Afbeeldingslocatie: https://tweakers.net/i/t9ocJ-RV4KXcFUqCa1MKcAd3vKg=/800x/filters:strip_icc():strip_exif()/f/image/fPzR6oTWcn1Wb99QJQpGFLC0.jpg?f=fotoalbum_large
CMT schreef op zaterdag 19 augustus 2023 @ 02:22:
@DaniëlWW2
Oh wow, hier kan ik echt enthousiast van worden :). Sommige in-game benchmarks hadden iets vergelijkbaars, met een CPU time & GPU time meting (o.a. Borderlands 3, Shadow of the Tombraider), maar dit is wel next level en zal veel meer inzicht geven.
Ik hoop dat dit ook een aanzet kan zijn voor developers om games of de driver te optimaliseren voor de dual-issue mogelijkheid van RDNA3. Dat zou wel heel leuk zijn als zo meteen meer games op het niveau van Cyberpunk 2077, Cod MW weten te presteren en het vuur aan de schenen legt van de RTX4090.

Helaas heb juist gisteren de 4090FE uit het testsysteem gehaald om aan de slag te kunnen gaan met het tunen van de 6950XT (de deadline van het verjaardagsproject begint een beetje te dringen).
Maar ik kan het wel even ombouwen mocht je benieuwd zijn naar bepaalde metingen/benchmark met GPU busy ;). Of was de opmerking bedoeld meer in algemene zin om een 4090 aan te schaffen?
-O-
Ik vraag me namelijk echt af wat een RTX4090 laat zien qua GPU Busy en dropped frames in games waarbij die simpelweg niet 100% utilisatie behaald. Maar ik ga het je niet opdringen. :)

offtopic:
Verder zou dual issue uiteraard erg fijn zijn. Overigens vraag ik me ook af of AMD het niet enabled heeft gekregen in The Last of Us. Daar zit namelijk een aardige sprong en daar was de RX7900XT al sneller dan de RX6950XT. Bij Forza 5 verderop lijkt het eerder een reguliere fix te zijn omdat de RX7900XT daar onder presteerde.
YouTube: Radeon RX 7900 XT Re-Review, What Should Have Been!

Verder voor dual issue heeft AMD veel betere dingen in:
https://gpuopen.com/rga/
https://gpuopen.com/rgp/
Als developers dit gebruiken, dan denk ik dat dual issue best wel eens vaak kan werken. Maar of ze het gebruiken is de grote vraag.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:06
Oh dat is geen probleem hoor, ik vind het ook wel leuk om te onderzoeken. Aan wil is er geen gebrek.
Het is alleen zo dat ik de aankomende paar weken daar niet zoveel tijd voor heb.
Maar als de UV tuning voor de 6950XT klaar is, dan kan de 4090FE aan het einde van de rit er weer terug in.
Dan zal ik gelijk wat vergelijkingen maken met GPU busy.

Net heb ik wel even vlug gekeken naar Intel's Presentmon versie en dat ziet er best mooi uit.
Realtime grafisch monitoren van eigenlijk alles wat belangrijk is.
Op mijn main PC met nog de 5800X3D + 6900XT (getuned in eco-mode) lopen de cpu en gpu lijnen strak over elkaar heen bij het betreffende probleemgebied in WoW. Perfect in balans :).
Wat ik nog van de 4090FE herinnerde was dat de utilisatie daar bar slecht was. Iets van 20% versus 95ish % met de 6900XT.
Een ander opvallendheid was dat de 4090FE ook relatief veel FPS verloor met Freesync aan.
Ca. -10% versus - 2% verlies met de 6900XT. En dat nota bene met een 7800X3D cpu voor de 4090FE en een 5800X3D cpu voor de 6900XT.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Ludewig schreef op zaterdag 19 augustus 2023 @ 00:16:
Ze hebben in elk geval weer eigen ideeën, waardoor ze dingen oppakken die Nvidia en AMD laten liggen.
En tegelijkertijd blijven ze vrij open werken. Ik hoop stiekem nog steeds dat Intel en AMD ook op GPU gebied de handen ineen gaan slaan met de open standaarden en tools, want ondanks het feit dat ze al 2 decennia concurrenten waren voordat Nvidia überhaupt bestond, zijn ze ook al heel lang goede partners van elkaar die af en toe botsen. Maar ze hebben elkaar op CPU gebied altijd hard nodig gehad en dat is nu eigenlijk ook zo.
Hopelijk gaat het beter met Battlemage.
Ludewig schreef op zaterdag 19 augustus 2023 @ 12:13:
Ze kwamen ook van ver. Ik heb het idee dat ze nog steeds wel flink achterlopen op Nvidia en AMD. Ik vrees eigenlijk dat het nog een generatie kaarten duurt voordat dit echt op orde raakt.
Ik hoop het echt van harte. Ze lopen absoluut nog flink achter, maar zolang ze realistisch blijven en niet op high-end prijzen in willen zetten, is er absoluut geen reden dat ze niet levensvatbaar kunnen blijven. De high-end is ook niet waar er iets te winnen valt voor ze. Juist in wat tegenwoordig low- en mid-end genoemd dient te worden is veel te winnen, omdat daar al jaren brakke producten uit komen.

Dat is momenteel het grote probleem in GPU land: er is al een jaar of 5-6 vrij weinig beweging qua perf/$. Prestaties zijn wel omhoog gegaan, maar de prijzen ook. Het is triest hoe slecht de markt in elkaar steekt. Ik heb persoonlijk ook de interesse een beetje verloren (vandaar dat ik zo stil ben in alle 3 de topics), want als m'n 1080 Ti het niet begeven had, had ik daar nu, meer dan 6 jaar later, nog steeds op gezeten. Want voor het geld dat ik daar voor neer heb gelegd (en dat was mét waterblok!), kan ik nu een 4070 kopen. That's it. Er is niets anders van de nieuwste generaties beschikbaar voor die prijs (en dan laat ik inflatie nog een beetje meetellen ook). 60% sneller. Op 6 jaar.

Om daar een beetje perspectief in te brengen: diezelfde 1080 Ti afgezet tegen de producten van pakweg 6 jaar eerder (de GTX 580 of 6970): meer dan 4 keer zo snel. Uiteraard een beetje vertekend omdat er tussen die generaties meer te winnen viel dan nu mogelijk is (zelfs een 4090 komt bij lange na niet in de buurt van 4x), maar het zijn de prijzen waardoor het voor ons consumenten zo slecht is. Zelfs de 1080 Ti evenaren kost je nu nog minstens zo'n €300, aan de Nvidia kant moet je nog iets hoger gaan zitten. Zit je alweer zo'n beetje op de helft van wat de 1080 Ti kostte.

Laat ik m'n rant hier maar afbreken, want als ik het ook nog over de nieuwe trends waarbij upscaling en interpolation frame generation "vereist" worden om hoge "framerates" te halen ga hebben...neen, meneer Werelds is niet blij met de stand van zaken voor PC gaming :p
Het is ook goed om te zien dat hij nu zelfstandig mag opereren, terwijl bij de lancering van Arc onze goede vriend Ryan Shroud er steeds bij zat. Ben niet zo'n fan van hem. Blijkbaar heeft Intel nu het vertrouwen dat Petersen geen verkeerde dingen zegt.
Ik denk eerder dat ze gezien hebben dat Ryan niet veel toevoegde buiten het bekende gezicht. Degelijke reviewer, maar op technisch vlak toch niet kundig genoeg om te doen wat Intel wil doen met hun GPU's :)
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 13:17:
Dit is eigenlijk ook precies wat ik van AMD had willen zien.
Ze hebben nu al twee generaties duidelijk een VRAM voordeel wat nu zo hard gaat tellen. Vervolgens hebben ze al zoveel generaties een duidelijk overhead voordeel en dan komt Intel met de tool om het makkelijk uitleesbaar te maken. Datzelfde Intel waar nog steeds een hele hoop games botweg niet fatsoenlijk draaien. Maar Intel durft het wel aan dit breed inzichtelijk te maken en te adverteren.
Intel heeft, voor zover ik het gevolgd heb, echter wel in veel van die games weldegelijk dingen gefixt. Dus er wordt wel tijd en geld in gestoken - en dat is werk dat in de nabije toekomst gewoon relevant blijft, omdat hun architectuur niet meteen 100% op de schop zal gaan, dus het meeste van dat werk blijft effectief.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
CMT schreef op zaterdag 19 augustus 2023 @ 15:48:
Oh dat is geen probleem hoor, ik vind het ook wel leuk om te onderzoeken. Aan wil is er geen gebrek.
Het is alleen zo dat ik de aankomende paar weken daar niet zoveel tijd voor heb.
Maar als de UV tuning voor de 6950XT klaar is, dan kan de 4090FE aan het einde van de rit er weer terug in.
Dan zal ik gelijk wat vergelijkingen maken met GPU busy.

Net heb ik wel even vlug gekeken naar Intel's Presentmon versie en dat ziet er best mooi uit.
Realtime grafisch monitoren van eigenlijk alles wat belangrijk is.
Op mijn main PC met nog de 5800X3D + 6900XT (getuned in eco-mode) lopen de cpu en gpu lijnen strak over elkaar heen bij het betreffende probleemgebied in WoW. Perfect in balans :).
Wat ik nog van de 4090FE herinnerde was dat de utilisatie daar bar slecht was. Iets van 20% versus 95ish % met de 6900XT.
Een ander opvallendheid was dat de 4090FE ook relatief veel FPS verloor met Freesync aan.
Ca. -10% versus - 2% verlies met de 6900XT. En dat nota bene met een 7800X3D cpu voor de 4090FE en een 5800X3D cpu voor de 6900XT.
Ergens vraag ik me ook af of het voordeel van RDNA niet ook juist in zoveel minder shaders zit. Die shaders hebben immers veel meer caches nodig om aan het werk te blijven en dat nadeel af te zetten. Maar het lijkt er ook op dat er daardoor veel meer buffers met instructies zijn die een kleine vertraging aan de CPU kant afvangen. :)
Werelds schreef op zaterdag 19 augustus 2023 @ 17:15:
[...]

En tegelijkertijd blijven ze vrij open werken. Ik hoop stiekem nog steeds dat Intel en AMD ook op GPU gebied de handen ineen gaan slaan met de open standaarden en tools, want ondanks het feit dat ze al 2 decennia concurrenten waren voordat Nvidia überhaupt bestond, zijn ze ook al heel lang goede partners van elkaar die af en toe botsen. Maar ze hebben elkaar op CPU gebied altijd hard nodig gehad en dat is nu eigenlijk ook zo.
Dat zou denk ik ook geweldig zijn. Voornamelijk omdat voor beiden juist de kansen ook liggen in het middensegment, laptops en servers. High end gaming en workstations zijns Nvidia hun domein en daar valt weinig te winnen met de vendor lock die daar bestaat. En als je applicatie of game minstens zo goed draait op iets anders, dan moet je mensen nog zien te overtuigen dat je niet alleen beter bent, maar veel beter dan Nvidia. Het is een bijna kansloze missie. AMD figureert er ook al tijden als een soort Nvidia prijsdrukker.

Recentelijk lekte van alle kanten dan de high end RDNA4 geannuleerd is. Dat zouden echt complexe, dure en zeer high end MCM ontwerpen zijn geweest met vele chiplets. Er zou een focus komen op een goed middensegment volgend jaar. De reacties waren overduidelijk. Zoveel mensen waren boos op een manier dat je zag dat het niet ging om RDNA4, maar om wat Nvidia nu kan gaan doen met high end prijzen. En als dat de houding is, tja. :z
Ik hoop het echt van harte. Ze lopen absoluut nog flink achter, maar zolang ze realistisch blijven en niet op high-end prijzen in willen zetten, is er absoluut geen reden dat ze niet levensvatbaar kunnen blijven. De high-end is ook niet waar er iets te winnen valt voor ze. Juist in wat tegenwoordig low- en mid-end genoemd dient te worden is veel te winnen, omdat daar al jaren brakke producten uit komen.

Dat is momenteel het grote probleem in GPU land: er is al een jaar of 5-6 vrij weinig beweging qua perf/$. Prestaties zijn wel omhoog gegaan, maar de prijzen ook. Het is triest hoe slecht de markt in elkaar steekt. Ik heb persoonlijk ook de interesse een beetje verloren (vandaar dat ik zo stil ben in alle 3 de topics), want als m'n 1080 Ti het niet begeven had, had ik daar nu, meer dan 6 jaar later, nog steeds op gezeten. Want voor het geld dat ik daar voor neer heb gelegd (en dat was mét waterblok!), kan ik nu een 4070 kopen. That's it. Er is niets anders van de nieuwste generaties beschikbaar voor die prijs (en dan laat ik inflatie nog een beetje meetellen ook). 60% sneller. Op 6 jaar.

Om daar een beetje perspectief in te brengen: diezelfde 1080 Ti afgezet tegen de producten van pakweg 6 jaar eerder (de GTX 580 of 6970): meer dan 4 keer zo snel. Uiteraard een beetje vertekend omdat er tussen die generaties meer te winnen viel dan nu mogelijk is (zelfs een 4090 komt bij lange na niet in de buurt van 4x), maar het zijn de prijzen waardoor het voor ons consumenten zo slecht is. Zelfs de 1080 Ti evenaren kost je nu nog minstens zo'n €300, aan de Nvidia kant moet je nog iets hoger gaan zitten. Zit je alweer zo'n beetje op de helft van wat de 1080 Ti kostte.

Laat ik m'n rant hier maar afbreken, want als ik het ook nog over de nieuwe trends waarbij upscaling en interpolation frame generation "vereist" worden om hoge "framerates" te halen ga hebben...neen, meneer Werelds is niet blij met de stand van zaken voor PC gaming :p
En dit is waarom ik dus wel een RX7900XT heb gekocht met de aanbiedingen afgelopen maand. :)
Ik zag dat ik makkelijk 150% prestatiewinst over mijn RX5700XT en dus min of meer een GTX1080Ti (iets van 10% sneller) ging krijgen. Ik wenste ook minstens 2x performance en 2x VRAM capaciteit, dus mijn alternatief was een RX6800XT. Daartussen en de RX7900XT is vervolgens iets van 30% sneller.

De aankomende RX7800XT lijkt niet of nauwelijks sneller te worden dan de RX6800XT. Ik schat zo in dat de RX7800XT rond de €550-€600 gaat kosten, dus de doorrekening is ook niet ongunstig tegen mijn €800 kostende RX7900XT. Ik ben dus eigenlijk ook fors in prijs omhoog gegaan omdat het middensegment zo slecht is. Maar er zijn mogelijkheden voor een forse predatieverbetering zonder echt de hoofdprijs te moeten betalen. Ik heb nu eigenlijk bijna dezelfde prestatie sprong als van mijn oude HD7950 naar mijn RX Vega 56 gemaakt. Ik heb er alleen wel duidelijk meer voor betaald.

Verder heb ik nu wel bruikbare RT hardware en kan ik misschien nog hopen op alle RDNA3 CU features die na verloop van tijd nog gebruikt gaan worden. En dan meteen ook 20GB VRAM dus ook daar geen problemen. 8GB is inmiddels gestotter in recente games op maximale instellingen, zeker met RT, maar ook 12GB is ook geen comfortabele marge in veel recente games. Ergens is het treurig dat deze generatie hun echt goede producten na bijna een jaar pas begint met een afprijsde videokaart voor €800. Maar ik kan niet zeggen dat ik er spijt van heb ondanks dat ik de prijs alsnog fors vond.
Intel heeft, voor zover ik het gevolgd heb, echter wel in veel van die games weldegelijk dingen gefixt. Dus er wordt wel tijd en geld in gestoken - en dat is werk dat in de nabije toekomst gewoon relevant blijft, omdat hun architectuur niet meteen 100% op de schop zal gaan, dus het meeste van dat werk blijft effectief.
Ik krijg er de indruk bij dat Intel voornamelijk meer bekende titels afwerkt en goed aanpakt. Maar hoe het met minder bekende games staat, weet ik echt niet. Ik denk dat ze nog flink wat werk te doen hebben voor met name DX11 games. En dan alsnog. Ik speel ook nog wel eens games van vele jaren geleden en ik betwijfel of ARC daar overal goed zal werken. Maar in ieder geval probeert Intel het nog steeds terwijl ze financieel in zwaar weer zitten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 18:05:
En dit is waarom ik dus wel een RX7900XT heb gekocht met de aanbiedingen afgelopen maand. :)
Ik zag dat ik makkelijk 150% prestatiewinst over mijn RX5700XT en dus min of meer een GTX1080Ti (iets van 10% sneller) ging krijgen. Ik wenste ook minstens 2x performance en 2x VRAM capaciteit, dus mijn alternatief was een RX6800XT. Daartussen en de RX7900XT is vervolgens iets van 30% sneller.

De aankomende RX7800XT lijkt niet of nauwelijks sneller te worden dan de RX6800XT. Ik schat zo in dat de RX7800XT rond de €550-€600 gaat kosten, dus de doorrekening is ook niet ongunstig tegen mijn €800 kostende RX7900XT. Ik ben dus eigenlijk ook fors in prijs omhoog gegaan omdat het middensegment zo slecht is. Maar er zijn mogelijkheden voor een forse predatieverbetering zonder echt de hoofdprijs te moeten betalen. Ik heb nu eigenlijk bijna dezelfde prestatie sprong als van mijn oude HD7950 naar mijn RX Vega 56 gemaakt. Ik heb er alleen wel duidelijk meer voor betaald.

Verder heb ik nu wel bruikbare RT hardware en kan ik misschien nog hopen op alle RDNA3 CU features die na verloop van tijd nog gebruikt gaan worden. En dan meteen ook 20GB VRAM dus ook daar geen problemen. 8GB is inmiddels gestotter in recente games op maximale instellingen, zeker met RT, maar ook 12GB is ook geen comfortabele marge in veel recente games. Ergens is het treurig dat deze generatie hun echt goede producten na bijna een jaar pas begint met een afprijsde videokaart voor €800. Maar ik kan niet zeggen dat ik er spijt van heb ondanks dat ik de prijs alsnog fors vond.
Ik vind ze nog steeds veel te duur voor wat ze bieden. De tweedehands markt begint enigszins bij te trekken, maar ook daar zie je nog regelmatig 3080's en dergelijke langs komen voor €600 of meer, wat gewoon absurd is. Laat staan de mafketels met hun 3090's voor 4 cijfers.

VRAM begint nu ook een groot probleem te worden (ik vind de 4070 voor z'n prijs ook eigenlijk net niet kunnen) en laat uitgerekend Intel daar nu extreem lekker zitten met hun 16 GB A770. Bij AMD kun je, met een beetje goede timing, soms wel een 6800 scoren voor een aardige prijs (in verhouding) zoals deze voor ~€470 op moment van schrijven. Maar over het algemeen kom je een stuk hoger uit - en dan is het alsnog de 6800 die je tegen komt voordat je een Nvidia kaart ziet.

Voorlopig blijft mijn vermoeden dat het Intel is die in de nabije toekomst het middensegment het beste gaat bedienen; vraag is of de consument er in mee wil gaan. Geld heeft Intel niet nodig, maar als er geen consumenten met Intel GPU's zijn, wordt optimalisatie ook niet belangrijk voor devs.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Werelds schreef op maandag 21 augustus 2023 @ 14:46:
[...]

Ik vind ze nog steeds veel te duur voor wat ze bieden. De tweedehands markt begint enigszins bij te trekken, maar ook daar zie je nog regelmatig 3080's en dergelijke langs komen voor €600 of meer, wat gewoon absurd is. Laat staan de mafketels met hun 3090's voor 4 cijfers.
Misschien is de RTX3080 10GB voor €600 nog erger dan de RTX3090. Want de RTX3090 heeft tenminste een adequate hoeveelheid VRAM. Die RTX3080 zie ik het eigenlijk ook niet lang meer volhouden zonder dat je standaard in veel games, lagere settings moet gaan accepteren of RT gewoon uit moet. Toegegeven met GDDR6 chips aan beide kanten van het PCB met de RTX3090, kan de helft zomaar falen vanwege de vaak slechte koeling, zeker een ex mining videokaart, maar toch.

Eigenlijk zijn beiden niet interessant ongeacht prijs.
VRAM begint nu ook een groot probleem te worden (ik vind de 4070 voor z'n prijs ook eigenlijk net niet kunnen) en laat uitgerekend Intel daar nu extreem lekker zitten met hun 16 GB A770. Bij AMD kun je, met een beetje goede timing, soms wel een 6800 scoren voor een aardige prijs (in verhouding) zoals deze voor ~€470 op moment van schrijven. Maar over het algemeen kom je een stuk hoger uit - en dan is het alsnog de 6800 die je tegen komt voordat je een Nvidia kaart ziet.
De RTX4070 zit ook echt op een vervelend punt. Alles eronder van Nvidia is totaal niet interessant of botweg inferieur waardoor je bijna gedwongen word een RTX4070 te kopen. Maar goed is die ook niet voor zulke prijzen. Ik zou denk ik liever een RTX3060Ti kopen dan een RTX4060Ti. En de RTX3060 12GB zeker boven de RTX4060. Maar de RX6700XT/RX6750XT is hier eigenlijk de enige redelijke optie. Dan is de RTX4070Ti echt te duur voor 12GB aan VRAM en de RTX4080 is gewoon veel te duur. De hele generatie is gewoon niks. :P

De meeste N21 deals zijn ook al weg. RX6800XT was tijdenlang vrij gemakkelijk onder de €600 te vinden en RX6950XT onder de €700. En nu N21 redelijk uitverkocht is, komt N32 eraan. Daar lijkt de cut down SKU, de RX7700XT 12GB te worden voor RX6800 prestaties. Dat gaat nog wat worden qua prijs want eigenlijk wil je 16GB. Maar dat is dan weer de RX7800XT 16GB en ik ben wat huiverig over hoeveel die gaat kosten...
Voorlopig blijft mijn vermoeden dat het Intel is die in de nabije toekomst het middensegment het beste gaat bedienen; vraag is of de consument er in mee wil gaan. Geld heeft Intel niet nodig, maar als er geen consumenten met Intel GPU's zijn, wordt optimalisatie ook niet belangrijk voor devs.
Uiteraard hoop ik het, maar ik ben er niet zo zeker van. AMD heeft al een perceptieprobleem waarbij in de midden segmenten, zoveel mensen liever een inferieure GeForce kopen. Intel heeft het nog een stapje erger omdat daar dingen niet op orde waren en ze actief bezig zijn om zaken te verbeteren. :/

Intel zal echt iets moeten doen om mensen die überhaupt iets anders dan Nvidia overwegen, ook nog eens weg te trekken bij AMD. Dat gaat denk ik niet zo makkelijk zijn. Ergste is misschien wel dat dit ook de conclusie lijkt te zijn. Intel concurreert eigenlijk niet echt met Nvidia, maar met AMD. Spelers twee en drie in de GPU markt kunnen de kruimels verdelen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:06
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 18:05:
[...]


Ergens vraag ik me ook af of het voordeel van RDNA niet ook juist in zoveel minder shaders zit. Die shaders hebben immers veel meer caches nodig om aan het werk te blijven en dat nadeel af te zetten. Maar het lijkt er ook op dat er daardoor veel meer buffers met instructies zijn die een kleine vertraging aan de CPU kant afvangen. :)
Chipencheese heeft onderzoek gedaan naar de latency en bandbreedte van de RDNA3 en Lovelace architectuur. Veel wat er staat gaat mij de pet te boven, maar daar is o.a. een stukje te vinden over cache bandbreedte bij lage occupancy: https://chipsandcheese.co...-3-graphics-architecture/
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_wgp_bw.png?resize=768%2C332&ssl=1

En de latency in het algemeen: Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_cl_scalar_latency-2.png?ssl=1

Ik weet niet of dit de vraag beantwoordt?
Mochten er specifieke dingen zijn waarvan je graag een vergelijking ziet, dan zeg het maar hoor ;).
Ik heb helaas alleen geen Anno.
Recentelijk lekte van alle kanten dan de high end RDNA4 geannuleerd is. Dat zouden echt complexe, dure en zeer high end MCM ontwerpen zijn geweest met vele chiplets. Er zou een focus komen op een goed middensegment volgend jaar. De reacties waren overduidelijk. Zoveel mensen waren boos op een manier dat je zag dat het niet ging om RDNA4, maar om wat Nvidia nu kan gaan doen met high end prijzen. En als dat de houding is, tja. :z
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Ik krijg er de indruk bij dat Intel voornamelijk meer bekende titels afwerkt en goed aanpakt. Maar hoe het met minder bekende games staat, weet ik echt niet. Ik denk dat ze nog flink wat werk te doen hebben voor met name DX11 games. En dan alsnog. Ik speel ook nog wel eens games van vele jaren geleden en ik betwijfel of ARC daar overal goed zal werken. Maar in ieder geval probeert Intel het nog steeds terwijl ze financieel in zwaar weer zitten. :)
Persoonlijk wil ik Intel daarom wel een kans geven. Wanneer ze alles open houden kan dat nog best leuk worden voor de DIY / tweaker community.
Het lijkt er wel een beetje op dat Intel daar een band mee probeert te vormen door de presentmon tool beschikbaar te maken. Van deze achterhoede moet je het eigenlijk ook hebben om anderen over te halen (Jan alleman die normaal gesproken alleen Nvidia koopt, omdat deze de rest niet vertrouwd).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op maandag 21 augustus 2023 @ 17:59:
[...]
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Dan hebben we het over CDNA 4 en die verwacht ik zeker. Maar dat betekent niet dat ze een MCM versie van RDNA 4 maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Oke, ik ben de tijd vergeten, minder gamen met mijn RX7900XT vanavond. :P
CMT schreef op maandag 21 augustus 2023 @ 17:59:
[...]

Chipencheese heeft onderzoek gedaan naar de latency en bandbreedte van de RDNA3 en Lovelace architectuur. Veel wat er staat gaat mij de pet te boven, maar daar is o.a. een stukje te vinden over cache bandbreedte bij lage occupancy: https://chipsandcheese.co...-3-graphics-architecture/
[Afbeelding]

En de latency in het algemeen: [Afbeelding]

Ik weet niet of dit de vraag beantwoordt?
Mochten er specifieke dingen zijn waarvan je graag een vergelijking ziet, dan zeg het maar hoor ;).
Ik heb helaas alleen geen Anno.
Ik heb die al een tijd geleden gelezen. :)
Maar ik doel op iets anders. Een RX7900XTX met 6144 ALU's (die tweede 6144 ALU's doen niet zoveel) kan een RTX4080 met 9728 ALU's bijhouden. Het verschil in occupency is enorm, zeker omdat die RTX4080 ook nog eens hogere clock speeds heeft. Dat kan alleen maar als AMD veel beter in staat is om haar GPU aan het werk te houden dan Nvidia.

Nu bestaat 100% occupency eigenlijk niet met videokaarten. Er zullen elke clock cycle wel ALU's zijn die geen rekenopdracht hebben. Maar het moge duidelijk zijn dat AMD dat een flink stuk beter doet dan Nvidia. Mijn gedachte daarbij is ook dat als je consistenter je hardware aan het werk houdt, dit ook wel eens mede kan verklaren waarom je betere frametimes behaald. Maar dit echt goed beantwoorden is lastig. :)

Overigens maakt dit ook mede de problemen van Intel duidelijk. De A770 heeft net zoals Turing een SIMD32 met 16x FP en 16x INT en daarnaast hun XMX matrix engine. Vervolgens heeft Intel twee SIMD32 + XMX engines aan elkaar verbonden. Ik vermoed dat het daar al misgaat voor Intel. Ik denk namelijk dat Intel het niet voor elkaar krijgt om deze grote en complexe Xe cores aan het werk te zetten en te houden. Om hier namelijk goede occupency te krijgen, moeten ze elke cycle, 16x FP en 16x INT instructies zien te groeperen en naar de executie units zien te krijgen. Nvidia kreeg dat voor elkaar met Turing, maar stapte er met Ampere eigenlijk alweer vanaf. Ik vraag me hardop af of dat niet voor Intel ook de oplossing kan zijn? Maar misschien is de beste oplossing voor Intel eens heel goed naar RDNA kijken en het bij een simpelere SIMD32 houden waarbij dezelfde ALU's zowel FP als INT doen.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch7.jpg

Hun XMX engine is nu ik nog eens kijk, ook niet gelijkwaardig aan wat RDNA3 heeft. RDNA3 doet namelijk 256Ops/clock voor FP16, BF16, INT8 en INT4. Intel heeft andere waarden. Maar Intel kan wel parallel hun XMX engines gebruiken aan hun shaders, AMD niet en Nvidia kan ook niet een instructie issuen aan hun shaders alsmede tensor cores. Dat is altijd een pick one situatie.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch9.jpg

Qua RT heeft Intel denk ik een middenpositie tussen Nvidia en AMD. Intel haar aanpak staat een serieus goede hoeveelheid ray/box intersections toe, maar niet veel ray/triangle. AMD doet hier 4/1. Nvidia is altijd vaag geweest, maar het lijkt voor Turing 1/1, Ampere 2/2 en Ada 4/4 te zijn. Ik weet in ieder geval vrij zeker dat die ray/triangles zo zijn. Ray/box intersection heeft Nvidia volgens mij officieel nooit medegedeeld.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch17.jpg

Vervolgens heeft Intel hun RT implementatie grotendeels losgekoppeld van hun shaders. Verder hebben ze meteen sorteringhardware aangebracht. Nvidia heeft dat nu ook met Ada, maar alleen als je het op software niveau implementeert. Dus alleen Cyberpunk heeft het want verkapte Nvidia tech demo. :z
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch20.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch18.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch19.jpg
Verder heeft Intel maar 32 van deze RT units op A770. Zwak lijken die niet te zijn.

Kwam per toeval dit ook nog tegen wat mijn vermoedens bevestigd. AMD lijkt inderdaad heel erg veel BvH stappen te doen om minder ray/box en ray/triangle intersection tests uit te voeren. Het betekent wel dat ze hun RT veel meer serieel moeten doen en voor elke stap ook ergens de data moeten opslaan. Dat is ook waarom RDNA3 een forse verbetering in RT heeft. Grotere en sneller toegankelijke caches alsmede verbetering in hun BvH creatie. Het is zoals altijd met RDNA, culling en optimaliseren van hardware.

Nvidia doet bijna het tegenovergestelde. Nvidia heeft juist veel shaders, veel SM's en speelt daar op in. Het lijkt erop dat Nvidia de top level acceleration structure (TLAS) in een paar cycles afhandelt met RT en meteen doorgaat naar veel grotere bottom level acceleration structures (BLAS). En daar gaan ze ray/box en voornamelijk ray/triangle intersections uitvoeren. Vele intersections, veel veel meer dan AMD zal doen. Daar is ook wel een reden voor. Een dergelijke instructie is niet gedaan in een cycle. Wat Nvidia kan doen is een dergelijke instructie aan hun RT core toewijzen en vervolgens weer verdergaan met instructies aan de SM's toewijzen. Af en toe denoisen met de tensor cores en weer door.

Dit is overigens ook waarom Nvidia het over path tracing ging hebben. Veel meer ray/triangle intersections, veel minder BvH. Ada ziet er goed uit, in het bijzonder de RTX4090 die echt los kan gaan, de rest niet. Idem waarom er voor Witcher 3 en Cyberpunk mods zijn die ray/triangle intersections drastisch verlagen voor minimaal grafisch verlies, met voornamelijk enorme prestatiewinsten voor AMD. En dit is waarschijnlijk ook waarom de eerste UE5 Lumen games vooralsnog de indruk wekken dat een RTX4080 daar niet veel sneller in RT is dan een RX7900XTX, idem voor de RX4070Ti en de RX7900XT.

Kijk alleen al naar het verschil en hoeveel complexer BvH structuren voor AMD zijn. Dat is bewust omdat AMD net zoals Nvidia, inspeelt op haar sterke. RDNA is toch al een beetje een onconventionele GPU architectuur omdat er best wat "CPU" dingen in zitten. L1-2-3 cache, erg flexibele en capabele ALU's, doet meer dingen in serie dan parallel met minder ALU's etc. Het is ook geen geheim dat een aantal belangrijke mensen van het Zen 1 team, op RDNA zijn gezet. ;)
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/6900xt_cp2077_overview.jpg?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/6900xt_cp2077_tree_blas.jpg?ssl=1

En Nvidia houd het een stuk simpeler, maar loopt veel meer intersections te testen.
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/2060_cp2077_mox_tlas.jpg?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/2060_cp2077_tlas_variable.jpg?ssl=1


@Werelds Ik denk dat jij dat artikel ook wel leuk vind als je tijd hebt. :)
https://chipsandcheese.co...vidias-turing-and-pascal/

Intel is helaas niet getest, maar ik vermoed dat ze een middenpositie aannemen. Ze kunnen die extreem diep BvH structuren van AMD niet aan en de enorme ray/triangle intersection tests van Nvidia ook niet. Dus lijkt het erop dat ze een beetje van beiden doen. Intel heeft haar BvH hardware niet zomaar haar eigen cache gegeven. Hun BvH structuur zal ook complexer zijn dan wat Nvidia doet en dat proberen ze zoveel mogelijk lokaal op te slaan zoals AMD ook probeert. Maar ze kunnen veel meer ray/box intersections dan AMD doen, dus hoeven ze ook niet zo enorm ver te gaan als wat AMD heeft gedaan.

Ik vermoed dat zowel AMD als Intel een vrij gemakkelijke "performance fix" kunnen implementeren in de toekomst. Botweg meer ray/triangle intersections. Al gaan ze van 1 naar 2, het is een verdubbeling. Met name voor AMD zou dat wel eens heel wat kunnen opleveren. Qua Intel denk ik dat hun fundament niet zo slecht is. Zeker voor een eerste generatie is dit echt wel beter dan Turing of RDNA2. Het is denk ik ook een van de beste stukken van Arc.
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Ik vermoed eerder dat een annulering met kosten en marktpositie te maken heeft. N41 zou van wat nu gelekt is, een absoluut monster zijn. Je gaat anders niet negen aparte, vermoedelijk Shader Engine chiplets 3D stacken op een actieve interposer. Zeker omdat ik niet verbaast zou zijn als die interposer chiplets, L3 cache alsmede de geheugencontrollers zouden bevatten.

Verder heeft zo ongeveer elke RDNA chip een Shader Array diepte van 8-10CU's gehad en twee array's vormen een engine. Reken maar uit, dat was waarschijnlijk een 144CU GPU. Immers 8CU x 2 arrays x 9 chiplets. Vervolgens de vraag of RDNA4 wel clock speed targets haalt. In ieder geval, die chip zou zeker 50% sneller moeten zijn dan N31. Maar ik vermoed ook dat die duurder dan N31 zou zijn om te maken. En wie gaat dat kopen?
[...]

Persoonlijk wil ik Intel daarom wel een kans geven. Wanneer ze alles open houden kan dat nog best leuk worden voor de DIY / tweaker community.
Het lijkt er wel een beetje op dat Intel daar een band mee probeert te vormen door de presentmon tool beschikbaar te maken. Van deze achterhoede moet je het eigenlijk ook hebben om anderen over te halen (Jan alleman die normaal gesproken alleen Nvidia koopt, omdat deze de rest niet vertrouwd).
Ik op termijn misschien ook wel. Maar het is Intel. Niet bepaald een bedrijf dat liefdadigheid nodig heeft.
Intel moet gaan presteren. En ideaal gezien schopt Intel, AMD dan ook wakker in dat de rest van de videokaarten markt niet gegarandeerd voor hun is. Want daar mogen ze er ook wat voor gaan doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Niet alleen Werelds hoor; deze leest best makkelijk weg.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:06
Ik weet niet of het nieuwswaardig is, maar aangezien eerder gepost werd over Intel's Presentmon UI en de 'GPU busy' parameter, plaats ik het maar hier.

CapFrameX heeft nu een beta uitgebracht om ook 'GPU busy' te kunnen loggen: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.2beta
De UI van Intel is erg fijn om dingen in realtime in de gaten te houden (alles grafisch), maar wat betreft loggen en analyseren voor later is CapFrameX toch koning.
Ook omdat vele dingen (nog) niet werken van Intel's Presentmon UI.

Ik heb er wel een beetje mee zitten spelen en 'GPU busy' kan ook heel goed gebruikt worden om de GPU op het systeem af te stellen met een UV en clock / power begrenzing :).
Pagina: 1 2 3 Laatste