Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Nu online
ocf81 schreef op dinsdag 21 maart 2023 @ 23:20:
Ik vraag me dan af wat er nu van Intel op GPU gebied terecht moet gaan komen. Is dit niet de zwanenzang van de GPU divisie, buiten de iGPU's?
Raja Koduri is al vaker weggegaan bij bedrijven. Dat hij bij Intel weg zou gaan stond eigenlijk ook al vast, alleen het wanneer niet. Om dat nou een zwanenzang te noemen lijkt me alleszins voorbarig. Het is niet alsof Koduri hoogstpersoonlijk heel Arc ontworpen heeft en men nu met de handen in het haar zit voor hoe het nu moet na Battlemage. :P Je kunt het in plaats van een zwanenzang ook zien als een divisie die de steunwieltjes niet meer nodig heeft. De waarheid zal ergens in het midden liggen.

Het idee dat Koduri de bron van alle kwaad is mag ook wel eens genuanceerd worden. De beste man is geen verlosser, dat mag duidelijk zijn, maar het is zeer de vraag of er zonder hem en zijn jaren ervaring überhaupt wel een dGPU divisie van de grond gekomen was bij Intel, ook als die divisie niet gelijk de hele wereld op z'n kop zet met het eerste product.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Heb nu eindelijk een uitvoering: ASRock Intel Arc A750 Challenger D 8GB OC besteld. Ik ben heel benieuwd hoe hij zich gaat gedragen in OpenGL applicaties; met name in Godot gezien ik hem daar juist voor heb gekocht.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Was helemaal vergeten dat Matrox er ook nog was:
https://www.anandtech.com...s-for-luma-graphics-cards

Die zijn nu een ook een AIB van Intel geworden.

Acties:
  • +1 Henk 'm!

  • Captain Pym
  • Registratie: Augustus 2012
  • Laatst online: 06-08 22:24
Amos_x schreef op woensdag 28 december 2022 @ 12:42:
Domme vraag. Stel dat je een intel cpu (of amd cpu?) met iGPU combineert met een ARC. Kan je dan naar keuze en afhankelijk van je workload switchen van de iGPU naar de ARC DGPU?

MOBO en ARC elk met een hdmi naar pc scherm en dan switchen op het scherm.

Dit om een workaround te vinden voor het hoge idle verbruik. Het gebeurt soms dat ik weken/maanden niet game of die extra kracht niet nodig heb. Of zal de ARC, als 'ie in de pc zit, toch sowieso die idle draw uit de PCI-e poort trekken? (40 watt was het toch in idle?)

379 euro voor een 3060ti equivalent kaart met redelijke ray tracing is toch echt niet slecht.

Hoe is VR op intel ARC? Iemand ervaring? MSFS bvb?
Er is wel iets dat heet Intel Deep Link Technology. Dat zorgt er eigenlijk alleen voor dat de iGPU en ARC GPU in specifieke ondersteunde scenario's samenwerken.
Best wel stoer voor content creators maar zeker niet iets om de gemiddelde consument over de streep te slepen.
https://www.intel.com/con...gy/adaptix/deep-link.html

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik zou wel graag zien dat spellen de iGPU gaan gebruiken voor betere natuurkundige berekeningen. Op zich zou dat moeten kunnen. En omdat AMD met AM5 nu ook standaard een iGPU meelevert zou dat ook geen probleem meet moeten zijn.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oh dit is leuk. :*)

Intel heeft een UI bovenop PresentMon gebouwd. Dat is een applicatie waarmee je frametimes kan meten bovenop andere metrics zoals temperaturen, fps, voltage, frequentie etc. Maar Intel heeft er ook een functie bij ontwikkeld die ze GPU Busy noemen. Dat is een relatief simpele overlay bovenop je frametime grafieken. Simpelweg als de GPU Busy lijn ongeveer over de frametime ligt, dan is je systeem in balans of heb je de gewenste GPU beperking. Ligt de GPU busy lijn onder de frametime, dan kijk je naar een bottleneck. En dit is vendor agnostisch met ondersteuning voor DX9/DX11/DX12 en Vulkan. :Y


https://game.intel.com/story/intel-presentmon/

@CMT Nu ben ik toch stiekem benieuwd naar die RTX4090. ;)
@Werelds Ik vermoed zo dat jij dit ook wel leuk vind. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:49
Had hem inderdaad al gezien, mooi werk. Voor reviewers meer werk, maar voor ons consumenten komt er gewoon nog betere data. Zien welke games gewoon brak zijn, welke drivers traag zijn :)

Ik blijf er bij dat Intel goed bezig is. Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken. Dit valt gewoon in dat laatste er bij, mooi dat ze het open maken. En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op vrijdag 18 augustus 2023 @ 20:27:
Ik blijf er bij dat Intel goed bezig is.
Ze hebben in elk geval weer eigen ideeën, waardoor ze dingen oppakken die Nvidia en AMD laten liggen.
Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken.
Hopelijk gaat het beter met Battlemage.
En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.
Het is ook goed om te zien dat hij nu zelfstandig mag opereren, terwijl bij de lancering van Arc onze goede vriend Ryan Shroud er steeds bij zat. Ben niet zo'n fan van hem. Blijkbaar heeft Intel nu het vertrouwen dat Petersen geen verkeerde dingen zegt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12:11
@DaniëlWW2
Oh wow, hier kan ik echt enthousiast van worden :). Sommige in-game benchmarks hadden iets vergelijkbaars, met een CPU time & GPU time meting (o.a. Borderlands 3, Shadow of the Tombraider), maar dit is wel next level en zal veel meer inzicht geven.
Ik hoop dat dit ook een aanzet kan zijn voor developers om games of de driver te optimaliseren voor de dual-issue mogelijkheid van RDNA3. Dat zou wel heel leuk zijn als zo meteen meer games op het niveau van Cyberpunk 2077, Cod MW weten te presteren en het vuur aan de schenen legt van de RTX4090.

Helaas heb juist gisteren de 4090FE uit het testsysteem gehaald om aan de slag te kunnen gaan met het tunen van de 6950XT (de deadline van het verjaardagsproject begint een beetje te dringen).
Maar ik kan het wel even ombouwen mocht je benieuwd zijn naar bepaalde metingen/benchmark met GPU busy ;). Of was de opmerking bedoeld meer in algemene zin om een 4090 aan te schaffen?

@Werelds
Vind ik ook. Ze timmeren echt hard aan de weg en ik kijk dan ook reikhalzend uit naar Battlemage.
Het idle verbruik was met de ARC 700 serie redelijk op te lossen door specifieke PCIe ASPM bios (regelt de PCIe powerstates) opties aan te zetten (als het moederbord deze optie heeft). Resultaat was van ca. 40W idle naar een meer normale 8-20W. En met de driver hebben ze flinke stappen gezet. Ik zou wel eens willen zien hoe de verhouding daarmee nu is t.o.v. de 3060Ti.

[ Voor 20% gewijzigd door CMT op 19-08-2023 12:36 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op zaterdag 19 augustus 2023 @ 02:22:
En met de driver hebben ze flinke stappen gezet. Ik zou wel eens willen zien hoe de verhouding daarmee nu is t.o.v. de 3060Ti.
Ze kwamen ook van ver. Ik heb het idee dat ze nog steeds wel flink achterlopen op Nvidia en AMD. Ik vrees eigenlijk dat het nog een generatie kaarten duurt voordat dit echt op orde raakt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 18 augustus 2023 @ 20:27:
Had hem inderdaad al gezien, mooi werk. Voor reviewers meer werk, maar voor ons consumenten komt er gewoon nog betere data. Zien welke games gewoon brak zijn, welke drivers traag zijn :)

Ik blijf er bij dat Intel goed bezig is. Arc was wellicht niet de killer waar sommigen op hoopten, maar voor een eerste generatie is het heel degelijk en ze hebben inmiddels laten zien de software kant ook aan te kunnen pakken. Dit valt gewoon in dat laatste er bij, mooi dat ze het open maken. En Petersen zit hier ook beter op z'n plek dan bij Nvidia, waar hij vaak onzin verkocht omdat dat nou eenmaal bij hun marketing hoorde. Het lijkt alsof hij hier gewoon weer z'n technische zelf mag zijn.
Dit is eigenlijk ook precies wat ik van AMD had willen zien.
Ze hebben nu al twee generaties duidelijk een VRAM voordeel wat nu zo hard gaat tellen. Vervolgens hebben ze al zoveel generaties een duidelijk overhead voordeel en dan komt Intel met de tool om het makkelijk uitleesbaar te maken. Datzelfde Intel waar nog steeds een hele hoop games botweg niet fatsoenlijk draaien. Maar Intel durft het wel aan dit breed inzichtelijk te maken en te adverteren.


Tweede is dat ik ook al ben gaan spelen met XeSS. Het is helaas Witcher 3 en Cyberpunk waar alle aandacht naar Nvidia gaat en de rest ook nog wel eens komt, maar daar zit ook wel potentie in. Het lijkt een beetje gemixed te zijn omdat beide implementaties vrij matig lijken. FSR2 is een beetje blurry, maar wel consistent. XeSS is net wat meer gedetailleerd dichtbij en soms net wat scherper, maar op soms zelfs een paar meter zakt het al in. XeSS lijkt shimmering wel beter te voorkomen dan FSR2. In die twee games is het precies zoals Nvidia zou willen. :z Witcher 3 doet pijn. Best game ever. :> ;(

Maar bij mij roept het wel weer een andere vraag op. XeSS heeft een Intel only mode op hun toch niet misstaande XMX engines. FSR2 is puur shader. XeSS met XMX kan ik niet testen met mijn gloednieuwe RX7900XT, maar die heeft matrix acceleration. Het zal niet geweldig zijn, maar het zit erin. Ik zit me al maanden hardop af te vragen wanneer dit gebruikt gaat worden voor een temporal upscaler? Het is voor mij zo'n inkoppertje.

Ik had het er volgens mij anderhalf jaar geleden al over toen al lekte dat RDNA3 die functionaliteit had. FSR2 lijkt als algoritme echt niet slecht te zijn, maar lijkt rauwe rekenkracht te missen voor die laatste stap. XeSS lijkt ook de potentie te hebben om vergelijkbaar met DLSS2 te zijn, maar dan alleen de XMX versie. Concreet voor mij: Wanneer gaat Intel of AMD in het gat duiken en hun upscaler openstellen aan de matrix hardware van de concurrenten? Desnoods alleen voor elkaar en niet Nvidia als daar problemen ontstaan.

Degene die het doet, is voor mij zeker de morele winnaar, als je niet gewoon de winnaar in de upscaling race gaat worden door die zet. Het kan me weinig schelen of het "FSR2 AI" of XeSS is. Persoonlijk game ik nog steeds graag zonder, maar voor RT is soms ook mooi :*) is het helaas toch wel nodig. Ik kan er mee wegkomen zonder, maar met upscaling zijn de framerates wat comfortabeler in die twee games. Uiteraard beiden met mods om het ergste van de RTX implementaties eraf te schrapen. Ik haalde zelfs circa 45fps met full PT in Cyberpunk en FSR2 met een snelle test. :P

offtopic:
Vanuit AMD kan ik ook niet begrijpen wat ze aan het doen zijn. Komende week lijkt N32 te komen en vermoedelijk horen we dan ook wat over FSR3. Aardige kans dat het in Starfield zit. Misschien ook wel goed omdat het een "Todd Howard" game is, dus twee CPU cores aanspreken zou al wat zijn. :Y)
Verder ga ik dat aankijken. Bij FSR3 zal ook een forse latency reductie moeten zitten omdat het anders onbruikbaar is. En of het nu beter gaat werken dan DLSS3...


Ik snap vervolgens gewoon niet waarom AMD dit niet allang gebruikt voor een betere "FSR2 AI". Ze kunnen zo nota bene meeliften op de AI hype door iets AI te noemen. :z

Ik wil graag aanstippen dat Intel XeSS in XMX mode 128 INT8 Ops/cycle tot haar beschikkking heeft. Of die ook allemaal nodig zijn of in gebruik, laat ik in het midden. De fallback is DP4a waarbij maximaal 4x INT8 worden gedaan door een SIMD32. Daarom is XeSS van mindere kwaliteit zonder XMX engines.
XeSS operates on Intel's Arc XMX cores, but it can also run on other GPUs in a slightly different mode. DP4a instructions are basically four INT8 (8-bit integer) calculations done using a single 32-bit register, what you'd typically have access to via a GPU shader core. XMX cores meanwhile natively support INT8 and can operate on 128 values at once.
https://www.tomshardware....hnology-demo-and-overview

Ondertussen kan RDNA3 in WMMA mode, 256 INT8 Ops/Cycle doen. Hierbij vermoed ik dat er wat terminologie verwarring optreed. AMD lijkt waarde van een INT8 instructie waar twee operaties worden afgehandeld te hebben opgegeven en Intel een instructie met een operatie per clock. Ze lijken dus gelijkwaardig te zijn.

Het is hier verder niet parallel met een apart hardware block. Het zal serieel moeten. AMD hun voordeel zal zoals altijd uit betere scheduling en occupency moeten komen. Maar meer doen met minder hardware is wat RDNA doet.

In theorie zou XeSS haar XMX mode dus moeten kunnen werken op RDNA3. Misschien niet als XMX mode, maar als een meer generieke "WMMA/matrix INT8 mode". Dit geld overigens ook voor Nvidia. Turing haar Tensor cores doen in voor FP16 64 instructies met twee operaties per clock (FMA) voor een totaal van 128. Voor INT8 is het ook 128/256.

Overigens is FSR2 veel meer gebaseerd op floats dan integers. Met name FP16 met een FP32 fall back laag. Maar RDNA3 ondersteunt ook WMMA voor FP16. Er zitten alleen beperkingen op die tweede SIMD32. Idem voor dual issue wat er ook nog is. Hoe dat precies zit, durf ik niet te zeggen.

Kort samengevat:
XeSS = matrix integer based. XeSS heeft een shader DP4a fall back waarmee je met AMD per SIMD32, 32 x 4 = 128 INT8 per clock hebt. Nvidia heeft per SIMD32 maar 16x INT en zo te zien ook geen ondersteuning voor low precision acceleratie. Kan het in ieder geval niet vinden.
FSR2 = voornamelijk FP16 based. Vertrouwt grotendeels op SIMD32 x 2 = 64 FP16 voor AMD. Nvidia heeft met Ampere en Ada weer hun 2x FP16 functionaliteit verloren dus maximaal 32. Turing is ook maximaal 32 omdat er maar 16 FP ALU's zijn. ARC heeft wel 2x FP16, maar heeft net zoals Turing een 50/50 split tussen FP en INT units. Per Xe-Core met 256 shaders dus 128 x 2 = 256. Voor diezelfde 256 Shaders kan AMD 512 FP16 instructies uitvoeren. En dat is waarschijnlijk waarom FSR2, veel meer floating points gebruikt.
DLSS2 = Nvidia black box en waarschijnlijk grotendeels integer based. Maar gezien Turing kan het niet meer zijn dan XeSS op een XMX engine.

Afbeeldingslocatie: https://tweakers.net/i/fOCeIJ3a7nE6hE2yQJVVL6K3Zgk=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/KtISx5L0HavMZpncpDuGrekJ.webp?f=fotoalbum_medium
Afbeeldingslocatie: https://tweakers.net/i/1fK4ucV8L7rPqP0VAnzi8g-vakg=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/3szHXrHlYLeWIG6te5Wrm6EG.webp?f=fotoalbum_medium
Afbeeldingslocatie: https://tweakers.net/i/2XdxGLG9LF9aqALDOpJrlVMkJes=/234x176/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/RPUnOHi11kI0XSn7jlvCyAne.webp?f=fotoalbum_medium

Afijn genoeg over de RTG. :P
Ik ben uiteraard al gaan spelen met Intel PresentMon. Ik heb deze config al gemaakt. Er zijn nog veel meer settings, maar deze interesseerden mij. Je kan settings groeperen, bepaalde uitleeswaarden rechts zetten, elke setting een kleur uit een kleurenpalet geven, profielen maken met gewenste settings en die opslaan en voor sommige functies kan je ook een histogram maken.
Afbeeldingslocatie: https://tweakers.net/i/ytPIp9PgI4TFE8kem2BJ-uHosWk=/800x/filters:strip_icc():strip_exif()/f/image/LJFrfNiNB83HHkqX0yVmNEEV.jpg?f=fotoalbum_large

De software auto target de grafisch meest intensieve workload en dat lijkt te werken. Op de achtergrond leest de software zo te zien ook telemetrie vanuit AMD hun software uit. Hotkeys voor zowel aanzetten als logging zijn alsmede een limiet hoe lang je de logging wil maken. Daarbij zitten ook zaken zoals GPU voltage, tearing en de verschillende fasen van frame rendering.
Afbeeldingslocatie: https://tweakers.net/i/RVcatgfbDqR2C7TYOZC3Srj3O4A=/800x/filters:strip_icc():strip_exif()/f/image/l9r32VqwfnWLEAZmrL2OBB1k.jpg?f=fotoalbum_large

In game krijg je dan dit. Helaas werkt niet alles. Ik heb verder bewust ANNO 1800 gekozen omdat deze game het concept van multicore CPU ook lastig vind. Beetje rond mijn stad bewegen en dan krijg je al zoiets als dit:
Afbeeldingslocatie: https://tweakers.net/i/t9ocJ-RV4KXcFUqCa1MKcAd3vKg=/800x/filters:strip_icc():strip_exif()/f/image/fPzR6oTWcn1Wb99QJQpGFLC0.jpg?f=fotoalbum_large
CMT schreef op zaterdag 19 augustus 2023 @ 02:22:
@DaniëlWW2
Oh wow, hier kan ik echt enthousiast van worden :). Sommige in-game benchmarks hadden iets vergelijkbaars, met een CPU time & GPU time meting (o.a. Borderlands 3, Shadow of the Tombraider), maar dit is wel next level en zal veel meer inzicht geven.
Ik hoop dat dit ook een aanzet kan zijn voor developers om games of de driver te optimaliseren voor de dual-issue mogelijkheid van RDNA3. Dat zou wel heel leuk zijn als zo meteen meer games op het niveau van Cyberpunk 2077, Cod MW weten te presteren en het vuur aan de schenen legt van de RTX4090.

Helaas heb juist gisteren de 4090FE uit het testsysteem gehaald om aan de slag te kunnen gaan met het tunen van de 6950XT (de deadline van het verjaardagsproject begint een beetje te dringen).
Maar ik kan het wel even ombouwen mocht je benieuwd zijn naar bepaalde metingen/benchmark met GPU busy ;). Of was de opmerking bedoeld meer in algemene zin om een 4090 aan te schaffen?
-O-
Ik vraag me namelijk echt af wat een RTX4090 laat zien qua GPU Busy en dropped frames in games waarbij die simpelweg niet 100% utilisatie behaald. Maar ik ga het je niet opdringen. :)

offtopic:
Verder zou dual issue uiteraard erg fijn zijn. Overigens vraag ik me ook af of AMD het niet enabled heeft gekregen in The Last of Us. Daar zit namelijk een aardige sprong en daar was de RX7900XT al sneller dan de RX6950XT. Bij Forza 5 verderop lijkt het eerder een reguliere fix te zijn omdat de RX7900XT daar onder presteerde.
YouTube: Radeon RX 7900 XT Re-Review, What Should Have Been!

Verder voor dual issue heeft AMD veel betere dingen in:
https://gpuopen.com/rga/
https://gpuopen.com/rgp/
Als developers dit gebruiken, dan denk ik dat dual issue best wel eens vaak kan werken. Maar of ze het gebruiken is de grote vraag.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12:11
Oh dat is geen probleem hoor, ik vind het ook wel leuk om te onderzoeken. Aan wil is er geen gebrek.
Het is alleen zo dat ik de aankomende paar weken daar niet zoveel tijd voor heb.
Maar als de UV tuning voor de 6950XT klaar is, dan kan de 4090FE aan het einde van de rit er weer terug in.
Dan zal ik gelijk wat vergelijkingen maken met GPU busy.

Net heb ik wel even vlug gekeken naar Intel's Presentmon versie en dat ziet er best mooi uit.
Realtime grafisch monitoren van eigenlijk alles wat belangrijk is.
Op mijn main PC met nog de 5800X3D + 6900XT (getuned in eco-mode) lopen de cpu en gpu lijnen strak over elkaar heen bij het betreffende probleemgebied in WoW. Perfect in balans :).
Wat ik nog van de 4090FE herinnerde was dat de utilisatie daar bar slecht was. Iets van 20% versus 95ish % met de 6900XT.
Een ander opvallendheid was dat de 4090FE ook relatief veel FPS verloor met Freesync aan.
Ca. -10% versus - 2% verlies met de 6900XT. En dat nota bene met een 7800X3D cpu voor de 4090FE en een 5800X3D cpu voor de 6900XT.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:49
Ludewig schreef op zaterdag 19 augustus 2023 @ 00:16:
Ze hebben in elk geval weer eigen ideeën, waardoor ze dingen oppakken die Nvidia en AMD laten liggen.
En tegelijkertijd blijven ze vrij open werken. Ik hoop stiekem nog steeds dat Intel en AMD ook op GPU gebied de handen ineen gaan slaan met de open standaarden en tools, want ondanks het feit dat ze al 2 decennia concurrenten waren voordat Nvidia überhaupt bestond, zijn ze ook al heel lang goede partners van elkaar die af en toe botsen. Maar ze hebben elkaar op CPU gebied altijd hard nodig gehad en dat is nu eigenlijk ook zo.
Hopelijk gaat het beter met Battlemage.
Ludewig schreef op zaterdag 19 augustus 2023 @ 12:13:
Ze kwamen ook van ver. Ik heb het idee dat ze nog steeds wel flink achterlopen op Nvidia en AMD. Ik vrees eigenlijk dat het nog een generatie kaarten duurt voordat dit echt op orde raakt.
Ik hoop het echt van harte. Ze lopen absoluut nog flink achter, maar zolang ze realistisch blijven en niet op high-end prijzen in willen zetten, is er absoluut geen reden dat ze niet levensvatbaar kunnen blijven. De high-end is ook niet waar er iets te winnen valt voor ze. Juist in wat tegenwoordig low- en mid-end genoemd dient te worden is veel te winnen, omdat daar al jaren brakke producten uit komen.

Dat is momenteel het grote probleem in GPU land: er is al een jaar of 5-6 vrij weinig beweging qua perf/$. Prestaties zijn wel omhoog gegaan, maar de prijzen ook. Het is triest hoe slecht de markt in elkaar steekt. Ik heb persoonlijk ook de interesse een beetje verloren (vandaar dat ik zo stil ben in alle 3 de topics), want als m'n 1080 Ti het niet begeven had, had ik daar nu, meer dan 6 jaar later, nog steeds op gezeten. Want voor het geld dat ik daar voor neer heb gelegd (en dat was mét waterblok!), kan ik nu een 4070 kopen. That's it. Er is niets anders van de nieuwste generaties beschikbaar voor die prijs (en dan laat ik inflatie nog een beetje meetellen ook). 60% sneller. Op 6 jaar.

Om daar een beetje perspectief in te brengen: diezelfde 1080 Ti afgezet tegen de producten van pakweg 6 jaar eerder (de GTX 580 of 6970): meer dan 4 keer zo snel. Uiteraard een beetje vertekend omdat er tussen die generaties meer te winnen viel dan nu mogelijk is (zelfs een 4090 komt bij lange na niet in de buurt van 4x), maar het zijn de prijzen waardoor het voor ons consumenten zo slecht is. Zelfs de 1080 Ti evenaren kost je nu nog minstens zo'n €300, aan de Nvidia kant moet je nog iets hoger gaan zitten. Zit je alweer zo'n beetje op de helft van wat de 1080 Ti kostte.

Laat ik m'n rant hier maar afbreken, want als ik het ook nog over de nieuwe trends waarbij upscaling en interpolation frame generation "vereist" worden om hoge "framerates" te halen ga hebben...neen, meneer Werelds is niet blij met de stand van zaken voor PC gaming :p
Het is ook goed om te zien dat hij nu zelfstandig mag opereren, terwijl bij de lancering van Arc onze goede vriend Ryan Shroud er steeds bij zat. Ben niet zo'n fan van hem. Blijkbaar heeft Intel nu het vertrouwen dat Petersen geen verkeerde dingen zegt.
Ik denk eerder dat ze gezien hebben dat Ryan niet veel toevoegde buiten het bekende gezicht. Degelijke reviewer, maar op technisch vlak toch niet kundig genoeg om te doen wat Intel wil doen met hun GPU's :)
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 13:17:
Dit is eigenlijk ook precies wat ik van AMD had willen zien.
Ze hebben nu al twee generaties duidelijk een VRAM voordeel wat nu zo hard gaat tellen. Vervolgens hebben ze al zoveel generaties een duidelijk overhead voordeel en dan komt Intel met de tool om het makkelijk uitleesbaar te maken. Datzelfde Intel waar nog steeds een hele hoop games botweg niet fatsoenlijk draaien. Maar Intel durft het wel aan dit breed inzichtelijk te maken en te adverteren.
Intel heeft, voor zover ik het gevolgd heb, echter wel in veel van die games weldegelijk dingen gefixt. Dus er wordt wel tijd en geld in gestoken - en dat is werk dat in de nabije toekomst gewoon relevant blijft, omdat hun architectuur niet meteen 100% op de schop zal gaan, dus het meeste van dat werk blijft effectief.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op zaterdag 19 augustus 2023 @ 15:48:
Oh dat is geen probleem hoor, ik vind het ook wel leuk om te onderzoeken. Aan wil is er geen gebrek.
Het is alleen zo dat ik de aankomende paar weken daar niet zoveel tijd voor heb.
Maar als de UV tuning voor de 6950XT klaar is, dan kan de 4090FE aan het einde van de rit er weer terug in.
Dan zal ik gelijk wat vergelijkingen maken met GPU busy.

Net heb ik wel even vlug gekeken naar Intel's Presentmon versie en dat ziet er best mooi uit.
Realtime grafisch monitoren van eigenlijk alles wat belangrijk is.
Op mijn main PC met nog de 5800X3D + 6900XT (getuned in eco-mode) lopen de cpu en gpu lijnen strak over elkaar heen bij het betreffende probleemgebied in WoW. Perfect in balans :).
Wat ik nog van de 4090FE herinnerde was dat de utilisatie daar bar slecht was. Iets van 20% versus 95ish % met de 6900XT.
Een ander opvallendheid was dat de 4090FE ook relatief veel FPS verloor met Freesync aan.
Ca. -10% versus - 2% verlies met de 6900XT. En dat nota bene met een 7800X3D cpu voor de 4090FE en een 5800X3D cpu voor de 6900XT.
Ergens vraag ik me ook af of het voordeel van RDNA niet ook juist in zoveel minder shaders zit. Die shaders hebben immers veel meer caches nodig om aan het werk te blijven en dat nadeel af te zetten. Maar het lijkt er ook op dat er daardoor veel meer buffers met instructies zijn die een kleine vertraging aan de CPU kant afvangen. :)
Werelds schreef op zaterdag 19 augustus 2023 @ 17:15:
[...]

En tegelijkertijd blijven ze vrij open werken. Ik hoop stiekem nog steeds dat Intel en AMD ook op GPU gebied de handen ineen gaan slaan met de open standaarden en tools, want ondanks het feit dat ze al 2 decennia concurrenten waren voordat Nvidia überhaupt bestond, zijn ze ook al heel lang goede partners van elkaar die af en toe botsen. Maar ze hebben elkaar op CPU gebied altijd hard nodig gehad en dat is nu eigenlijk ook zo.
Dat zou denk ik ook geweldig zijn. Voornamelijk omdat voor beiden juist de kansen ook liggen in het middensegment, laptops en servers. High end gaming en workstations zijns Nvidia hun domein en daar valt weinig te winnen met de vendor lock die daar bestaat. En als je applicatie of game minstens zo goed draait op iets anders, dan moet je mensen nog zien te overtuigen dat je niet alleen beter bent, maar veel beter dan Nvidia. Het is een bijna kansloze missie. AMD figureert er ook al tijden als een soort Nvidia prijsdrukker.

Recentelijk lekte van alle kanten dan de high end RDNA4 geannuleerd is. Dat zouden echt complexe, dure en zeer high end MCM ontwerpen zijn geweest met vele chiplets. Er zou een focus komen op een goed middensegment volgend jaar. De reacties waren overduidelijk. Zoveel mensen waren boos op een manier dat je zag dat het niet ging om RDNA4, maar om wat Nvidia nu kan gaan doen met high end prijzen. En als dat de houding is, tja. :z
Ik hoop het echt van harte. Ze lopen absoluut nog flink achter, maar zolang ze realistisch blijven en niet op high-end prijzen in willen zetten, is er absoluut geen reden dat ze niet levensvatbaar kunnen blijven. De high-end is ook niet waar er iets te winnen valt voor ze. Juist in wat tegenwoordig low- en mid-end genoemd dient te worden is veel te winnen, omdat daar al jaren brakke producten uit komen.

Dat is momenteel het grote probleem in GPU land: er is al een jaar of 5-6 vrij weinig beweging qua perf/$. Prestaties zijn wel omhoog gegaan, maar de prijzen ook. Het is triest hoe slecht de markt in elkaar steekt. Ik heb persoonlijk ook de interesse een beetje verloren (vandaar dat ik zo stil ben in alle 3 de topics), want als m'n 1080 Ti het niet begeven had, had ik daar nu, meer dan 6 jaar later, nog steeds op gezeten. Want voor het geld dat ik daar voor neer heb gelegd (en dat was mét waterblok!), kan ik nu een 4070 kopen. That's it. Er is niets anders van de nieuwste generaties beschikbaar voor die prijs (en dan laat ik inflatie nog een beetje meetellen ook). 60% sneller. Op 6 jaar.

Om daar een beetje perspectief in te brengen: diezelfde 1080 Ti afgezet tegen de producten van pakweg 6 jaar eerder (de GTX 580 of 6970): meer dan 4 keer zo snel. Uiteraard een beetje vertekend omdat er tussen die generaties meer te winnen viel dan nu mogelijk is (zelfs een 4090 komt bij lange na niet in de buurt van 4x), maar het zijn de prijzen waardoor het voor ons consumenten zo slecht is. Zelfs de 1080 Ti evenaren kost je nu nog minstens zo'n €300, aan de Nvidia kant moet je nog iets hoger gaan zitten. Zit je alweer zo'n beetje op de helft van wat de 1080 Ti kostte.

Laat ik m'n rant hier maar afbreken, want als ik het ook nog over de nieuwe trends waarbij upscaling en interpolation frame generation "vereist" worden om hoge "framerates" te halen ga hebben...neen, meneer Werelds is niet blij met de stand van zaken voor PC gaming :p
En dit is waarom ik dus wel een RX7900XT heb gekocht met de aanbiedingen afgelopen maand. :)
Ik zag dat ik makkelijk 150% prestatiewinst over mijn RX5700XT en dus min of meer een GTX1080Ti (iets van 10% sneller) ging krijgen. Ik wenste ook minstens 2x performance en 2x VRAM capaciteit, dus mijn alternatief was een RX6800XT. Daartussen en de RX7900XT is vervolgens iets van 30% sneller.

De aankomende RX7800XT lijkt niet of nauwelijks sneller te worden dan de RX6800XT. Ik schat zo in dat de RX7800XT rond de €550-€600 gaat kosten, dus de doorrekening is ook niet ongunstig tegen mijn €800 kostende RX7900XT. Ik ben dus eigenlijk ook fors in prijs omhoog gegaan omdat het middensegment zo slecht is. Maar er zijn mogelijkheden voor een forse predatieverbetering zonder echt de hoofdprijs te moeten betalen. Ik heb nu eigenlijk bijna dezelfde prestatie sprong als van mijn oude HD7950 naar mijn RX Vega 56 gemaakt. Ik heb er alleen wel duidelijk meer voor betaald.

Verder heb ik nu wel bruikbare RT hardware en kan ik misschien nog hopen op alle RDNA3 CU features die na verloop van tijd nog gebruikt gaan worden. En dan meteen ook 20GB VRAM dus ook daar geen problemen. 8GB is inmiddels gestotter in recente games op maximale instellingen, zeker met RT, maar ook 12GB is ook geen comfortabele marge in veel recente games. Ergens is het treurig dat deze generatie hun echt goede producten na bijna een jaar pas begint met een afprijsde videokaart voor €800. Maar ik kan niet zeggen dat ik er spijt van heb ondanks dat ik de prijs alsnog fors vond.
Intel heeft, voor zover ik het gevolgd heb, echter wel in veel van die games weldegelijk dingen gefixt. Dus er wordt wel tijd en geld in gestoken - en dat is werk dat in de nabije toekomst gewoon relevant blijft, omdat hun architectuur niet meteen 100% op de schop zal gaan, dus het meeste van dat werk blijft effectief.
Ik krijg er de indruk bij dat Intel voornamelijk meer bekende titels afwerkt en goed aanpakt. Maar hoe het met minder bekende games staat, weet ik echt niet. Ik denk dat ze nog flink wat werk te doen hebben voor met name DX11 games. En dan alsnog. Ik speel ook nog wel eens games van vele jaren geleden en ik betwijfel of ARC daar overal goed zal werken. Maar in ieder geval probeert Intel het nog steeds terwijl ze financieel in zwaar weer zitten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:49
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 18:05:
En dit is waarom ik dus wel een RX7900XT heb gekocht met de aanbiedingen afgelopen maand. :)
Ik zag dat ik makkelijk 150% prestatiewinst over mijn RX5700XT en dus min of meer een GTX1080Ti (iets van 10% sneller) ging krijgen. Ik wenste ook minstens 2x performance en 2x VRAM capaciteit, dus mijn alternatief was een RX6800XT. Daartussen en de RX7900XT is vervolgens iets van 30% sneller.

De aankomende RX7800XT lijkt niet of nauwelijks sneller te worden dan de RX6800XT. Ik schat zo in dat de RX7800XT rond de €550-€600 gaat kosten, dus de doorrekening is ook niet ongunstig tegen mijn €800 kostende RX7900XT. Ik ben dus eigenlijk ook fors in prijs omhoog gegaan omdat het middensegment zo slecht is. Maar er zijn mogelijkheden voor een forse predatieverbetering zonder echt de hoofdprijs te moeten betalen. Ik heb nu eigenlijk bijna dezelfde prestatie sprong als van mijn oude HD7950 naar mijn RX Vega 56 gemaakt. Ik heb er alleen wel duidelijk meer voor betaald.

Verder heb ik nu wel bruikbare RT hardware en kan ik misschien nog hopen op alle RDNA3 CU features die na verloop van tijd nog gebruikt gaan worden. En dan meteen ook 20GB VRAM dus ook daar geen problemen. 8GB is inmiddels gestotter in recente games op maximale instellingen, zeker met RT, maar ook 12GB is ook geen comfortabele marge in veel recente games. Ergens is het treurig dat deze generatie hun echt goede producten na bijna een jaar pas begint met een afprijsde videokaart voor €800. Maar ik kan niet zeggen dat ik er spijt van heb ondanks dat ik de prijs alsnog fors vond.
Ik vind ze nog steeds veel te duur voor wat ze bieden. De tweedehands markt begint enigszins bij te trekken, maar ook daar zie je nog regelmatig 3080's en dergelijke langs komen voor €600 of meer, wat gewoon absurd is. Laat staan de mafketels met hun 3090's voor 4 cijfers.

VRAM begint nu ook een groot probleem te worden (ik vind de 4070 voor z'n prijs ook eigenlijk net niet kunnen) en laat uitgerekend Intel daar nu extreem lekker zitten met hun 16 GB A770. Bij AMD kun je, met een beetje goede timing, soms wel een 6800 scoren voor een aardige prijs (in verhouding) zoals deze voor ~€470 op moment van schrijven. Maar over het algemeen kom je een stuk hoger uit - en dan is het alsnog de 6800 die je tegen komt voordat je een Nvidia kaart ziet.

Voorlopig blijft mijn vermoeden dat het Intel is die in de nabije toekomst het middensegment het beste gaat bedienen; vraag is of de consument er in mee wil gaan. Geld heeft Intel niet nodig, maar als er geen consumenten met Intel GPU's zijn, wordt optimalisatie ook niet belangrijk voor devs.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 21 augustus 2023 @ 14:46:
[...]

Ik vind ze nog steeds veel te duur voor wat ze bieden. De tweedehands markt begint enigszins bij te trekken, maar ook daar zie je nog regelmatig 3080's en dergelijke langs komen voor €600 of meer, wat gewoon absurd is. Laat staan de mafketels met hun 3090's voor 4 cijfers.
Misschien is de RTX3080 10GB voor €600 nog erger dan de RTX3090. Want de RTX3090 heeft tenminste een adequate hoeveelheid VRAM. Die RTX3080 zie ik het eigenlijk ook niet lang meer volhouden zonder dat je standaard in veel games, lagere settings moet gaan accepteren of RT gewoon uit moet. Toegegeven met GDDR6 chips aan beide kanten van het PCB met de RTX3090, kan de helft zomaar falen vanwege de vaak slechte koeling, zeker een ex mining videokaart, maar toch.

Eigenlijk zijn beiden niet interessant ongeacht prijs.
VRAM begint nu ook een groot probleem te worden (ik vind de 4070 voor z'n prijs ook eigenlijk net niet kunnen) en laat uitgerekend Intel daar nu extreem lekker zitten met hun 16 GB A770. Bij AMD kun je, met een beetje goede timing, soms wel een 6800 scoren voor een aardige prijs (in verhouding) zoals deze voor ~€470 op moment van schrijven. Maar over het algemeen kom je een stuk hoger uit - en dan is het alsnog de 6800 die je tegen komt voordat je een Nvidia kaart ziet.
De RTX4070 zit ook echt op een vervelend punt. Alles eronder van Nvidia is totaal niet interessant of botweg inferieur waardoor je bijna gedwongen word een RTX4070 te kopen. Maar goed is die ook niet voor zulke prijzen. Ik zou denk ik liever een RTX3060Ti kopen dan een RTX4060Ti. En de RTX3060 12GB zeker boven de RTX4060. Maar de RX6700XT/RX6750XT is hier eigenlijk de enige redelijke optie. Dan is de RTX4070Ti echt te duur voor 12GB aan VRAM en de RTX4080 is gewoon veel te duur. De hele generatie is gewoon niks. :P

De meeste N21 deals zijn ook al weg. RX6800XT was tijdenlang vrij gemakkelijk onder de €600 te vinden en RX6950XT onder de €700. En nu N21 redelijk uitverkocht is, komt N32 eraan. Daar lijkt de cut down SKU, de RX7700XT 12GB te worden voor RX6800 prestaties. Dat gaat nog wat worden qua prijs want eigenlijk wil je 16GB. Maar dat is dan weer de RX7800XT 16GB en ik ben wat huiverig over hoeveel die gaat kosten...
Voorlopig blijft mijn vermoeden dat het Intel is die in de nabije toekomst het middensegment het beste gaat bedienen; vraag is of de consument er in mee wil gaan. Geld heeft Intel niet nodig, maar als er geen consumenten met Intel GPU's zijn, wordt optimalisatie ook niet belangrijk voor devs.
Uiteraard hoop ik het, maar ik ben er niet zo zeker van. AMD heeft al een perceptieprobleem waarbij in de midden segmenten, zoveel mensen liever een inferieure GeForce kopen. Intel heeft het nog een stapje erger omdat daar dingen niet op orde waren en ze actief bezig zijn om zaken te verbeteren. :/

Intel zal echt iets moeten doen om mensen die überhaupt iets anders dan Nvidia overwegen, ook nog eens weg te trekken bij AMD. Dat gaat denk ik niet zo makkelijk zijn. Ergste is misschien wel dat dit ook de conclusie lijkt te zijn. Intel concurreert eigenlijk niet echt met Nvidia, maar met AMD. Spelers twee en drie in de GPU markt kunnen de kruimels verdelen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12:11
DaniëlWW2 schreef op zaterdag 19 augustus 2023 @ 18:05:
[...]


Ergens vraag ik me ook af of het voordeel van RDNA niet ook juist in zoveel minder shaders zit. Die shaders hebben immers veel meer caches nodig om aan het werk te blijven en dat nadeel af te zetten. Maar het lijkt er ook op dat er daardoor veel meer buffers met instructies zijn die een kleine vertraging aan de CPU kant afvangen. :)
Chipencheese heeft onderzoek gedaan naar de latency en bandbreedte van de RDNA3 en Lovelace architectuur. Veel wat er staat gaat mij de pet te boven, maar daar is o.a. een stukje te vinden over cache bandbreedte bij lage occupancy: https://chipsandcheese.co...-3-graphics-architecture/
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_wgp_bw.png?resize=768%2C332&ssl=1

En de latency in het algemeen: Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_cl_scalar_latency-2.png?ssl=1

Ik weet niet of dit de vraag beantwoordt?
Mochten er specifieke dingen zijn waarvan je graag een vergelijking ziet, dan zeg het maar hoor ;).
Ik heb helaas alleen geen Anno.
Recentelijk lekte van alle kanten dan de high end RDNA4 geannuleerd is. Dat zouden echt complexe, dure en zeer high end MCM ontwerpen zijn geweest met vele chiplets. Er zou een focus komen op een goed middensegment volgend jaar. De reacties waren overduidelijk. Zoveel mensen waren boos op een manier dat je zag dat het niet ging om RDNA4, maar om wat Nvidia nu kan gaan doen met high end prijzen. En als dat de houding is, tja. :z
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Ik krijg er de indruk bij dat Intel voornamelijk meer bekende titels afwerkt en goed aanpakt. Maar hoe het met minder bekende games staat, weet ik echt niet. Ik denk dat ze nog flink wat werk te doen hebben voor met name DX11 games. En dan alsnog. Ik speel ook nog wel eens games van vele jaren geleden en ik betwijfel of ARC daar overal goed zal werken. Maar in ieder geval probeert Intel het nog steeds terwijl ze financieel in zwaar weer zitten. :)
Persoonlijk wil ik Intel daarom wel een kans geven. Wanneer ze alles open houden kan dat nog best leuk worden voor de DIY / tweaker community.
Het lijkt er wel een beetje op dat Intel daar een band mee probeert te vormen door de presentmon tool beschikbaar te maken. Van deze achterhoede moet je het eigenlijk ook hebben om anderen over te halen (Jan alleman die normaal gesproken alleen Nvidia koopt, omdat deze de rest niet vertrouwd).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op maandag 21 augustus 2023 @ 17:59:
[...]
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Dan hebben we het over CDNA 4 en die verwacht ik zeker. Maar dat betekent niet dat ze een MCM versie van RDNA 4 maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oke, ik ben de tijd vergeten, minder gamen met mijn RX7900XT vanavond. :P
CMT schreef op maandag 21 augustus 2023 @ 17:59:
[...]

Chipencheese heeft onderzoek gedaan naar de latency en bandbreedte van de RDNA3 en Lovelace architectuur. Veel wat er staat gaat mij de pet te boven, maar daar is o.a. een stukje te vinden over cache bandbreedte bij lage occupancy: https://chipsandcheese.co...-3-graphics-architecture/
[Afbeelding]

En de latency in het algemeen: [Afbeelding]

Ik weet niet of dit de vraag beantwoordt?
Mochten er specifieke dingen zijn waarvan je graag een vergelijking ziet, dan zeg het maar hoor ;).
Ik heb helaas alleen geen Anno.
Ik heb die al een tijd geleden gelezen. :)
Maar ik doel op iets anders. Een RX7900XTX met 6144 ALU's (die tweede 6144 ALU's doen niet zoveel) kan een RTX4080 met 9728 ALU's bijhouden. Het verschil in occupency is enorm, zeker omdat die RTX4080 ook nog eens hogere clock speeds heeft. Dat kan alleen maar als AMD veel beter in staat is om haar GPU aan het werk te houden dan Nvidia.

Nu bestaat 100% occupency eigenlijk niet met videokaarten. Er zullen elke clock cycle wel ALU's zijn die geen rekenopdracht hebben. Maar het moge duidelijk zijn dat AMD dat een flink stuk beter doet dan Nvidia. Mijn gedachte daarbij is ook dat als je consistenter je hardware aan het werk houdt, dit ook wel eens mede kan verklaren waarom je betere frametimes behaald. Maar dit echt goed beantwoorden is lastig. :)

Overigens maakt dit ook mede de problemen van Intel duidelijk. De A770 heeft net zoals Turing een SIMD32 met 16x FP en 16x INT en daarnaast hun XMX matrix engine. Vervolgens heeft Intel twee SIMD32 + XMX engines aan elkaar verbonden. Ik vermoed dat het daar al misgaat voor Intel. Ik denk namelijk dat Intel het niet voor elkaar krijgt om deze grote en complexe Xe cores aan het werk te zetten en te houden. Om hier namelijk goede occupency te krijgen, moeten ze elke cycle, 16x FP en 16x INT instructies zien te groeperen en naar de executie units zien te krijgen. Nvidia kreeg dat voor elkaar met Turing, maar stapte er met Ampere eigenlijk alweer vanaf. Ik vraag me hardop af of dat niet voor Intel ook de oplossing kan zijn? Maar misschien is de beste oplossing voor Intel eens heel goed naar RDNA kijken en het bij een simpelere SIMD32 houden waarbij dezelfde ALU's zowel FP als INT doen.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch7.jpg

Hun XMX engine is nu ik nog eens kijk, ook niet gelijkwaardig aan wat RDNA3 heeft. RDNA3 doet namelijk 256Ops/clock voor FP16, BF16, INT8 en INT4. Intel heeft andere waarden. Maar Intel kan wel parallel hun XMX engines gebruiken aan hun shaders, AMD niet en Nvidia kan ook niet een instructie issuen aan hun shaders alsmede tensor cores. Dat is altijd een pick one situatie.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch9.jpg

Qua RT heeft Intel denk ik een middenpositie tussen Nvidia en AMD. Intel haar aanpak staat een serieus goede hoeveelheid ray/box intersections toe, maar niet veel ray/triangle. AMD doet hier 4/1. Nvidia is altijd vaag geweest, maar het lijkt voor Turing 1/1, Ampere 2/2 en Ada 4/4 te zijn. Ik weet in ieder geval vrij zeker dat die ray/triangles zo zijn. Ray/box intersection heeft Nvidia volgens mij officieel nooit medegedeeld.
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch17.jpg

Vervolgens heeft Intel hun RT implementatie grotendeels losgekoppeld van hun shaders. Verder hebben ze meteen sorteringhardware aangebracht. Nvidia heeft dat nu ook met Ada, maar alleen als je het op software niveau implementeert. Dus alleen Cyberpunk heeft het want verkapte Nvidia tech demo. :z
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch20.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch18.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/intel-arc-a770/images/arch19.jpg
Verder heeft Intel maar 32 van deze RT units op A770. Zwak lijken die niet te zijn.

Kwam per toeval dit ook nog tegen wat mijn vermoedens bevestigd. AMD lijkt inderdaad heel erg veel BvH stappen te doen om minder ray/box en ray/triangle intersection tests uit te voeren. Het betekent wel dat ze hun RT veel meer serieel moeten doen en voor elke stap ook ergens de data moeten opslaan. Dat is ook waarom RDNA3 een forse verbetering in RT heeft. Grotere en sneller toegankelijke caches alsmede verbetering in hun BvH creatie. Het is zoals altijd met RDNA, culling en optimaliseren van hardware.

Nvidia doet bijna het tegenovergestelde. Nvidia heeft juist veel shaders, veel SM's en speelt daar op in. Het lijkt erop dat Nvidia de top level acceleration structure (TLAS) in een paar cycles afhandelt met RT en meteen doorgaat naar veel grotere bottom level acceleration structures (BLAS). En daar gaan ze ray/box en voornamelijk ray/triangle intersections uitvoeren. Vele intersections, veel veel meer dan AMD zal doen. Daar is ook wel een reden voor. Een dergelijke instructie is niet gedaan in een cycle. Wat Nvidia kan doen is een dergelijke instructie aan hun RT core toewijzen en vervolgens weer verdergaan met instructies aan de SM's toewijzen. Af en toe denoisen met de tensor cores en weer door.

Dit is overigens ook waarom Nvidia het over path tracing ging hebben. Veel meer ray/triangle intersections, veel minder BvH. Ada ziet er goed uit, in het bijzonder de RTX4090 die echt los kan gaan, de rest niet. Idem waarom er voor Witcher 3 en Cyberpunk mods zijn die ray/triangle intersections drastisch verlagen voor minimaal grafisch verlies, met voornamelijk enorme prestatiewinsten voor AMD. En dit is waarschijnlijk ook waarom de eerste UE5 Lumen games vooralsnog de indruk wekken dat een RTX4080 daar niet veel sneller in RT is dan een RX7900XTX, idem voor de RX4070Ti en de RX7900XT.

Kijk alleen al naar het verschil en hoeveel complexer BvH structuren voor AMD zijn. Dat is bewust omdat AMD net zoals Nvidia, inspeelt op haar sterke. RDNA is toch al een beetje een onconventionele GPU architectuur omdat er best wat "CPU" dingen in zitten. L1-2-3 cache, erg flexibele en capabele ALU's, doet meer dingen in serie dan parallel met minder ALU's etc. Het is ook geen geheim dat een aantal belangrijke mensen van het Zen 1 team, op RDNA zijn gezet. ;)
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/6900xt_cp2077_overview.jpg?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/6900xt_cp2077_tree_blas.jpg?ssl=1

En Nvidia houd het een stuk simpeler, maar loopt veel meer intersections te testen.
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/2060_cp2077_mox_tlas.jpg?ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/03/2060_cp2077_tlas_variable.jpg?ssl=1


@Werelds Ik denk dat jij dat artikel ook wel leuk vind als je tijd hebt. :)
https://chipsandcheese.co...vidias-turing-and-pascal/

Intel is helaas niet getest, maar ik vermoed dat ze een middenpositie aannemen. Ze kunnen die extreem diep BvH structuren van AMD niet aan en de enorme ray/triangle intersection tests van Nvidia ook niet. Dus lijkt het erop dat ze een beetje van beiden doen. Intel heeft haar BvH hardware niet zomaar haar eigen cache gegeven. Hun BvH structuur zal ook complexer zijn dan wat Nvidia doet en dat proberen ze zoveel mogelijk lokaal op te slaan zoals AMD ook probeert. Maar ze kunnen veel meer ray/box intersections dan AMD doen, dus hoeven ze ook niet zo enorm ver te gaan als wat AMD heeft gedaan.

Ik vermoed dat zowel AMD als Intel een vrij gemakkelijke "performance fix" kunnen implementeren in de toekomst. Botweg meer ray/triangle intersections. Al gaan ze van 1 naar 2, het is een verdubbeling. Met name voor AMD zou dat wel eens heel wat kunnen opleveren. Qua Intel denk ik dat hun fundament niet zo slecht is. Zeker voor een eerste generatie is dit echt wel beter dan Turing of RDNA2. Het is denk ik ook een van de beste stukken van Arc.
Mij bekruipt de twijfel of het nu werkelijk geannuleerd is.
Zou er niet een mogelijkheid kunnen zijn dat AMD besloten heeft alleen de professionele markt te bedienen en mee te gaan met de AI hype? Aangezien het MCM ontwerp meer geschikt lijkt te zijn voor workloads?
Ik vermoed eerder dat een annulering met kosten en marktpositie te maken heeft. N41 zou van wat nu gelekt is, een absoluut monster zijn. Je gaat anders niet negen aparte, vermoedelijk Shader Engine chiplets 3D stacken op een actieve interposer. Zeker omdat ik niet verbaast zou zijn als die interposer chiplets, L3 cache alsmede de geheugencontrollers zouden bevatten.

Verder heeft zo ongeveer elke RDNA chip een Shader Array diepte van 8-10CU's gehad en twee array's vormen een engine. Reken maar uit, dat was waarschijnlijk een 144CU GPU. Immers 8CU x 2 arrays x 9 chiplets. Vervolgens de vraag of RDNA4 wel clock speed targets haalt. In ieder geval, die chip zou zeker 50% sneller moeten zijn dan N31. Maar ik vermoed ook dat die duurder dan N31 zou zijn om te maken. En wie gaat dat kopen?
[...]

Persoonlijk wil ik Intel daarom wel een kans geven. Wanneer ze alles open houden kan dat nog best leuk worden voor de DIY / tweaker community.
Het lijkt er wel een beetje op dat Intel daar een band mee probeert te vormen door de presentmon tool beschikbaar te maken. Van deze achterhoede moet je het eigenlijk ook hebben om anderen over te halen (Jan alleman die normaal gesproken alleen Nvidia koopt, omdat deze de rest niet vertrouwd).
Ik op termijn misschien ook wel. Maar het is Intel. Niet bepaald een bedrijf dat liefdadigheid nodig heeft.
Intel moet gaan presteren. En ideaal gezien schopt Intel, AMD dan ook wakker in dat de rest van de videokaarten markt niet gegarandeerd voor hun is. Want daar mogen ze er ook wat voor gaan doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Niet alleen Werelds hoor; deze leest best makkelijk weg.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12:11
Ik weet niet of het nieuwswaardig is, maar aangezien eerder gepost werd over Intel's Presentmon UI en de 'GPU busy' parameter, plaats ik het maar hier.

CapFrameX heeft nu een beta uitgebracht om ook 'GPU busy' te kunnen loggen: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.2beta
De UI van Intel is erg fijn om dingen in realtime in de gaten te houden (alles grafisch), maar wat betreft loggen en analyseren voor later is CapFrameX toch koning.
Ook omdat vele dingen (nog) niet werken van Intel's Presentmon UI.

Ik heb er wel een beetje mee zitten spelen en 'GPU busy' kan ook heel goed gebruikt worden om de GPU op het systeem af te stellen met een UV en clock / power begrenzing :).

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:49
Het wordt ondergesneeuwd door Lunar Lake, maar Battlemage is er ook, met wat details.

Ik heb al vaak gezegd dat Arc behoorlijk degelijk in elkaar steekt voor een eerste poging. Qua software werken ze nog steeds hard door, dus dat komt wel goed.

https://www.youtube.com/watch?v=MGD41i5QCy

En als ik dit dan zie, kan ik enkel hopen dat de prijzen in orde zijn, want dit ding gaat de andere twee best wel pijn doen. Ze mogen qua CPU's vergeten zijn hoe het moet (we zullen wel zien hoe LL het doet, maar de afgelopen 7 jaar zijn niet hoopgevend :p), maar aan de GPU kant zijn ze niet bang flink te veranderen. Ik moet er weer even terug in duiken omdat Arc toch wel wat apart is, maar zo op het eerste oog zal BM een stuk efficiënter worden - en consistenter in verschillende workloads. RT performance zal ook weer een stukje omhoog kruipen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit topic is zo ondergesneeuwd dat ik vergeten was dat het er was. O-)
DaniëlWW2 in "Intel Nieuwsdiscussietopic - Deel 2"

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Werelds

Die video is verwijderd.

Volgens Intel is de stap naar SIMD16 zowel qua efficiëntie als compatibiliteit een flinke stap vooruit. Nu hoeven ze in de driver minder recht te breien. En ze hebben nu native render slice ondersteuning, wat in UE5 veel wordt gebruikt. Dus wellicht gaan ze erg goed presteren in de nieuwste spellen.

En er zijn veel optimalisaties gedaan om geen onnodige berekeningen te hoeven doen.

Uiteindelijk komen ze wel van ver, dus ik wacht de echte reviews af om te zien of het echt wat is. En sowieso is de vraag wanneer de desktop-kaarten gaan komen. Ze zullen al snel met de volgende generatie van Nvidia/AMD gaan concurreren, dus dan is de horde nog groter dan 'slechts' aanhaken bij de huidige generatie.

GN heeft veel updates over Battlemage in hun video:

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:49
Hmm vreemd, dat was de video die ik gelinkt had :p

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Zal wel een reupload zijn geweest, omdat er een fout in zat.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Trump president, misschien annulering "Chips Act" investering in Intel, en:
MLID lijkt gelijk te krijgen met het annuleren van Intel Arc:
https://www.techspot.com/...grated-memory-design.html

Het moet niet gekker worden...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

De enige reden dat Arc nog niet dood is gemaakt, is dat ze het nodig hebben om in de AI markt mee te kunnen doen. Anders was dit gewoon de weg van de i740 gegaan.

Of de CHIPS act dood is moet nog worden gezien. De VS kunnen het zich eigenlijk niet veroorloven om de afhankelijkheid van Taiwan aan te blijven houden. Iemand heeft ooit wat geroepen, maar naderhand zijn de republikeinen weer grotendeels teruggekrabbeld. We gaan het zien. Met Musk als minister kan het ook best anders gaan uitpakken :)

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12:43
sunsmountain schreef op woensdag 6 november 2024 @ 15:44:
Trump president, misschien annulering "Chips Act" investering in Intel, en:
MLID lijkt gelijk te krijgen met het annuleren van Intel Arc:
https://www.techspot.com/...grated-memory-design.html

Het moet niet gekker worden...
Lijkt me niet, die wil juist de productie in de US houden en de banen voor eigen volk erbij. Juist bij dit soort dingen lijken bij Trump wel veilig te blijven. Als Intel echt de handdoek in de ring gooit dan is het hele stuk investering in deze markt volledig kapitaal vernietiging geweest. Ik had ook nooit verwacht dat de eerste of twee poging echt al goed zou kunnen zijn. Dit soort dingen kosten gewoon meer tijd en r&d. Best zonde, maar toont wel aan dat als zelf Intel het niet lukt om daar een vuist te maken, dat partijen als Nvidia en Amd toch echt wel in een bijzondere situatie zitten waar moeilijk tussen te komen is.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
sjekneck schreef op woensdag 6 november 2024 @ 22:03:
[...]

Lijkt me niet, die wil juist de productie in de US houden en de banen voor eigen volk erbij. Juist bij dit soort dingen lijken bij Trump wel veilig te blijven. Als Intel echt de handdoek in de ring gooit dan is het hele stuk investering in deze markt volledig kapitaal vernietiging geweest. Ik had ook nooit verwacht dat de eerste of twee poging echt al goed zou kunnen zijn. Dit soort dingen kosten gewoon meer tijd en r&d. Best zonde, maar toont wel aan dat als zelf Intel het niet lukt om daar een vuist te maken, dat partijen als Nvidia en Amd toch echt wel in een bijzondere situatie zitten waar moeilijk tussen te komen is.
Ik hoop het. Uitspraken van Trump moeten in de praktijk altijd nog maar blijken. Pat Gelsinger weet ook dat GPU's de toekomst hebben, niet CPU's. Het komt er op dit moment alleen een beetje ongelukkig uit... (we see reduced demand for [Intel - edit] GPU's...)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 01-10 12:49
Ik heb eens wat beter gekeken naar de specs van Intel's nieuwe Battlemage mattrijs (die):

KenmerkNVIDIA AD107AMD Navi 33Intel BMG-G21
Releasedatum3 januari 20234 januari 202312 december 2024
ArchitectuurAda LovelaceRDNA 3.0Xe2
Procesgrootte5 nm6 nm5 nm
Aantal transistors18.900 miljoen13.300 miljoen19.600 miljoen
Matrijsgrootte159 mm²204 mm²272 mm²
Transistordichtheid118,9M / mm²65,2M / mm²72,1M / mm²
Shading Units307220482560
Texture Mapping Units (TMUs)96128160
Render Output Units (ROPs)486480
Tensor Cores96 (4e generatie)-160
Raytracing Cores24 (3e generatie)3220
L1 Cache128 KB per SM256 KB per Array256 KB per EU
L2 Cache32 MB2 MB18,4 MB
Graphics APIsDirectX 12 Ultimate, OpenCL 3.0, Vulkan 1.3DirectX 12 Ultimate, OpenCL 2.2, Vulkan 1.3DirectX 12 Ultimate, OpenCL 3.0, Vulkan 1.4
Shader Model6.86.86.6
WDDM3.23.23.1
Maximale TDP115 W190 W190 W


Bron: https://www.techpowerup.com/gpu-specs/

Wat direct opvalt is de enorme matrijs van Battlemage. De transistordichtheid komt vervolgens: die is amper 60% van Nvidia's AD107-matrijs, die ook nog eens bijna 2 jaar ouder is. Dit resulteert in een 71% grotere matrijs van Intel vergeleken met Nvidia, wat gemakkelijk twee keer zoveel kan kosten (kostprijs-schaling is niet lineair in halfgeleiders).

Ook is de transistordichtheid vergelijkbaar met het 7nm-klasse proces die AMD gebruikt, die veel goedkoper is.

Het TDP is ook groter voor Intel en AMD, waarbij AMD tenminste nog het excuus heeft van een ouder proces.

Dus ja, het toont hoe technisch superieur Nvidia momenteel is.

Het laat ook zien hoe hard we zijn afgezet met de 4060 voor meer dan €300. Het is eigenlijk een kaart van de 50-klasse die ruim onder de €200 verkocht had kunnen worden.

Het is fijn dat er een derde speler is die concurrentie bied, maar het geeft wel aan dat ze qua kostenefficiëntie echt nog niet tegen Nvidia op kunnen (wat ook niet gek is na twee generaties).

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Balance schreef op vrijdag 13 december 2024 @ 13:00:
Ik heb eens wat beter gekeken naar de specs van Intel's nieuwe Battlemage mattrijs (die):

KenmerkNVIDIA AD107AMD Navi 33Intel BMG-G21
Releasedatum3 januari 20234 januari 202312 december 2024
ArchitectuurAda LovelaceRDNA 3.0Xe2
Procesgrootte5 nm6 nm5 nm
Aantal transistors18.900 miljoen13.300 miljoen19.600 miljoen
Matrijsgrootte159 mm²204 mm²272 mm²
Transistordichtheid118,9M / mm²65,2M / mm²72,1M / mm²
Shading Units307220482560
Texture Mapping Units (TMUs)96128160
Render Output Units (ROPs)486480
Tensor Cores96 (4e generatie)-160
Raytracing Cores24 (3e generatie)3220
L1 Cache128 KB per SM256 KB per Array256 KB per EU
L2 Cache32 MB2 MB18,4 MB
Graphics APIsDirectX 12 Ultimate, OpenCL 3.0, Vulkan 1.3DirectX 12 Ultimate, OpenCL 2.2, Vulkan 1.3DirectX 12 Ultimate, OpenCL 3.0, Vulkan 1.4
Shader Model6.86.86.6
WDDM3.23.23.1
Maximale TDP115 W190 W190 W


Bron: https://www.techpowerup.com/gpu-specs/

Wat direct opvalt is de enorme matrijs van Battlemage. De transistordichtheid komt vervolgens: die is amper 60% van Nvidia's AD107-matrijs, die ook nog eens bijna 2 jaar ouder is. Dit resulteert in een 71% grotere matrijs van Intel vergeleken met Nvidia, wat gemakkelijk twee keer zoveel kan kosten (kostprijs-schaling is niet lineair in halfgeleiders).

Ook is de transistordichtheid vergelijkbaar met het 7nm-klasse proces die AMD gebruikt, die veel goedkoper is.

Het TDP is ook groter voor Intel en AMD, waarbij AMD tenminste nog het excuus heeft van een ouder proces.

Dus ja, het toont hoe technisch superieur Nvidia momenteel is.

Het laat ook zien hoe hard we zijn afgezet met de 4060 voor meer dan €300. Het is eigenlijk een kaart van de 50-klasse die ruim onder de €200 verkocht had kunnen worden.

Het is fijn dat er een derde speler is die concurrentie bied, maar het geeft wel aan dat ze qua kostenefficiëntie echt nog niet tegen Nvidia op kunnen (wat ook niet gek is na twee generaties).
Dank voor het mooie overzicht!
Wat voor effect (op de langere termijn) hebben de lagere shader model en wddm?

Ik ben echt heel benieuwd of Intel met Battlemage nog hogere FPS in games weet te behalen met drivers.
Daar hoop ik wel op.

Men blijft het ook gewoon stelselmatig kopen (afgezet worden of een slechte keus maken/teveel betalen/niet voor een andere optie gaan?).
Men koopt het toch echt zelf, ze worden niet gedwongen.
Te hoog geprijsde videokaarten met te weinig VRAM.
Dat gaat al jaren zo bij Nvidia en w.b.t. de prijzen gaat het nu helemaal nergens meer over.

Ik overweeg al jaren geen kaarten meer met 8GB VRAM, ongeacht de prijzen.

[ Voor 4% gewijzigd door HugoBoss1985 op 13-12-2024 13:53 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Het laat ook zien hoe hard we zijn afgezet met de 4060 voor meer dan €300. Het is eigenlijk een kaart van de 50-klasse die ruim onder de €200 verkocht had kunnen worden.
Grotendeels eens, zeker aangaande de klasse, maar qua prijs weten we het natuurlijk niet. Intel zet immers deze prijzen wel, maar we hebben geen idee hoe 'gezond' de marges zijn.

Ik las gister bijvoorbeeld ergens nog dat AMD (en enigszins lastig te geloven) dat AMD met hun huidige prijsstellingen over heel de dGPU business maar 3% marge zou draaien. Stel dat zoiets zou kloppen (of in de buurt komt), dan moeten deze Intel kaarten bijna wel zwaar gesubsidieerd op de markt gezet zijn. En dat is natuurlijk niet iets dat momenteel direct in Nvidia's straatje past nu ze niet echt onder druk staan. Die zullen zaken vermoed ik in ieder geval niet subsidiëren, maar er moet simpelweg een goede marge op zitten , anders kunnen ze die wafers beter inzetten voor andere producten.

En die geruchten of subsidiëring vanuit Intel zijn er ook nog steeds (ondanks Intels erbarmelijke situatie waar het als bedrijf in zit), dat Intel dit eigenlijk (alleen) uitbrengt omdat ze nog orders uit hebben staan bij TSMC voor wafer capaciteit op 5nm die ze anders niet zouden gebruiken.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Ik heb zojuist even de Asrock B580 Steel Legend en de Sparkle B580 Titan OC reviews gezien bij Techpowerup.
Het valt mij op dat de solderingen van e.e.a. qua VRM's er bij het Sparkle (Intel reference?) board een stuk netter uit zien.
Verder interessant dat de geheugenchips van beide kaarten op 2375 mhz draaien maar rated zijn op 2500 mhz :P
Op VideoCardz staat een foutje w.b.t. de Sparkle; 2x8 pin en dat is natuurlijk 1x8 pin.
https://videocardz.net/sparkle-arc-b580-12gb-titan-oc
Ik vind die Sparkle een bijzonder fraaie kaart voor het oog.
Jammer dat beide kaarten geen thermal pads voor de backplate hebben.
Het lijkt er op het oog op dat de Asrock dikkere thermal pads voor het VRAM gebruikt dan de Sparkle.
Wat ook zo lijkt is dat de koelpasta van de Sparkle dikker is.

[ Voor 66% gewijzigd door HugoBoss1985 op 13-12-2024 16:47 ]


Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:57

Damic

Tijd voor Jasmijn thee

@HugoBoss1985 die kaart is wel mooi maar ik vermoed dat als je de backplate eraf doe dat je zelfs beter koeling gaat hebben omdat de warmte beter weg kan, zeker als je ziet naar het blow through gedeelte wat een heel deel afgedekt is. OW je gaat dan ook wat minder geluid productie hebben.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

Intel,heeft het zwaar. Nividia doet het heel,goed zo goed en duur als hun AI sku zijn. Zijn vele grote corporations hun eigen silicon maken. Google Apple etc. En daarmee mist intel grote delen van de markten die wegvallen.
Dgpu zijn duur door inflatie en dure top nodes van TSMC. Nividia gebruikt de nieuwste nodes voor topend dgpu ook voor AI dat maakt het duur. Denk dat intel mogelijk helemaal geen marge overhoud. En dat dit stuiptrekking is van pat gelsinger beleid. Maar grote kans dat er stekker uit getrokken wordt. Dus of Celeste nog komt.
De investeringen in huidige lijnen worden bepaald door of voldoende winst maak. Als in succes. Lowbudget ASP sku doen dat niet, zelfs als redelijk in volume verkoopt. Omdat winst marge ruk is. Is meer de vraag waar nieuwe CEO de grens trekt.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:49
Je kan het ook anders zien. Ai is booming en gpu's sowieso al steeds belangrijker (of sterke apu's). Dus Intel moet wel mee om relevant te blijven.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

Ik zie het zo is, er voldoende kas voor R&D en TSMC allocatie is er ruimte voor weer verlies draaien met 3de gen Celeste. Pat gelsinger ziet in NV het grote voorbeeld , dat gpgpu in compute belangrijk is . Wat de drijfveer was om Jim Keller project te cancelen. Cpu rol om 8 dgpu in 4u rack te managen. Het kan dat net als AMD de pro lijn wel blijft en voorrang krijgt ivm grote marges. Maar client dgpu geen vetpot is en er zeker donkere wolk boven hangt. Dump prijzen helpen niet.
Als wat tegen nv prijzen hebt. Die zullen wel flinke marge hebben. Maar dat is aanname tel er R&D en tsmc top node en inflatie bij op marges zullen wel goed zijn . Maar zijn die extreem goed?.
Nu is de vraag hoe geweldig de marges zijn voor AMD. Hoop aannames. Geen gezonde marges maakt dure high-end commercieel niet mogelijk. En dan nu heeft intel wel enige marge B570/B580 als dat niet zo is is gewoon in de markt dumpen om verlies te drukken. Naast massa productie is dus mogelijk slecht leverbaar kan zijn. Is wel marge dan kan goede verkopen stimulans zijn om ARC Client sku en R&D in de lucht te houden.
Met wat pech is kogel al door de kerk en is ARC client dood en is dit wat er nog in productie pijplijn zat.
Als je betere dgpu alternatieven wilt ipv nv. Moet kiezen tussen intel en AMD en waardering laten zien voor poging. Mogelijk is het al voor intel te laat.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +2 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Kwam net de video tegen van Hardware Canucks omdat ik B580 reviews aan Googlen was.
Jammer dat dit net zo'n budget videokaart (GPU) treft die men waarschijnlijk juist vaak aanschaft om een ouder systeem, met oudere cpu, te upgraden.

Net als in de comments vraag ik me wel af of REBAR nou echt wel goed werkt of niet.
Ondanks dat Hardware Canucks én Hardware Unboxed aangaven dat REBAR aan stond met hun tests.
Het is wel iets wat Intel uitdrukkelijk heeft aangegeven als minimale eis i.c.m. de B580.

Ik overwoog nog een B580 te kopen voor gebruik i.c.m. een X570, 3700X en 32gb.
En ik vraag me nog af of er veel verschil zal zitten in de Intel B580 prestaties tussen Ryzen 2000 en Ryzen 3000.

Alle reviews van de B580 waren dus blijkbaar toch iets te rooskleurig omdat deze met de nieuwste hardware (cpu's) zijn getest.

[ Voor 19% gewijzigd door HugoBoss1985 op 03-01-2025 12:21 ]


Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
REBAR kan werken met de laatste BIOS versies, tenminste wel op de 2600. Ik ga eens even testen met mijn 2600X systeem straks.

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Om dit uit te sluiten moet iemand het eigenlijk testen met een officieel ondersteund product maar dan zeer gelimiteerd.
Iets als een 3100/3300X of een 3600(X) met een (te) conservatieve TDP limiet (e.g. 25W).
Of iets intel equivalent.

Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
Of iemand met een 2600 + Nvidia 3000 / radeon 6000 serie kan even in hun control panel kijken of ze het enabled hebben (nadat ze het in de BIOS hebben aangezet). Ik heb een 2600X, maar daar zit een GTX 1080 in. Ik ga niet mijn 6800XT uit mijn systeem pakken en overzetten.

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Majestici schreef op vrijdag 3 januari 2025 @ 12:50:
Of iemand met een 2600 + Nvidia 3000 / radeon 6000 serie kan even in hun control panel kijken of ze het enabled hebben (nadat ze het in de BIOS hebben aangezet). Ik heb een 2600X, maar daar zit een GTX 1080 in. Ik ga niet mijn 6800XT uit mijn systeem pakken en overzetten.
Meeste gezeik online gaat erover dat het niet officieel ondersteunt word en dat zelfs als het wel werkt dat het misschien helemaal niet werkt en incorrect gerapporteerd word.

Acties:
  • +1 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
Arme steve, enige manier hoe hij dit gaat bevestigen is nog meer tests met de 3600 haha.

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Majestici schreef op vrijdag 3 januari 2025 @ 12:53:
Arme steve, enige manier hoe hij dit gaat bevestigen is nog meer tests met de 3600 haha.
Enige optie voor zover ik zie...

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Majestici schreef op vrijdag 3 januari 2025 @ 12:53:
Arme steve, enige manier hoe hij dit gaat bevestigen is nog meer tests met de 3600 haha.
Het is soms nog wel aardig lastig om uit te vinden of REBAR nou wel werkt of niet.
Zeker met hardware die officieel niet/op het randje supported is.

Zelf ben ik met een RX480 8gb aan het klooien geweest (met dezelfde X570 en 3700X build).
Eerst werkte dat met een registerhack... maar in Windows 11 is ondertussen iets veranderd.
Daarom moet je nu in die registerhack een "0" veranderen in een "1" en dan werkt het weer.

Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4d36e968-e325-11ce-bfc1-08002be10318}\0001]
"KMD_EnableReBarForLegacyASIC"=dword:00000001
"KMD_RebarControlMode"=dword:00000001
"KMD_RebarControlSupport"=dword:00000001


Bovenstaande gaat er wel vanuit dat cpu en mobo het ondersteunen en aan hebben staan.

GPU-Z en HWinfo geven soms onterecht aan dat REBAR supported/enabled is terwijl dat niet zo is.
Ik weet met de RX480 dat het werkt zodra in de Adrenaline drivers staat dat het enabled is.

[ Voor 24% gewijzigd door HugoBoss1985 op 03-01-2025 12:58 ]


Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 12:55:
[...]


Het is soms nog wel aardig lastig om uit te vinden of REBAR nou wel werkt of niet.
Zeker met hardware die officieel niet/op het randje supported is.

Zelf ben ik met een RX480 8gb aan het klooien geweest (met dezelfde X570 en 3700X build).
Eerst werkte dat met een registerhack... maar in Windows 11 is ondertussen iets veranderd.
Daarom moet je nu in die registerhack een "0" veranderen in een "1" en dan werkt het weer.

Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4d36e968-e325-11ce-bfc1-08002be10318}\0001]
"KMD_EnableReBarForLegacyASIC"=dword:00000001
"KMD_RebarControlMode"=dword:00000001
"KMD_RebarControlSupport"=dword:00000001


GPU-Z en HWinfo geven soms onterecht aan dat REBAR supported/enabled is terwijl dat niet zo is.
Canucks laat in de video gewoon zien dat als ReBAR ook uitstaat de performance nog harder indondert.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 12:58:
[...]

Canucks laat in de video gewoon zien dat als ReBAR ook uitstaat de performance nog harder indondert.
Dan is het vrij duidelijk.

Toch bizar dat een cpu dan (in dit geval) zoveel bottleneck kan opleveren voor een videokaart.
Helaas in dit geval deze budget segment videokaart van Intel.
Maar ik heb zelf al ervaren dat een Ryzen 2700X een RX480 8GB in sommige moderne games kan bottlenecken.
Dus zo heel gek is het eigenlijk niet dat een snellere/nieuwere videokaart ook inkakt.
Alleen in verhouding tot een RX7600XT en 4060 is het wel drama voor de B580.

[ Voor 13% gewijzigd door HugoBoss1985 op 03-01-2025 13:04 ]


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Voor zover ik kan zien liggen alle feiten gewoon op tafel en heeft Intel een groot probleem in de budgetmarkt...

Voordeel is dat we in Europa hier niet veel last van hebben omdat de B580 overpriced is.
Tot vandaag dan, nu is het 280 euro wel het overwegen waard.

Mits je een goede CPU hebt :+

Maar ik vind het wel een beetje zorgelijk, geld dit voor alle CPU constrained scenarios?
Ik speel zelf wel eens zwaar modded games die de bottleneck verplaatsen van de GPU naar de CPU, dat is ook een reden waarom ik een AMD kaart heb icm een 7800X3D.
Nvidia heeft hier een (groot genoeg) probleem dat ik dit een killer vond, maar wat nou als Intel dit nog veel erger heeft?

Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
Intel doet een bait & switch, geen nieuws onder de zon.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 13:04:
Voor zover ik kan zien liggen alle feiten gewoon op tafel en heeft Intel een groot probleem in de budgetmarkt...

Voordeel is dat we in Europa hier niet veel last van hebben omdat de B580 overpriced is.
Tot vandaag dan, nu is het 280 euro wel het overwegen waard.

Mits je een goede CPU hebt :+

Maar ik vind het wel een beetje zorgelijk, geld dit voor alle CPU constrained scenarios?
Ik speel zelf wel eens zwaar modded games die de bottleneck verplaatsen van de GPU naar de CPU, dat is ook een reden waarom ik een AMD kaart heb icm een 7800X3D.
Nvidia heeft hier een (groot genoeg) probleem dat ik dit een killer vond, maar wat nou als Intel dit nog veel erger heeft?
Het is ook geen realistisch scenario dat men een cpu van €300+ met een goedkopere videokaart gaat gebruiken (niet rationeel).
Alhoewel als je een modded Stalker G.A.M.M.A. of Supreme Commander speelt is raw single core performance (niet persé een X3D chip) koning.

Ik vind het met Cyberpunk wel erg bizar aangezien de B580 met die game juist exceptioneel (vaak 4060i niveau) goed naar voren leek te komen in de early release reviews.
Blijkbaar heeft Cyberpunk een redelijk goede cpu nodig.
Ik vond het op een 4770k met overclock en 2070 8gb nog aardig lopen en had niet echt een cpu bottleneck voor mijn gevoel.

De Sparkle Titan OC is de enige leuke kaart met (omdat) een Assassins Creed game erbij, vrij forse koeling en een anti-sag bracket.
Maar deze is ook al weer €10,- bij Megekko dan de eerste batch.

Bij NBB in Duitsland heb je de OG intel B580 kaart voor €273,99 ex. verzending.
Daar koop je hier in Nederland net geen Nvidia 3060 12gb voor.

[ Voor 7% gewijzigd door HugoBoss1985 op 03-01-2025 13:18 ]


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 13:08:
[...]


Het is ook geen realistisch scenario dat men een cpu van €300+ met een goedkopere videokaart gaat gebruiken (niet rationeel).
Alhoewel als je een modded Stalker G.A.M.M.A. of Supreme Commander speelt is raw single core performance (niet persé een X3D chip) koning.

Ik vind het met Cyberpunk wel erg bizar aangezien de B580 met die game juist exceptioneel (vaak 4060i niveau) goed naar voren leek te komen in de early release reviews.
Blijkbaar heeft Cyberpunk een redelijk goede cpu nodig.
Ik vond het op een 4770k met overclock en 2070 8gb nog aardig lopen en had niet echt een cpu bottleneck voor mijn gevoel.

De Sparkle Titan OC is de enige leuke kaart met (omdat) een Assassins Creed game erbij, vrij forse koeling en een anti-sag bracket.
Maar deze is ook al weer €10,- bij Megekko dan de eerste batch.
Zelf heb ik mentaal de Sparkle kaarten geblacklist omdat ze allemaal ontzettend slechte fanprofiles ootb komen.
https://www.techpowerup.c...arc-b580-titan-oc/36.html
Dit is al sinds de A series tijdperk zo en nog steeds snapt Sparkle niet hoe het moet.

Het komische is dat ik op 4k speel met een 7800X3D en een 7900XTX en ik in ~75% van de vallen een sterke CPU bottleneck heb. Zo zie je maar weer hoe gevaarlijk sweeping statements zijn dat op 4k de GPU belangrijker is.

Anyways, ik maak al heel erg lang hard dat een sterke CPU belangrijker is dan de meeste mensen denken omdat een CPU bottleneck veel onplezanter is dan een GPU bottleneck en ook hier kan je het zien.
Bij een GPU bottleneck (mits je genoeg VRAM hebt...) zie je dat de average fps meer richting de minimum fps kruipt en zodra ze bij elkaar in de buurt komen nemen ze allebei evenredig af.
Wat dit punt precies is hangt af van de games, maar je ziet eigenlijk nooit dat de 1% fps meer performance verliest dan average.
Bij een CPU bottleneck gaat je average fps achteruit maar je minimum fps nog veel meer.
En ik kan je alvast verklappen dat 1% fps veel belangrijker is dan average.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 13:18:
[...]

Zelf heb ik mentaal de Sparkle kaarten geblacklist omdat ze allemaal ontzettend slechte fanprofiles ootb komen.
https://www.techpowerup.c...arc-b580-titan-oc/36.html
Dit is al sinds de A series tijdperk zo en nog steeds snapt Sparkle niet hoe het moet.

Het komische is dat ik op 4k speel met een 7800X3D en een 7900XTX en ik in ~75% van de vallen een sterke CPU bottleneck heb. Zo zie je maar weer hoe gevaarlijk sweeping statements zijn dat op 4k de GPU belangrijker is.

Anyways, ik maak al heel erg lang hard dat een sterke CPU belangrijker is dan de meeste mensen denken omdat een CPU bottleneck veel onplezanter is dan een GPU bottleneck en ook hier kan je het zien.
Bij een GPU bottleneck (mits je genoeg VRAM hebt...) zie je dat de average fps meer richting de minimum fps kruipt en zodra ze bij elkaar in de buurt komen nemen ze allebei evenredig af.
Wat dit punt precies is hangt af van de games, maar je ziet eigenlijk nooit dat de 1% fps meer performance verliest dan average.
Bij een CPU bottleneck gaat je average fps achteruit maar je minimum fps nog veel meer.
En ik kan je alvast verklappen dat 1% fps veel belangrijker is dan average.
Dat was ik ook tegengekomen op internet maar ik begreep dat dit vooral de dual fan modellen trof en niet de triple fan modellen.
Het is nog steeds afwachten op ervaringen (reviews) van medetweakers.
Jammer dat die er nog niet zijn voor geen enkele B580 variant.

Het klopt helemaal wat je aangeeft.

Ik heb hetzelfde ervaren met een 7500f en 6800XT en 7900XT.
Nadat ik mijn DDR5 6000 ram timings heb getweaked m.b.v. de Buildzoid timings merk ik minder stutters en betere 0.1% lows.
Op 4k met flinke FSR upscaling en framegeneration (oftwel: cpu bottleneck aannemelijk).

Een lage minimum fps, lage 0,1% lows is inderdaad veel erger omdat dit vaak sub. 60fps en je dit ervaart als stotters, zeker als het sub 30fps gaat.

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 13:22:
[...]


Dat was ik ook tegengekomen op internet maar ik begreep dat dit vooral de dual fan modellen trof en niet de triple fan modellen.
Het is nog steeds afwachten op ervaringen (reviews) van medetweakers.
Jammer dat die er nog niet zijn voor geen enkele B580 variant.

Het klopt helemaal wat je aangeeft.

Ik heb hetzelfde ervaren met een 7500f en 6800XT en 7900XT.
Nadat ik mijn DDR5 6000 ram timings heb getweaked m.b.v. de Buildzoid timings merk ik minder stutters en betere 0.1% lows.
Op 4k met flinke FSR upscaling en framegeneration (oftwel: cpu bottleneck aannemelijk).

Een lage minimum fps, lage 0,1% lows is inderdaad veel erger omdat dit vaak sub. 60fps en je dit ervaart als stotters, zeker als het sub 30fps gaat.
De review die ik link betreft het triple fan model.
Dual fan modellen zijn nog wel een stapje erger ja.

Acties:
  • +1 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
Daarom maak ik ze zelf xD

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 13:23:
[...]

De review die ik link betreft het triple fan model.
Dual fan modellen zijn nog wel een stapje erger ja.
Jij doelt dus ook op het idle ramping van de fans?
Het Asrock model doet dit ook, danwel ongeveer de helft aan RPM's.
https://www.techpowerup.c...b580-steel-legend/36.html

Die Asrock heeft nog wat forsere koeling, helaas vind ik een witte kaart niet mooi/passend.
En de solderingen van e.e.a. op de Asrock kaart leken mij van wat lagere kwaliteit.
De Asrock gebruikt tevens veel dikkere thermalpads, in ieder geval voor het VRAM.

Ik vind 1700 rpm vrij normaal voor videokaart en 1300-1400rpm eigenlijk vrij netjes (onder load).

Afijn in het algemeen zou de Sparkle Titan OC mijn keuze zijn.

[ Voor 35% gewijzigd door HugoBoss1985 op 03-01-2025 13:28 ]


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 13:25:
[...]


Jij doelt dus ook op het idle ramping van de fans?

Het Asrock model doet dit ook, danwel ongeveer de helft aan RPM's.

https://www.techpowerup.c...b580-steel-legend/36.html
Ik had het eigenlijk meer over dat de kaart luider is dan reference wat in mijn optiek een giga fail is.
Idle ramping is overigens ook onplezant, maar ik betwijfel dat ik 600 of 300 rpm echt zal horen.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 13:27:
[...]

Ik had het eigenlijk meer over dat de kaart luider is dan reference wat in mijn optiek een giga fail is.
Idle ramping is overigens ook onplezant, maar ik betwijfel dat ik 600 of 300 rpm echt zal horen.
Gek dat die Sparkle luider is terwijl de rpm's lager zijn...
Misschien andere ventilator lagers en/of meer airflow noise dan de Intel kaart.

Sommige behuizingen i.c.m. dezelfde casefans (en rpm!) maken ook meer herrie, puur door de panelen waar de fans voor/achter zitten.

Je zou dan met betere koeling (grotere heatsink en +1 fan) inderdaad verwachten dat een hoger toerental niet nodig is.
Wellicht staat daar dan een koelere chip en langere levensduur tegenover.
Megekko geeft in ieder geval 3 jaar garantie op de Sparkle (versus een 2 jaar op een OG Intel kaartje).
Zoals @Majestici zegt zou ik dan (mits het storend is) "gewoon" het fanprofile tunen.

De Sparkle dual fan modellen zou ik persoonlijk, van wat ik gelezen heb, vandaan blijven.
En inderdaad met je eens dat dit nu met Battlemage Sparkle kaartjes nog steeds een probleem is... slechte zaak van Sparkle.

[ Voor 13% gewijzigd door HugoBoss1985 op 03-01-2025 13:35 ]


Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

https://i.imgflip.com/9fjpiv.jpg

Ben benieuwd of Intel dit op z'n minst officieel adresseert.

[ Voor 63% gewijzigd door Thomg op 03-01-2025 13:36 ]


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op vrijdag 3 januari 2025 @ 13:35:
https://i.imgflip.com/9fjpiv.jpg

Ben benieuwd of Intel dit op z'n minst officieel adresseert.
Ik ben ook benieuwd, Hardware Canucks had het erover dat ze met Intel in gesprek waren...

Afbeeldingslocatie: https://tweakers.net/i/KHcvY2kHkeyq7axemtB64ABws1Y=/x800/filters:sharpen(0.5,0.1,false):strip_exif()/f/image/QcGsxFBsxTTqNWXZwB1cFdJh.webp?f=fotoalbum_large

Het water is tenminste ook mooi blauw en de kaartjes zijn hier (nu) wel gewoon prima leverbaar :+

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Das wel een goede ja, al moet Oost Europa mogelijk ook bij Asia, ik hoorde daar ook slechte verhalen over de B580 prijzen (€379 kwam laatst nog langs voor B580 in die contreien).

Al staat er gelukkig inmiddels wel een B580 in de PW met een goede prijs, al is het wel een limited edition, dus geen idee hoe goed die leverbaar zal zijn / blijven.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Ook wat problemen met de B580, iets dat mogelijk juist de doelgroep voor deze kaarten zal raken helaas. Verminderde performance in bepaalde gevallen wanneer gecombineerd met 'budget' cpu's.






Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op vrijdag 3 januari 2025 @ 14:16:
Ook wat problemen met de B580, iets dat mogelijk juist de doelgroep voor deze kaarten zal raken helaas. Verminderde performance in bepaalde gevallen wanneer gecombineerd met 'budget' cpu's.


[YouTube: The Intel ARC B580 is Broken...on Older Systems]


[YouTube: Intel Arc B580 Overhead Issue! Upgraders Beware]
Dat (die video's) was nou net waar we het over hadden/wat al gepost was :P

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 15:00:
[...]


Dat (die video's) was nou net waar we het over hadden/wat al gepost was :P
Ik zie het ja, echt compleet gemist lol.

Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:16
De arc b580 houdt ook niet van een hdmi hub waar de arc a770 geen problemen ondervond heeft de b580 er wel last van voor de rest top .

Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
HugoBoss1985 schreef op vrijdag 3 januari 2025 @ 13:31:

Megekko geeft in ieder geval 3 jaar garantie op de Sparkle (versus een 2 jaar op een OG Intel kaartje).
Zoals @Majestici zegt zou ik dan (mits het storend is) "gewoon" het fanprofile tunen.
Doelde er eerder op dat ik gewoon de hele koeler zelf maak :P
Maar ik maak ook met Argus een beter profiel ja. Dikke 30 seconden moving average. Op de CPU zit zelfs 120seconden. Duurt toch een eeuwigheid voordat die 60-70W die koeler opgewarmd heeft en extra fan CFM ertoe doet.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Majestici schreef op vrijdag 3 januari 2025 @ 20:46:
[...]


Doelde er eerder op dat ik gewoon de hele koeler zelf maak :P
Maar ik maak ook met Argus een beter profiel ja. Dikke 30 seconden moving average. Op de CPU zit zelfs 120seconden. Duurt toch een eeuwigheid voordat die 60-70W die koeler opgewarmd heeft en extra fan CFM ertoe doet.
Interessant. Bedoel je dan een shroud/fan houder printen of ook echt het metalen koelblok vervaardigen?

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Majestici schreef op vrijdag 3 januari 2025 @ 12:53:
Arme steve, enige manier hoe hij dit gaat bevestigen is nog meer tests met de 3600 haha.
Heeft het al gedaan. :P


Maar kom op Intel. Eindelijk hadden jullie iets dat best goed leek te zijn. -O-
Maar je hebt zo te zien minstens een 5700X3D nodig om die videokaart een beetje te laten presteren, op 1080p. Helaas geen Intel processoren, want ik zou ook wel benieuwd zijn naar iets zoals de i5 12400 of de vraag of Intel beter werkt met Intel.

[ Voor 30% gewijzigd door DaniëlWW2 op 04-01-2025 11:29 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Ik vroeg me af of het met pci-e 3.0 (2600, 9600k) ipv pci-e 4.0 te maken had.

Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
HugoBoss1985 schreef op zaterdag 4 januari 2025 @ 11:39:
Ik vroeg me af of het met pci-e 3.0 (2600, 9600k) ipv pci-e 4.0 te maken had.
Volgens mij is dat juist waarom Intel REBAR nodig heeft, zodat er minder assetstreaming heen en weer moet. Wat ook weer CPU cycles kost. Maar de presatieverschillen in de laatste video betekend gewoon dat de CPU time die het kost om van een high-level API een low-level kernel/driver instructie te maken veel groter is dan bij AMD en Nvidia. In de volgorde AMD---> Nvidia -------------> Intel

Acties:
  • +2 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 10:16

Trygve

Redacteur
DaniëlWW2 schreef op zaterdag 4 januari 2025 @ 11:27:
[...]
Maar je hebt zo te zien minstens een 5700X3D nodig om die videokaart een beetje te laten presteren, op 1080p. Helaas geen Intel processoren, want ik zou ook wel benieuwd zijn naar iets zoals de i5 12400 of de vraag of Intel beter werkt met Intel.
Op Alchemist zag ik zelf bij een reeks AMD Ryzens en een reeks Intel Cores dat het op die laatste in verhouding inderdaad iets vlotter was dan bij Radeon en GeForce. Zodra de release-storm van komende tijd voorbij is, wil ik erg graag een vergelijkbare test met Battlemage en concurrentie gaan doen :)

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Majestici schreef op zaterdag 4 januari 2025 @ 11:45:
[...]


Volgens mij is dat juist waarom Intel REBAR nodig heeft, zodat er minder assetstreaming heen en weer moet. Wat ook weer CPU cycles kost. Maar de presatieverschillen in de laatste video betekend gewoon dat de CPU time die het kost om van een high-level API een low-level kernel/driver instructie te maken veel groter is dan bij AMD en Nvidia. In de volgorde AMD---> Nvidia -------------> Intel
Heel jammer.
Het wordt dus voor nu geen B580 voor mijn 3700x.
En dan nu nog de grote vraag of dat Intel dit wederom met drivers kan verbeteren of dat gewoon een hardware beperking is (ik snap dat nog niet)
En wat gaat dit doen met een eventuele b770/b780.

[ Voor 4% gewijzigd door HugoBoss1985 op 04-01-2025 12:00 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Ik ben ook wel benieuwd hoeveel mensen nu zo'n ding gekocht hebben om hun oude PC eindelijk wat juice te kunnen bijschakelen zich nu 'genaaid' voelen omdat alle reviewers hun initiele reviews logischerwijs allemaal met 9800X3D's (en misschien nog wat 14900K's) gedaan hebben.

Eigenlijk laat dit zien, dat ook al moet het niet de 'main menu' zijn in een release review, dat het toevoegen van scaling data met oudere / lager gepositioneerde cpu's eigenlijk geen overbodige luxe is. En dat dit weken later een keer doen misschien wel te laat is voor veel potentieel kopers.

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 13:22

mrc4nl

Procrastinatie expert

Dennism schreef op zaterdag 4 januari 2025 @ 12:00:
Ik ben ook wel benieuwd hoeveel mensen nu zo'n ding gekocht hebben om hun oude PC eindelijk wat juice te kunnen bijschakelen zich nu 'genaaid' voelen omdat alle reviewers hun initiele reviews logischerwijs allemaal met 9800X3D's (en misschien nog wat 14900K's) gedaan hebben.

Eigenlijk laat dit zien, dat ook al moet het niet de 'main menu' zijn in een release review, dat het toevoegen van scaling data met oudere / lager gepositioneerde cpu's eigenlijk geen overbodige luxe is. En dat dit weken later een keer doen misschien wel te laat is voor veel potentieel kopers.
Als een kaart je niet bevalt stuur je m toch terug naar de winkel waar je m gekocht heb en vraag je je geld terug. Je hoeft niet altijd eerst de reviews af te wachten. Zo moeilijk is het allemaal niet.

[ Voor 3% gewijzigd door mrc4nl op 04-01-2025 12:07 ]

ora et labora


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op zaterdag 4 januari 2025 @ 12:00:
Ik ben ook wel benieuwd hoeveel mensen nu zo'n ding gekocht hebben om hun oude PC eindelijk wat juice te kunnen bijschakelen zich nu 'genaaid' voelen omdat alle reviewers hun initiele reviews logischerwijs allemaal met 9800X3D's (en misschien nog wat 14900K's) gedaan hebben.

Eigenlijk laat dit zien, dat ook al moet het niet de 'main menu' zijn in een release review, dat het toevoegen van scaling data met oudere / lager gepositioneerde cpu's eigenlijk geen overbodige luxe is. En dat dit weken later een keer doen misschien wel te laat is voor veel potentieel kopers.
De ervaring leert dat wachten en geduld hebben vaak loont.
Ik kijk ook even naar de 7900xtx vapor Chambers issues.
Maar inderdaad vrij zuur voor early adopters met een ouder systeem.

In een goede review vind ik dat elke keer alle biossen(firmware), drivers én het OS geüpdate moeten zijn voor alle hardware die getest wordt. En dan alles opnieuw testen.

Een b580 met 9800x3d testen is geen realistisch gebruiker scenario maar handig om geen/zo min mogelijk cpu bottleneck te hebben.
Dat is nu juist de grap.

[ Voor 7% gewijzigd door HugoBoss1985 op 04-01-2025 12:09 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
DaniëlWW2 schreef op zaterdag 4 januari 2025 @ 11:27:
Helaas geen Intel processoren, want ik zou ook wel benieuwd zijn naar iets zoals de i5 12400 of de vraag of Intel beter werkt met Intel.
Ben ik inderdaad ook wel benieuwd naar, al was de initiële test van Hardware Canucks volgens mij met de i5 9600, dus in ieder geval op oudere Intel cpu's zou ik niet veel beter verwachten.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
mrc4nl schreef op zaterdag 4 januari 2025 @ 12:04:
[...]

Als een kaart je niet bevalt stuur je m toch terug naar de winkel waar je m gekocht heb en vraag je je geld terug. Zo moeilijk is het allemaal niet.
En dat kan ook overal :+ ? De meeste kopers zullen immers niet hier zitten (want het ding was amper leverbaar hier), maar in landen als de US. En voor de initiële batch die hier wel leverbaar was, is dat al ruim te laat, die 14 dagen zijn al om.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
HugoBoss1985 schreef op zaterdag 4 januari 2025 @ 12:04:


Een b580 met 9800x3d testen is geen realistisch scenario maar handig om geen/zo min mogelijk cpu bottleneck te hebben.
Dat is nu juist de grap.
Klopt, maar hier zie je dus een duidelijk voorbeeld waar dat soort testen niet voldoende is, en waar dus potentieel kopers door reviewers mogelijk op het verkeerde been gezet worden, niet omdat de testwijze niet goed is, want die manier van testen zoals ze nu gedaan hebben moet je simpelweg uitvoeren. Maar het laat wel zien dat je mogelijk niet alleen maar die tests moet uitvoeren in een release review en dan scalings tests veel later (Steve gaf bijvoorbeeld aan dat hij waarschijnlijk pas over enkele maanden aan dit soort tests zou zijn toegekomen als HW Canucks er niet mee gekomen was), omdat nu duidelijk de dataset die een potentieel koper nodig heeft om een weloverwogen keuze te maken hier niet volledig is geweest.

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 13:22

mrc4nl

Procrastinatie expert

Dennism schreef op zaterdag 4 januari 2025 @ 12:07:
[...]


En dat kan ook overal :+ ? De meeste kopers zullen immers niet hier zitten (want het ding was amper leverbaar hier), maar in landen als de US. En voor de initiële batch die hier wel leverbaar was, is dat al ruim te laat, die 14 dagen zijn al om.
Toen ik m'n b580 binnenkreeg heb ik 'm meteen ingebouwd en wat games gestart om te kijken of de kaart naar behoren werkte.

Die 14 dagen termijn gaat in op de dag na de dag waarop je het product hebt ontvangen.

ora et labora


Acties:
  • 0 Henk 'm!

  • Acteonis
  • Registratie: November 2018
  • Laatst online: 04-10 14:22
Wat is in dit verhaal de relatie tussen resizable bar en pcie 3/4? Ik heb zelf voor mijn oude systeem gekozen voor de 11400 ipv de 10400, specifiek omdat de 11e generatie intel processors pcie 4 ondersteunt. Ik zou eigenlijk een test waarbij een 10400 met een 11400 vergeleken wordt misschien wel interessant vinden. Die twee CPU's doen niet heel veel voor elkaar onder, maar de 10400 onsersteunt geen pcie 4.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Acteonis schreef op zaterdag 4 januari 2025 @ 12:14:
Wat is in dit verhaal de relatie tussen resizable bar en pcie 3/4? Ik heb zelf voor mijn oude systeem gekozen voor de 11400 ipv de 10400, specifiek omdat de 11e generatie intel processors pcie 4 ondersteunt. Ik zou eigenlijk een test waarbij een 10400 met een 11400 vergeleken wordt misschien wel interessant vinden. Die twee CPU's doen niet heel veel voor elkaar onder, maar de 10400 onsersteunt geen pcie 4.
Daar is geen relatie in, Rebar zit al in de standaard vanaf PCIE2.0, de vraag is alleen of er voor je moederbord een bios is die het beschikbaar maakt.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
mrc4nl schreef op zaterdag 4 januari 2025 @ 12:13:

Die 14 dagen termijn gaat in op de dag na de dag waarop je het product hebt ontvangen.
Dat klopt, maar is voor de mensen die de B580 dag 1 besteld hebben en deze dus 13/14 december hebben binnen gekregen niet echt relevant, immers is die termijn allang voorbij en die hebben dus niets meer aan dit nieuws. Immers gaat lang niet iedereen zelf benchmarken, als jij dat wel gedaan hebt, en de kaart teruggestuurd hebt, slim, maar voor veel kopers zal zoiets helaas niet opgaan.

Dat is alleen nog van toepassing voor mensen die de kaart op of later dan de 20ste ontvangen hebben. Voor iedereen daarvoor is het 'helaas pindakaas'.

[ Voor 12% gewijzigd door Dennism op 04-01-2025 12:21 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op zaterdag 4 januari 2025 @ 12:12:
[...]


Klopt, maar hier zie je dus een duidelijk voorbeeld waar dat soort testen niet voldoende is, en waar dus potentieel kopers door reviewers mogelijk op het verkeerde been gezet worden, niet omdat de testwijze niet goed is, want die manier van testen zoals ze nu gedaan hebben moet je simpelweg uitvoeren. Maar het laat wel zien dat je mogelijk niet alleen maar die tests moet uitvoeren in een release review en dan scalings tests veel later (Steve gaf bijvoorbeeld aan dat hij waarschijnlijk pas over enkele maanden aan dit soort tests zou zijn toegekomen als HW Canucks er niet mee gekomen was), omdat nu duidelijk de dataset die een potentieel koper nodig heeft om een weloverwogen keuze te maken hier niet volledig is geweest.
Helemaal mee eens. Ik begreep van HW Canucks dat ze al iets ervaren hadden met hun initial review maar dat ze er, tot nu, niet verder naar gekeken hadden.

Toevallig gisteren nog een Z270 bord gemod voor Above 4G decoding en rebar. Werkt leuk met de rx480 en registry hack. Ik had bijna de b580 gekocht en dan met i7 7700 en 3700x getest maar helaas (gelukkig niet gekocht).

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Dennism schreef op zaterdag 4 januari 2025 @ 12:00:
Ik ben ook wel benieuwd hoeveel mensen nu zo'n ding gekocht hebben om hun oude PC eindelijk wat juice te kunnen bijschakelen zich nu 'genaaid' voelen omdat alle reviewers hun initiele reviews logischerwijs allemaal met 9800X3D's (en misschien nog wat 14900K's) gedaan hebben.

Eigenlijk laat dit zien, dat ook al moet het niet de 'main menu' zijn in een release review, dat het toevoegen van scaling data met oudere / lager gepositioneerde cpu's eigenlijk geen overbodige luxe is. En dat dit weken later een keer doen misschien wel te laat is voor veel potentieel kopers.
Een sanity check is voldoende mits hier geen grappige resultaten uit komen. Kies een game die dit gedrag goed vertoont (e.g. spider man, hogwarts) en dat is wel voldoende. Meer dan dat lijkt me wat overkill.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Thomg schreef op zaterdag 4 januari 2025 @ 12:45:
[...]

Een sanity check is voldoende mits hier geen grappige resultaten uit komen. Kies een game die dit gedrag goed vertoont (e.g. spider man, hogwarts) en dat is wel voldoende. Meer dan dat lijkt me wat overkill.
Nouja men kijkt ook nog wel eens naar videokaarten voor een aantal hele specifieke games. Ik speel vrijwel geen enkele game die in de professionele reviews getest worden.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Thomg schreef op zaterdag 4 januari 2025 @ 12:45:
[...]

Een sanity check is voldoende mits hier geen grappige resultaten uit komen. Kies een game die dit gedrag goed vertoont (e.g. spider man, hogwarts) en dat is wel voldoende. Meer dan dat lijkt me wat overkill.
Eens, tenzij natuurlijk uit de sanity check blijkt dat er wel vreemde resultaten zijn. Dan zou je m.i. dit wel verder moeten uitdiepen voordat de release reviews online gaan. Maar goed, hier lijken alle reviewers de sanity check dus al niet gedaan te hebben, want deze verschillen hadden dan op moeten vallen.

Acties:
  • 0 Henk 'm!

  • westlym
  • Registratie: December 2007
  • Laatst online: 03-10 23:58
Heb gisteren mijn asrock b580 ingebouwd, en heb cod bo gespeeld. Het ging zeer goed. Ik vind het jammer dat men een nieuwe product ineens door enkele reviews afschrijft. Geef intel effe de kans. Ik ga van de week nog andere spelletjes testen.

Acties:
  • 0 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 28-09 11:18
westlym schreef op zaterdag 4 januari 2025 @ 16:16:
Heb gisteren mijn asrock b580 ingebouwd, en heb cod bo gespeeld. Het ging zeer goed. Ik vind het jammer dat men een nieuwe product ineens door enkele reviews afschrijft. Geef intel effe de kans. Ik ga van de week nog andere spelletjes testen.
Wat heeft dit met een kans te maken, is een hele specifieke klacht. Namelijk driver overhead. Ook niet iets wat je even eruit patched, aangezien deze drivers nu al jaren in ontwikkeling zijn.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
westlym schreef op zaterdag 4 januari 2025 @ 16:16:
Heb gisteren mijn asrock b580 ingebouwd, en heb cod bo gespeeld. Het ging zeer goed. Ik vind het jammer dat men een nieuwe product ineens door enkele reviews afschrijft. Geef intel effe de kans. Ik ga van de week nog andere spelletjes testen.
Het product is dan ook niet afgeschreven, maar zal wel opnieuw beoordeeld moeten worden op basis van de nu bekende feiten. Steve van HuB heeft bijv. al aangegeven dat er ergens volgende week een nieuwe / geupdate review gaat komen met nieuwe conclusies.

waarbij je er enigszins vanuit kan gaan dat dit product op het $250 niet meer zal worden aangeraden als je een oude / trage cpu hebt tenzij ze dit gaan oplossen. Game je met een cpu die performant genoeg is zal het nog steeds een prima GPU zijn mits verkrijgbaar op het $250 / +- €280-289 prijspunt, idem voor mogelijk hogere resoluties, waar het minder lijkt te spelen.

Bij prijzen daarboven is het eigenlijk te duur en heb je een tragere cpu kan het goed zijn dat de B580 alleen aangeraden kan worden als het prijspunt nog wat lager ligt, bijvoorbeeld op $199 dollar.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Ik kwam deze gisteren nog tegen (B580 i7 8086k Z390 vs 7500f).

YouTube: LIVESTREAM - RETEST INTEL ARC B580 on 5Y+ OLD CPU (Core i7 8th Gen)

Acties:
  • +3 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Nog een interessant artikel wat heel diep op de B580 overhead in gaat.

https://chipsandcheese.co...driver-overhead-on-intels

Acties:
  • +2 Henk 'm!

  • Hoeloeloe
  • Registratie: December 2007
  • Laatst online: 03-10 20:25
Gisteren de B580 binnen gekregen, geïnstalleerd en 's avonds en vandaag getest op mijn systeem van 4 jaar oud:
OS: Manjaro, kernel 6.13 rc5
CPU: AMD Ryzen 5 3600
RAM: 16 GB
Chipset: B450

ReBar ondersteuning werkt op dit systeem, en de Intel driver geeft ook aan in Windows dat het geactiveerd is.

Ik heb de kaart gehaald om af en toe wat mee te gamen. Maar helaas, grafische glitches in game op Linux:
- Grounded speelbaar (en draait ook veel beter dan mijn op oude GTX 1650 super), maar fletse kleuren her en der en onder water niet goed zicht
- Shadow of Tomb Raider, gedraaid voor de benchmark: benchmark crashed op DX12, draait wel goed op DX11, en haalt daar gemiddeld 60 FPS op 2560x1440 op High, waar de 1650 gemiddeld 40 FPS haalt op 1920x1080

In Windows overigens geen problemen aangetroffen in Grounded, daar liep het uitstekend.

Dus nog geen B580 voor mij, deze gaat weer weg totdat de Mesa drivers op Linux in orde zijn.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HWU is lekker bezig geweest met de B580 testen met de Ryzen 5600.
Tja, hier is al prestatieverlies voor de B580 op de RTX4060 en RX7600. Gemiddeld gaat die op 1080p van de snelste naar de langzaamste met een "mindere" CPU zoals de 5600.



Dit is gewoon echt niet goed. :-(
De B580 leek echt een mooi product te zijn voor de lagere middenklasse. Maar als je met een 5600 al prestatieverlies krijgt. Met de 5600 haalt de B580 nog circa 83% van de prestaties die met de 9800X3D werden gehaald. De RTX4060 houdt nog circa 92% over en de RX7600 nog circa 92%.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
DaniëlWW2 schreef op vrijdag 10 januari 2025 @ 11:14:
HWU is lekker bezig geweest met de B580 testen met de Ryzen 5600.
Tja, hier is al prestatieverlies voor de B580 op de RTX4060 en RX7600. Gemiddeld gaat die op 1080p van de snelste naar de langzaamste met een "mindere" CPU zoals de 5600.

[YouTube: 9800X3D vs. R5 5600, Old PC vs. New PC: Intel Arc B580 Re-Review!]

Dit is gewoon echt niet goed. :-(
De B580 leek echt een mooi product te zijn voor de lagere middenklasse. Maar als je met een 5600 al prestatieverlies krijgt. Met de 5600 haalt de B580 nog circa 83% van de prestaties die met de 9800X3D werden gehaald. De RTX4060 houdt nog circa 92% over en de RX7600 nog circa 92%.
Mooi dat ze ook op 1440p getest hebben met verschillende presets én upscaling!
Erg duidelijke en uitgebreide test.
We hebben weer mazzel dat Steve van CES gebanned was :P

Ik zit nog steeds met de vraag (of liever: de hoop) of dat Intel dit met drivers gaat fixen?

Starfield is wel echt een drama maar dat lijkt zeer zwaar/niet geoptimaliseerd voor veel cpu's en/of grafische kaarten.
En Spiderman.
Drama.

Ik blijf het toch een mooi kaartje (gpu) vinden, 3060ti prestaties met 12gb / 6700 xt is toch erg mooi.
Nu zou ik eerder voor de Acer of de Asrock gaan bij NBB gezien de gestegen prijzen in NL *kuch* Megekko €20 meer voor de Sparkle sinds launch prijs *kuch*.

[ Voor 20% gewijzigd door HugoBoss1985 op 10-01-2025 11:35 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:46
Gewoon een B580 kopen dus als je na de aanschaf van je 100 euro te dure 9800X3D geen budget meer over hebt voor een highend GPU :+ Haal je in ieder geval alles eruit wat er in zit ;)

Op een meer serieuze noot, eens met @DaniëlWW2 dit is inderdaad gewoon niet goed. Hoop wel dat iets als dit er ook voor zorgt dat de reviewers voortaan in de dag 1 reviews in ieder geval iets van een scaling test doen in plaats van enkel testen met de top of the line cpu's.

Je zal als consument hier of in de US maar een B580 gekocht hebben met je Ryzen 2600 of 3600 op basis van de 'rave reviews' gebaseerd op tests met de beste cpu's en het US prijs punt. In de US heb je dan nog het geluk dat je in ieder geval niet (te)veel betaald hebt (al maakt dit wel dat het $250 ook niet zo heel sterk meer is imho, dat mag zo nog wel wat lager). Gelukkig waren / zijn ze in de EU niet heel goed leverbaar op een normaal prijspunt, zodat hopelijk niet teveel mensen ook nog eens teveel betaald hebben voor een GPU die nu mogelijk niet aan de verwachtingen voldoet.

Nog maar 'slecht' nieuws ook in Steve's conclusie, hij komt volgende week ook nog met een 50 game sample test van de B580 en de 4060 en die ziet er ook niet heel goed uit. Er blijft dan nog maar 5-7% over van de voorsprong van de B580. Het 12 game sample van HuB in de initiële review was dus blijkbaar ook al redelijk biased naar de B580.

[ Voor 20% gewijzigd door Dennism op 10-01-2025 11:40 ]


Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Nu online

Thomg

Aww yiss

Misschien voor Tweakers leuk om te testen met een 245K :+

Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 13:16
Snelheid wat opgeschroefd
Afbeeldingslocatie: https://tweakers.net/i/UUgSv9J0kE-pA5aZPPV6-XWm6-o=/234x176/filters:strip_icc():strip_exif()/f/image/AZgi6NuJ4EuJ21F1T0BXqwrz.jpg?f=fotoalbum_medium

Asrock b580 steel legend

[ Voor 3% gewijzigd door Beaudog op 13-01-2025 14:30 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Intel heeft de ARC Battlemage CPU overhead issues aardig aangepakt.

Flinke FPS verbeteringen tot wel 35% op oudere cpu's met nieuwere Intel drivers.

YouTube: Huge Arc B580 News! Intel Fixes CPU Overhead Problem
Pagina: 1 2 3 Laatste