Acties:
  • 0 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 14:33
WeirCo schreef op maandag 12 oktober 2020 @ 21:03:
[...]


Ik zou zo graag zonder trucs en gekke technieken een game als Assetto Corsa Competizione op m'n Reverb (G2 staat nog in pre-order) draaien op 150%SS op nagenoeg full quality zonder gestotter en getrut.

En ja dat is zo'n beetje de slechts mogelijk geoptimaliseerde VR game die ik kan bedenken. Dan heb je dus op dit moment zelfs aan een 3090 niet genoeg power...
Volledig offtopic, maar het werkt uitstekend :+
Heb gisteren toevallig mijn 3080 op zijn staart getrapt, 150% SteamVR, 120% ACC en de default High VR settings.
Dat is prima te doen op 90FPS locked, gebruik een Samsung 0 +

Maar deze sim is wel de reden dat ik kijk naar de Big Navi kaart, ik kom lelijk in de knoei met alle monitoren en de VR bril, die 4 monitoren limiet heeft AMD nooit gehad met de Radeon kaarten.

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:55
raymondw schreef op dinsdag 13 oktober 2020 @ 08:55:


Maar deze sim is wel de reden dat ik kijk naar de Big Navi kaart, ik kom lelijk in de knoei met alle monitoren en de VR bril, die 4 monitoren limiet heeft AMD nooit gehad met de Radeon kaarten.
Klopt dat wel? Ik ben in het verleden regelmatig in de knoei gelopen met Radeon kaarten en limieten aan het aantal schermen, ook daar vaak maximaal 3-4 schermer tenzij je koos voor duurdere modellen die specifiek uitgerust waren voor meer schermen.

Bijvoorbeeld bij videowalls voor monitoring of het weergeven van bijvoorbeeld andere (KPI) data.

Acties:
  • 0 Henk 'm!

  • thomaskm
  • Registratie: September 2016
  • Laatst online: 19-09 18:44
Even een vraag van een leek: kan iemand misschien iets vertellen over wanneer we de nieuwe kaarten van AMD echt kunnen gaan kopen, en of er iets bekend is over of AMD net zulke voorraadproblemen gaat krijgen als NVIDIA? Ik schipper nog tussen kiezen voor een 3070 of een van de nieuwe AMD-kaarten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

thomaskm schreef op dinsdag 13 oktober 2020 @ 11:19:
Even een vraag van een leek: kan iemand misschien iets vertellen over wanneer we de nieuwe kaarten van AMD echt kunnen gaan kopen, en of er iets bekend is over of AMD net zulke voorraadproblemen gaat krijgen als NVIDIA? Ik schipper nog tussen kiezen voor een 3070 of een van de nieuwe AMD-kaarten.
We hebben geen idee. AMD roept af en toe wel dingen over dat ze wel goede beschikbaarheid zouden hebben, maar dat zegt alsnog weinig en we hebben geen harde datum.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

thomaskm schreef op dinsdag 13 oktober 2020 @ 11:19:
Even een vraag van een leek: kan iemand misschien iets vertellen over wanneer we de nieuwe kaarten van AMD echt kunnen gaan kopen, en of er iets bekend is over of AMD net zulke voorraadproblemen gaat krijgen als NVIDIA? Ik schipper nog tussen kiezen voor een 3070 of een van de nieuwe AMD-kaarten.
Wanneer? Is volgensmij niet bekend. Aankondiging cpu's was 8 oktober met verkrijgbaarheid 5 november.
Wellicht herhaald zich dit voor de gpu's en wordt het 28 oktober aankondiging en laatste week november verkrijgbaarheid.

Voorraad: Dat is niet te zeggen omdat we niet weten hoe goed de AMD kaarten echt worden, de prijs en hoeveel er geproduceerd wordt.

Desalniettemin zou ik verwachten dat het normaal gesproken wel makkelijker zou moeten zijn om een AMD te krijgen. Maar denk dat je nog steeds wel in de startblokken moet zitten.

Mensen zijn tegenwoordig nog aggressiever op zoek naar gpu's dan in Maart 2020 naar pleepapier. :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:55
thomaskm schreef op dinsdag 13 oktober 2020 @ 11:19:
Even een vraag van een leek: kan iemand misschien iets vertellen over wanneer we de nieuwe kaarten van AMD echt kunnen gaan kopen, en of er iets bekend is over of AMD net zulke voorraadproblemen gaat krijgen als NVIDIA? Ik schipper nog tussen kiezen voor een 3070 of een van de nieuwe AMD-kaarten.
Voordat de 3070 in de verkoop gaat komt AMD met haar presentatie (de 28ste), daar zal waarschijnlijk een boel duidelijker worden qua performance / release date en de prijzen.

Deze informatie kan je dan meenemen om een keuze te maken tussen AMD of de RTX 3070.

Acties:
  • 0 Henk 'm!

  • Ballondier
  • Registratie: April 2018
  • Laatst online: 24-06 16:29
Ik zou gewoon lekker wachten tot begin 2021. Dan is er veel meer duidelijk over welke kaarten er allemaal te koop zijn en hoe die zich tot elkaar verhouden. Daarnaast zal de verkrijgbaarheid dan ook al wel een stuk beter zijn.

Acties:
  • 0 Henk 'm!

  • thomaskm
  • Registratie: September 2016
  • Laatst online: 19-09 18:44
Dankjulliewel! Ik vermoed dat mijn ongeduld het uiteindelijk gaat winnen en ik geen zin heb om te wachten tot eind november, en dus eind oktober ga proberen een 3070 te bemachtigen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Dennism schreef op dinsdag 13 oktober 2020 @ 11:15:
[...]


Klopt dat wel? Ik ben in het verleden regelmatig in de knoei gelopen met Radeon kaarten en limieten aan het aantal schermen, ook daar vaak maximaal 3-4 schermer tenzij je koos voor duurdere modellen die specifiek uitgerust waren voor meer schermen.

Bijvoorbeeld bij videowalls voor monitoring of het weergeven van bijvoorbeeld andere (KPI) data.
Was die limiet niet voornamelijk doordat er voor HDMI een aparte chip op moest zitten voor een clocksignaal wat bij DP niet nodig is? Dus als je DVI en HDMI had dat je maar een van de twee kon gebruiken.
Zelf heb ik nooit die lmitatie gemerkt met DP; daarnaast werkt daisychaining erg goed.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op dinsdag 13 oktober 2020 @ 11:15:
[...]


Klopt dat wel? Ik ben in het verleden regelmatig in de knoei gelopen met Radeon kaarten en limieten aan het aantal schermen, ook daar vaak maximaal 3-4 schermer tenzij je koos voor duurdere modellen die specifiek uitgerust waren voor meer schermen.

Bijvoorbeeld bij videowalls voor monitoring of het weergeven van bijvoorbeeld andere (KPI) data.
Het verschil is dat bij AMD in principe de limiet bij het aantal outputs ligt, terwijl het bij Nvidia in de chip zelf zit. Nvidia ondersteunt maximaal 4 displays, ongeacht of het DP of HDMI achterop is. Dus ook al heb je 6 aansluitingen, je kunt er maar 4 gebruiken.

Bij AMD ligt het anders. AMD heeft 2 clock generators in hun chips zitten voor passieve aansluitingen (HDMI, DVI, VGA); bij mijn weten is dat al zo sinds Cypress, correct me if I'm wrong. DisplayPort doen ze echter geheel anders dan Nvidia en daar zit in principe geen limiet aan. Dus als jij achterop 2x HDMI, 1x DVI en 3x DP hebt kun je inderdaad maximaal 5 schermen aansluiten; 2 HDMI/DVI en 3 DP. Als je echter 2x HDMI en 4x DP hebt, kun je gewoon 6 schermen aansluiten - bij Nvidia ben je dan alsnog beperkt tot 4 stuks.

Je moet dan wel de DP poorten "correct" gebruiken: monitors met native DP, niet via passieve adapters. Want als je een passieve DP -> HDMI adapter gebruikt, heb je alsnog een clock signaal nodig vanuit de GPU; met actieve adapters maakt het allemaal weer niets uit.

In de meeste gevallen ligt het probleem niet bij AMD, maar bij de schermen en/of enige gebruikte adapters. HDMI, DVI, VGA en passieve DP adapters voor die aansluitingen hebben nu eenmaal een clock nodig.

Acties:
  • +2 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:12

Mars Warrior

Earth, the final frontier

Ik kwam ten aanzien van DLSS / RIS nog een verhaal van MS tegen over de xbox x series, inclusief een demo (2019) om met DirectML aan scaling te doen (goh, toevallig is dat demo model destijds door nVidia aangeleverd -> soms DLSS 1.x??):

Xbox Series X: AI Custom Hardware Support Offers Unparalleled Intelligence for Machine Learning

In het filmpje is de techniek erachter en de super resolution demo te zien in Forza Horizon 3 van 540p naar 1080p.
De gebruikte software is open source.

Vraag me af of dit soort technieken dus gebruikt gaan worden in games op de xbox x en ps5, en of die technieken dus doorsijpelen naar de RDNA2 GPU's op de PC! DirectML kan zowel de shaders gebruiken (dus AMD) als tensor cores (dus nVidia).

Lijkt me dus dat een AI based RIS best haalbaar is voor AMD :9~

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:12

Mars Warrior

Earth, the final frontier

Verder zijn de koeien wel erg stil de laatste tijd :X

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
thomaskm schreef op dinsdag 13 oktober 2020 @ 11:19:
Even een vraag van een leek: kan iemand misschien iets vertellen over wanneer we de nieuwe kaarten van AMD echt kunnen gaan kopen, en of er iets bekend is over of AMD net zulke voorraadproblemen gaat krijgen als NVIDIA? Ik schipper nog tussen kiezen voor een 3070 of een van de nieuwe AMD-kaarten.
Zekerheid hebben we pas 28 Oktober, maar om je een idee te geven:
- Zen 3 Ryzen 5000 CPU's zijn aangekondigd 8 Oktober, bestelbaar 5 November
- RDNA2 RX 6000 GPU's worden aangekondigd 28 Oktober
- Xbox series X lanceert 10 November
- Playstation 5 lanceert 19 November
AMD zou RX6000 lanceren voordat de consoles dat doen, maar is nog niet bevestigd.

Geruchten:
- gerucht 24 september RedGamingTech (youtube): 9 November review samples, 11 November bestelbaar YouTube: RDNA 2 Not A Paper Launch & Possible Release Date | MS Details Xbox ...
- oud gerucht herhaald 30 september twitter Yuri Bubliy (maker van ClockTuner voor Ryzen) dat Zen 3 20 Oktober zou zijn en RDNA2 15-20 November, maar die tweet heeft hij inmiddels verwijderd. YouTube: Ryzen 5900X & 5800X Release Date Rumours | Starfield = Xbox Series X...

En dat is alles wat we momenteel weten. 9 November review samples zou alsnog nèt de "Big Navi eerst" belofte waarmaken t.o.v. de consoles, als Halo product op de PC voor de consoles.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
thomaskm schreef op dinsdag 13 oktober 2020 @ 11:41:
Dankjulliewel! Ik vermoed dat mijn ongeduld het uiteindelijk gaat winnen en ik geen zin heb om te wachten tot eind november, en dus eind oktober ga proberen een 3070 te bemachtigen.
De verwachting is ook dat AMD qua RX 6000 series meer voorraad zal hebben dan nVidia wat betreft de RTX 3080 / 3090. Zelf wacht ik ook niet langer dan 11-15 November want 16e en verder vrij genomen want Cyberpunk 2077 :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op dinsdag 13 oktober 2020 @ 12:10:
[...]

Het verschil is dat bij AMD in principe de limiet bij het aantal outputs ligt, terwijl het bij Nvidia in de chip zelf zit. Nvidia ondersteunt maximaal 4 displays, ongeacht of het DP of HDMI achterop is. Dus ook al heb je 6 aansluitingen, je kunt er maar 4 gebruiken.

Bij AMD ligt het anders. AMD heeft 2 clock generators in hun chips zitten voor passieve aansluitingen (HDMI, DVI, VGA); bij mijn weten is dat al zo sinds Cypress, correct me if I'm wrong. DisplayPort doen ze echter geheel anders dan Nvidia en daar zit in principe geen limiet aan. Dus als jij achterop 2x HDMI, 1x DVI en 3x DP hebt kun je inderdaad maximaal 5 schermen aansluiten; 2 HDMI/DVI en 3 DP. Als je echter 2x HDMI en 4x DP hebt, kun je gewoon 6 schermen aansluiten - bij Nvidia ben je dan alsnog beperkt tot 4 stuks.

Je moet dan wel de DP poorten "correct" gebruiken: monitors met native DP, niet via passieve adapters. Want als je een passieve DP -> HDMI adapter gebruikt, heb je alsnog een clock signaal nodig vanuit de GPU; met actieve adapters maakt het allemaal weer niets uit.

In de meeste gevallen ligt het probleem niet bij AMD, maar bij de schermen en/of enige gebruikte adapters. HDMI, DVI, VGA en passieve DP adapters voor die aansluitingen hebben nu eenmaal een clock nodig.
Dat laatste verklaart ook voor een deel de black screens gerapporteerd voor de RX5700XT drivers, terwijl het probleem dan vaak lag bij monitor / kabel. Wederom een leerzame post :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op dinsdag 13 oktober 2020 @ 14:47:
[...]

Dat laatste verklaart ook voor een deel de black screens gerapporteerd voor de RX5700XT drivers, terwijl het probleem dan vaak lag bij monitor / kabel. Wederom een leerzame post :)
Oh nee hoor, dat claim ik helemaal niet. Het kan best dat de drivers problematisch zijn/waren. Mijn post was puur over de hardware beperkingen :p

Neemt niet weg dat ik wel heel vaak posts zie waar men weldegelijk de verkeerde aansluiting wil gebruiken. 2160p60 over HDMI 1.3/1.4 zonder te weten dat je dan naar 4:2:0 moet of inderdaad 2 HDMI monitors en een passieve DP adapter voor HDMI monitor #3.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op dinsdag 13 oktober 2020 @ 14:47:
[...]

Dat laatste verklaart ook voor een deel de black screens gerapporteerd voor de RX5700XT drivers, terwijl het probleem dan vaak lag bij monitor / kabel. Wederom een leerzame post :)
Als je GPU niet genoeg (HDMI) clock drivers heeft, dan gaat je scherm gewoon nooit aan. Het is zeker niet dat je dan ineens random zwarte schermen krijgt.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:55
@Werelds Dat zou het inderdaad kunnen zijn, dit waren vaak veelal opstellingen waarbij relaties een boel TV's (dus HDMI) aangesloten wilden hebben om "mooi" informatie weer te geven.

Acties:
  • 0 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 14:33
Werelds schreef op dinsdag 13 oktober 2020 @ 12:10:
[...]

Het verschil is dat bij AMD in principe de limiet bij het aantal outputs ligt, terwijl het bij Nvidia in de chip zelf zit. Nvidia ondersteunt maximaal 4 displays, ongeacht of het DP of HDMI achterop is. Dus ook al heb je 6 aansluitingen, je kunt er maar 4 gebruiken.

Bij AMD ligt het anders. AMD heeft 2 clock generators in hun chips zitten voor passieve aansluitingen (HDMI, DVI, VGA); bij mijn weten is dat al zo sinds Cypress, correct me if I'm wrong. DisplayPort doen ze echter geheel anders dan Nvidia en daar zit in principe geen limiet aan. Dus als jij achterop 2x HDMI, 1x DVI en 3x DP hebt kun je inderdaad maximaal 5 schermen aansluiten; 2 HDMI/DVI en 3 DP. Als je echter 2x HDMI en 4x DP hebt, kun je gewoon 6 schermen aansluiten - bij Nvidia ben je dan alsnog beperkt tot 4 stuks.

Je moet dan wel de DP poorten "correct" gebruiken: monitors met native DP, niet via passieve adapters. Want als je een passieve DP -> HDMI adapter gebruikt, heb je alsnog een clock signaal nodig vanuit de GPU; met actieve adapters maakt het allemaal weer niets uit.

In de meeste gevallen ligt het probleem niet bij AMD, maar bij de schermen en/of enige gebruikte adapters. HDMI, DVI, VGA en passieve DP adapters voor die aansluitingen hebben nu eenmaal een clock nodig.
Klopt, zodra een Nvidia kaart een 5e display krijgt crasht de hele chip.
Mijn vorige RTX2080 en huidige RTX3080 moeten een volledige system powerdown hebben.
Zowel onder Windows als Ubuntu Linux 20.04 met kernel 5.9 gaat het fout.

Echter met een AMD kan ik bevestigen dat zelfs een RX580 dit al wel kan
3x FHD DP met MST
1x UWHD met HDMI
1x Samsung Odyssey+ met HDMI

De performance in VR is ietwat bedroevend met AC (sim), maar WMR werkt uitstekend d:)b

Als test heb ik nog een 6e monitor op de laatste display port aangesloten (3440x1440) en zelfs daarbij blijft de kaart functioneren.

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op dinsdag 13 oktober 2020 @ 15:05:
@Werelds Dat zou het inderdaad kunnen zijn, dit waren vaak veelal opstellingen waarbij relaties een boel TV's (dus HDMI) aangesloten wilden hebben om "mooi" informatie weer te geven.
Mja die zullen inderdaad wel gewoon van alles aan proberen te sluiten :+

Met Nvidia zouden ze dan echter ook tegen dezelfde limieten aanlopen, ook Nvidia heeft bij mijn weten slechts 2 clock generators.
raymondw schreef op dinsdag 13 oktober 2020 @ 15:40:
[...]

Klopt, zodra een Nvidia kaart een 5e display krijgt crasht de hele chip.
Mijn vorige RTX2080 en huidige RTX3080 moeten een volledige system powerdown hebben.
Zowel onder Windows als Ubuntu Linux 20.04 met kernel 5.9 gaat het fout.

Echter met een AMD kan ik bevestigen dat zelfs een RX580 dit al wel kan
3x FHD DP met MST
1x UWHD met HDMI
1x Samsung Odyssey+ met HDMI

De performance in VR is ietwat bedroevend met AC (sim), maar WMR werkt uitstekend d:)b

Als test heb ik nog een 6e monitor op de laatste display port aangesloten (3440x1440) en zelfs daarbij blijft de kaart functioneren.
Yep, dat klinkt herkenbaar.

Velen in het andere topic willen het niet horen, maar als het op meerdere monitors of gewoon het gebruik van DP aan komt, is Nvidia echt heel erg slecht. En dat zijn ze al bijna 20 jaar, want zo lang gebruik ik al twee monitors. Zelfs met ATI's oude, lelijke, trage en ingewikkelde CCC was het makkelijker en stabieler om meerdere monitors aan te sturen in eender welke opstelling. En met de release van Project SunSpot (Eyefinity voor diegenen die het na de laatste keer niet gegoogled hebben ;)) werkte dat ook bijna meteen zonder problemen. Ik heb toen een tijdje met zelfs 3 monitors gewerkt, puur omdat het kon :p

Het is ook niet voor niets dat ATI/AMD zo vroeg op DisplayPort zijn gesprongen en het ook meteen 100% correct hebben geïmplementeerd. Zolang de DP spec het toe staat, zal AMD het waarschijnlijk ook probleemloos doen. Het is jammer dat de aansluiting nooit verder dan PC's zal komen, want het blijft superieur aan HDMI.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:55
Werelds schreef op dinsdag 13 oktober 2020 @ 16:11:
[...]

Mja die zullen inderdaad wel gewoon van alles aan proberen te sluiten :+

Met Nvidia zouden ze dan echter ook tegen dezelfde limieten aanlopen, ook Nvidia heeft bij mijn weten slechts 2 clock generators.
Dat zou goed kunnen, echter waren die pctjes (standaard HP / Dell OEM Desktopjes) die wij dan moesten leveren in de regel uitgerust met een AMD kaartje.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sissors schreef op dinsdag 13 oktober 2020 @ 14:54:
[...]

Als je GPU niet genoeg (HDMI) clock drivers heeft, dan gaat je scherm gewoon nooit aan. Het is zeker niet dat je dan ineens random zwarte schermen krijgt.
Weer wat geleerd, dank aan de kennis hier!

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Henkje.doc
  • Registratie: November 2005
  • Laatst online: 09:05
AMD is toch altijd wat flexibeler met multiscreen setup en afwijkende maten?

Als de beschikbaarheid beter is dan gaat een overstap dichterbij komen.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Henkje.doc schreef op dinsdag 13 oktober 2020 @ 20:10:
AMD is toch altijd wat flexibeler met multiscreen setup en afwijkende maten?

Als de beschikbaarheid beter is dan gaat een overstap dichterbij komen.
Yup. Ik moet eerlijk bekennen dat ik ook nooit stil heb gestaan bij hoe slecht dit kan werken. Ik heb vaak genoeg in volle beunhaas methode maar schermen aangesloten op mijn Radeon's en het werkte altijd. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
sunsmountain schreef op dinsdag 13 oktober 2020 @ 14:47:
[...]

Dat laatste verklaart ook voor een deel de black screens gerapporteerd voor de RX5700XT drivers, terwijl het probleem dan vaak lag bij monitor / kabel. Wederom een leerzame post :)
Met mijn 7950 nooit problemen met Displayport, met de zelfde monitor met zelfde kabel maar dan met 5600XT elke week 1x een harde reboot na zwart scherm, eigenlijk alleen maar als het spel/GPU niks specifieks te doen heeft.
Lijkt meer een soort powermanagement probleem, maar binnen een maand of 2 wil ik upgraden en kan de overkoper het ermee uitzoeken. (voor een logisch bedrag natuurlijk.)

How do you save a random generator ?


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

enchion schreef op dinsdag 13 oktober 2020 @ 20:49:
[...]


Met mijn 7950 nooit problemen met Displayport, met de zelfde monitor met zelfde kabel maar dan met 5600XT elke week 1x een harde reboot na zwart scherm, eigenlijk alleen maar als het spel/GPU niks specifieks te doen heeft.
Lijkt meer een soort powermanagement probleem, maar binnen een maand of 2 wil ik upgraden en kan de overkoper het ermee uitzoeken. (voor een logisch bedrag natuurlijk.)
Koop een gecertificeerde DP kabel. :)
Om een of andere reden is Navi 10 zeer gevoelig voor niet gecertificeerde DP kabels die ook werkelijk niet volgens specificatie zijn gemaakt. Zeg maar 95% van alles dat je kan krijgen en vrijwel zeker iets dat bij je monitor zat. Dit soort black screens kunnen met vrijwel elke videokaart gebeuren, maar met Navi 10 is het echt opvallend hoe gevoelig ze kunnen zijn. Ja, ik was ook ietwat sceptisch, maar het werkte en dat was begin van het jaar toen het echt even tegen zat qua stabiliteit. ;)

Zie: https://www.displayport.o...category/cables-adaptors/
En ik heb twee van deze: pricewatch: Club 3D DisplayPort 1.4 kabel 2 meter HBR3 8K 60Hz Zwart

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op dinsdag 13 oktober 2020 @ 21:09:
[...]


Koop een gecertificeerde DP kabel. :)
Om een of andere reden is Navi 10 zeer gevoelig voor niet gecertificeerde DP kabels die ook werkelijk niet volgens specificatie zijn gemaakt. Zeg maar 95% van alles dat je kan krijgen en vrijwel zeker iets dat bij je monitor zat. Dit soort black screens kunnen met vrijwel elke videokaart gebeuren, maar met Navi 10 is het echt opvallend hoe gevoelig ze kunnen zijn. Ja, ik was ook ietwat sceptisch, maar het werkte en dat was begin van het jaar toen het echt even tegen zat qua stabiliteit. ;)

Zie: https://www.displayport.o...category/cables-adaptors/
En ik heb twee van deze: pricewatch: Club 3D DisplayPort 1.4 kabel 2 meter HBR3 8K 60Hz Zwart
Oh ik heb net die DP kabel die er bij zat ingeplugd, omdat DP zoveel beter is dan HDMI. Maar weer unpluggen? Ik heb 2 monitors nu, die 2e is DVI, zo te zien...

Serieus, AMD drivers zouden daar niet van afhankelijk moeten zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 13 oktober 2020 @ 21:13:
[...]

Oh ik heb net die DP kabel die er bij zat ingeplugd, omdat DP zoveel beter is dan HDMI. Maar weer unpluggen? Ik heb 2 monitors nu, die 2e is DVI, zo te zien...

Serieus, AMD drivers zouden daar niet van afhankelijk moeten zijn.
Heeft niks met drivers te maken. Er is een VESA spec voor DP kabels, maar zo ongeveer iedereen negeert die om de kabels goedkoper te maken. Het werkt meestal, maar niet altijd. Ja, het kan ook gebeuren met Nvidia en dat heeft ook niks met drivers te maken. Als je monitoren op HDMI kunnen draaien zonder beperkingen, nou ik zou terug gaan als je een Navi hebt. Anders maakt het niks uit tenzij je nu black screens krijgt. Voor mij maakte het niks uit met mijn HD7950, RX580 of RX Vega 56. Toen kwam de RX5700XT en was het een drama. :z

[ Voor 4% gewijzigd door DaniëlWW2 op 13-10-2020 21:17 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 19-09 11:11
Volgens RedGamingTech zijn de getoonde benchmark resultaten toch niet van het topmodel:
YouTube: AMD Didn't Show Fastest RDNA 2 Card & RTX 3080 20GB & 3060 Ti Price ...

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
enchion schreef op dinsdag 13 oktober 2020 @ 20:49:
Lijkt meer een soort powermanagement probleem
Zou heel goed kunnen. Ik weet niet of het met Cypress of Cayman was, maar als ik daar de memclock te ver omlaag gooide in m'n idle/2D preset (dan heb ik het over onder 150 MHz) gebeurden er ook hele rare dingen. Dat is waarom AMD's idle verbruik altijd iets hoger ligt, de manier waarop zij dit alles doen vergt nu eenmaal een paar watt.

Acties:
  • +1 Henk 'm!

  • Dutchy007
  • Registratie: September 2004
  • Laatst online: 21-09 11:47
Erkel schreef op dinsdag 13 oktober 2020 @ 22:38:
Volgens RedGamingTech zijn de getoonde benchmark resultaten toch niet van het topmodel:
YouTube: AMD Didn't Show Fastest RDNA 2 Card & RTX 3080 20GB & 3060 Ti Price ...
Het is niet zo, maar als Lisa op 28 oktober een leren jack aan heeft en dan aankondigt: "A while we showed you one of our RX6000 cards. This was our medium-level card. Today we announce the full range of RX6000 cards..." etc etc :)

Acties:
  • 0 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 19-09 11:11
Dutchy007 schreef op dinsdag 13 oktober 2020 @ 22:48:
[...]


Het is niet zo, maar als Lisa op 28 oktober een leren jack aan heeft en dan aankondigt: "A while we showed you one of our RX6000 cards. This was our medium-level card. Today we announce the full range of RX6000 cards..." etc etc :)
Het lijkt mij ook onwaarschijnlijk, maar goed een mens mag hopen toch?

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 01:50
Iets zegt me ook dat het niet de benchmark resultaten waren van de beste videokaart die AMD liet zien. Aan de ene kant moet je niet gaan hopen dat dit zo is, dan valt het alleen maar tegen.

Aan de andere kant... AMD had een hele show over hun Zen 3 processors en aan het eind lieten ze even RDNA2 zien, een glimpje. Je gaat dan toch niet de benchmarks tonen van je beste kaart? Dan is je show op 28 oktober toch geen klapper meer? Maar zoals anderen hier al zeiden is de marketing niet al te top daar.

offtopic:
Ik heb geen studie voor marketing gevolgd of iets in die richting, maar tijdens een minor wel de marketing gedaan voor een Steam game, gemaakt door studenten. Zelfs wij wisten... De echte klapper bewaar je voor het laatst.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • +4 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Werelds schreef op dinsdag 13 oktober 2020 @ 22:42:
[...]

Zou heel goed kunnen. Ik weet niet of het met Cypress of Cayman was, maar als ik daar de memclock te ver omlaag gooide in m'n idle/2D preset (dan heb ik het over onder 150 MHz) gebeurden er ook hele rare dingen. Dat is waarom AMD's idle verbruik altijd iets hoger ligt, de manier waarop zij dit alles doen vergt nu eenmaal een paar watt.
Met de 7950 had ik altijd ClockBlocker running om de kaart minimaal op 500mhz-GPU en MEM altijd op max mhz, om browser vlotter te laten reageren en microstutter te elimineren.
Met die settings ongeveer minder dan 1x per jaar een crash, wat vaak gevolg was van een te stoffige koeler of superslechte software.

Sadly enough kan je met Navi niet aan de echte (2D) minimumclocks komen (die inmiddels door verbetering van de technologie op 0mhz staat 8)7 ipv 150mhz voor de 7950), hoewel mijn MEM in ieder geval al af fabriek altijd op de maximumclock loopt.

Daarbij vind ik het absurd belachelijk dat op een nieuw MB met nieuw MEM en nieuw GPU een GPU nog steeds het hele systeem omver kan werpen.
Als de GPU nou eens gewoon live gerestart zou kunnen worden, zonder het hele OS in een full cold-start te forceren, maar nee die 0mhz is veel belangrijker.

Zowiezo de hoeveelheid info die je vanuit een OS krijgt over de oorzaak van een probleem is lachwekkend, als het echt de kabel is waarom kan 1 van die MS telemetry fetisjisten niet eens telemetry creeren waar de user wat aan heeft zoals bv aangeven dat hij moeilijkheden heeft om info/bits/bytes een roundtripje over een kabel te laten maken en zo kabel kwaliteit te kunnen weergeven.En ook bv spannings dips van je voeding te kunnen weergeven.
Maar Nee dat soort dingen zijn gewoon niet logisch genoeg om belangrijk te zijn, beter dat de User het antwoord in het Astrale veld zoekt want dat is VEEL efficienter.

Tijdje terug ook voor mijn externe geluidskaart regelmatig harde crashes, bleek na drivers/software aangesloten apparaten/voeding aan mijn USB kabel te liggen die een stekker had die iets te klein was waardoor de plug iets te scheef in de USB poort van de geluidskaart zat, waardoor de 5V lijn waarschijnlijk 1 van de signaal lijnen raakte.
Waarna het OS of MB de beslissing maakt om de PC maar uit te zetten. :) (niks mis mee overigens)
MAAR vertellen aan de gebruiker dat de USB poort 5V terugkrijgt NFW, zoek het maar uit. :F

Echt waar met de tech van 50 jaar geleden was dit al mogelijk.

[ Voor 13% gewijzigd door enchion op 14-10-2020 05:26 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
RobinNL schreef op dinsdag 13 oktober 2020 @ 23:18:
Iets zegt me ook dat het niet de benchmark resultaten waren van de beste videokaart die AMD liet zien. Aan de ene kant moet je niet gaan hopen dat dit zo is, dan valt het alleen maar tegen.

Aan de andere kant... AMD had een hele show over hun Zen 3 processors en aan het eind lieten ze even RDNA2 zien, een glimpje. Je gaat dan toch niet de benchmarks tonen van je beste kaart? Dan is je show op 28 oktober toch geen klapper meer? Maar zoals anderen hier al zeiden is de marketing niet al te top daar.

offtopic:
Ik heb geen studie voor marketing gevolgd of iets in die richting, maar tijdens een minor wel de marketing gedaan voor een Steam game, gemaakt door studenten. Zelfs wij wisten... De echte klapper bewaar je voor het laatst.
Lijkt mij eerder andersom. Je gaat toch niet benchmarks van een random midrange kaart laten zien? Waarom zou je dat doen? Je wil mensen juist zo enthousiast mogelijk maken. Laat anders gewoon niks zien.

Enige reden die ik zie dat het niet de high-end kaart is, is dat die nog niet stabiel genoeg draait voor een stel benchmarks. Dat zou dan ook weer genoeg zeggen over release van die kaart.

Acties:
  • +3 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:02
Lisa zij in de stream toch echt dat het de krachtigste gpu was die ze ooit gemaakt hadden.
Ondanks die statement blijven dromen dat het de midrange kaart was lijkt mij vragen om teleurstelling.
Dit is wat ze hebben niet meer. Iets sneller als een 2080TI en iets minder snel als een 3080.
Enige hoop is dat ze volgend jaar met een refresh komen en nvidia forceren een 'super' serie uit te brengen. Dit zit anders op een 2 jaar cycle en AMD kan ze naar een 1 jaar cycle forceren wat ook een win is voor gamers. Meer zit er denk ik simpelweg niet in.

Met de vinger naar marketing wijzen is ook niet correct. Je kan niet merketen wat er niet is.
Natuurlijk wil iedereen 4090 prestaties zien voor 599 maar dat gaat gewoon niet gebeuren.

Mochten ze toch met een snellere komen kan je alleen maar positief verrast worden maar ik acht die kans heeeeel laag.

[ Voor 15% gewijzigd door computerjunky op 14-10-2020 10:48 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

enchion schreef op woensdag 14 oktober 2020 @ 05:19:
[...]


Met de 7950 had ik altijd ClockBlocker running om de kaart minimaal op 500mhz-GPU en MEM altijd op max mhz, om browser vlotter te laten reageren en microstutter te elimineren.
Met die settings ongeveer minder dan 1x per jaar een crash, wat vaak gevolg was van een te stoffige koeler of superslechte software.

Sadly enough kan je met Navi niet aan de echte (2D) minimumclocks komen (die inmiddels door verbetering van de technologie op 0mhz staat 8)7 ipv 150mhz voor de 7950), hoewel mijn MEM in ieder geval al af fabriek altijd op de maximumclock loopt.

Daarbij vind ik het absurd belachelijk dat op een nieuw MB met nieuw MEM en nieuw GPU een GPU nog steeds het hele systeem omver kan werpen.
Als de GPU nou eens gewoon live gerestart zou kunnen worden, zonder het hele OS in een full cold-start te forceren, maar nee die 0mhz is veel belangrijker.

Zowiezo de hoeveelheid info die je vanuit een OS krijgt over de oorzaak van een probleem is lachwekkend, als het echt de kabel is waarom kan 1 van die MS telemetry fetisjisten niet eens telemetry creeren waar de user wat aan heeft zoals bv aangeven dat hij moeilijkheden heeft om info/bits/bytes een roundtripje over een kabel te laten maken en zo kabel kwaliteit te kunnen weergeven.En ook bv spannings dips van je voeding te kunnen weergeven.
Maar Nee dat soort dingen zijn gewoon niet logisch genoeg om belangrijk te zijn, beter dat de User het antwoord in het Astrale veld zoekt want dat is VEEL efficienter.

Tijdje terug ook voor mijn externe geluidskaart regelmatig harde crashes, bleek na drivers/software aangesloten apparaten/voeding aan mijn USB kabel te liggen die een stekker had die iets te klein was waardoor de plug iets te scheef in de USB poort van de geluidskaart zat, waardoor de 5V lijn waarschijnlijk 1 van de signaal lijnen raakte.
Waarna het OS of MB de beslissing maakt om de PC maar uit te zetten. :) (niks mis mee overigens)
MAAR vertellen aan de gebruiker dat de USB poort 5V terugkrijgt NFW, zoek het maar uit. :F

Echt waar met de tech van 50 jaar geleden was dit al mogelijk.
Dat is onderdeel van de Windows ervaring. Willekeurige comptabiliteitsproblemen hoor je zelf uit te vogelen na uren te hebben gezocht wat het misschien allemaal kan zijn. Als je durft om Windows hun probleemoplosser te draaien, dan hoor je hiervoor gestraft te worden met geen antwoord of onzin. :P

Ik heb er trouwens ook weer een met W10 2004. Ik kan de software van mijn Gigabyte F127Q of ASUS Sonic Studio 3 met geen mogelijkheid meer gestart krijgen. Programma's starten wel, maar dan openen ze niet terwijl het wel op de achtergrond draait volgens taakbeheer. Ik weet ook dat het geen hardwareprobleem is voor de monitor omdat de USB hub van mijn monitor gewoon werkt. Kan er gewoon mijn tablet eraan hangen en die verbind met de PC. Ik mis Sonic Studio alleen meer omdat het best handig was dat je gewoon kan selecteren voor welke games mijn headset automatisch de audio output zou moeten ontvangen. Onderdeel van de Windows ervaring. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Ik zou 't eerder achter de ruk drivers zoeken die deze tools onderwater draaien. Microsoft heeft met 2004 weer wat gaten gedicht, gezien de partijen die je noemt grote helden zijn in drivers vol gaten te releasen. Waarschijnlijk met de gedachte: dan hebben we maar één driver nodig die altijd werkt voor alle toepassingen! :+ Ze zullen nu wel niet de verwachte response krijgen van de driver en daarom niet starten.

[ Voor 14% gewijzigd door Paprika op 14-10-2020 10:29 ]


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
computerjunky schreef op woensdag 14 oktober 2020 @ 09:07:
[...]
Natuurlijk wil iedereen 4090 prestaties zien voor 599 maar dat gaat gewoon niet gebeuren.
Dat niet, maar op basis van wat ze in hun presentatie lieten zien komen de prestaties van de 6000-series aardig in de buurt van de 3080, laten we zeggen gemiddeld 5% lager (volgens mij was het minder, maar ok). Zojuist heb ik voor de grap even een gemiddelde prijs gemaakt van de 29 verschillende 3080 modellen die op dit moment in de Pricewatch staan. Ik kom dan uit op €987,67. Stel dat AMD hun beste kaart voor €700 in de markt zet, dan is de 3080 gemiddeld 41% duurder. De goedkoopste 3080 in de Pricewatch, de Asus TUF Gaming van €764,72, is 9,2% duurder. Mind you, levertijd voor die kaart is momenteel onbekend en de prijs is bij DustinHome, die wel een naampje heeft om simpelweg helemaal niet te leveren, zie o.a. de shopreviews waarbij mensen een half jaar wachten op hun product, laat staan een 3080. De andere webshop die hem levert is CentralPoint (een shop die met 1,5 ster ook niet bepaald uitblinkt) voor een prijs van €868,78 (24,1% duurder) waar de levertijd ook onbekend is. De goedkoopste 3080 die aangeboden wordt bij een meer betrouwbare webshop is de PNY 10GB XLR8 Gaming EPIC-X RGB Triple Fan bij Azerty voor €879,99 en ook daarvan is de levertijd onbekend. Ten opzichte van €700 is dat 25,7% duurder.

Tuurlijk moeten we nog zien tegen welke prijzen AMD hun 6000-serie in de markt gaat zetten, maar als het rond de €700 is dan lijkt het erop dat je toch vooral een dief van je eigen portemonnee bent als je gaat voor de 3080. Het is uberhaupt de vraag of je zelf die 5% performance gain die ze lieten zien daadwerkelijk gaat merken aangezien dat prestatieverschil afhankelijk is van veel andere factoren (game/toepassing, resolutie, overige PC-componenten).

Dat is het enige waar we tot nu toe uitspraken over kunnen doen. Als de 3070 voor €500 neergezet wordt lijkt dat mooi, maar ook daarbij moeten we afwachten wat de prijs in de markt gaat doen o.a. als gevolg van beschikbaarheid. Daarnaast blijft natuurlijk de grote vraag wat AMD daar tegenover gaat zetten.
computerjunky schreef op woensdag 14 oktober 2020 @ 09:07:
Mochten ze toch met een snellere komen kan je alleen maar positief verrast worden maar ik acht die kans heeeeel laag.
Dat denk ik ook :) Ik denk dat wat ze lieten zien het topmodel is, en ik vind het ontzettend knap dat ze in 1 generatie zo'n grote sprong weten te maken. Ze leggen daarmee Nvidia in mijn optiek toch aardig het vuur aan de schenen, want de 3090 is een niche-product dat nooit de strijd om de markt zal bepalen.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:02
pixeled schreef op woensdag 14 oktober 2020 @ 10:37:
[...]


Dat niet, maar op basis van wat ze in hun presentatie lieten zien komen de prestaties van de 6000-series aardig in de buurt van de 3080, laten we zeggen gemiddeld 5% lager (volgens mij was het minder, maar ok). Zojuist heb ik voor de grap even een gemiddelde prijs gemaakt van de 29 verschillende 3080 modellen die op dit moment in de Pricewatch staan. Ik kom dan uit op €987,67. Stel dat AMD hun beste kaart voor €700 in de markt zet, dan is de 3080 gemiddeld 41% duurder. De goedkoopste 3080 in de Pricewatch, de Asus TUF Gaming van €764,72, is 9,2% duurder. Mind you, levertijd voor die kaart is momenteel onbekend en de prijs is bij DustinHome, die wel een naampje heeft om simpelweg helemaal niet te leveren, zie o.a. de shopreviews waarbij mensen een half jaar wachten op hun product, laat staan een 3080. De andere webshop die hem levert is CentralPoint (een shop die met 1,5 ster ook niet bepaald uitblinkt) voor een prijs van €868,78 (24,1% duurder) waar de levertijd ook onbekend is. De goedkoopste 3080 die aangeboden wordt bij een meer betrouwbare webshop is de PNY 10GB XLR8 Gaming EPIC-X RGB Triple Fan bij Azerty voor €879,99 en ook daarvan is de levertijd onbekend. Ten opzichte van €700 is dat 25,7% duurder.

Tuurlijk moeten we nog zien tegen welke prijzen AMD hun 6000-serie in de markt gaat zetten, maar als het rond de €700 is dan lijkt het erop dat je toch vooral een dief van je eigen portemonnee bent als je gaat voor de 3080. Het is uberhaupt de vraag of je zelf die 5% performance gain die ze lieten zien daadwerkelijk gaat merken aangezien dat prestatieverschil afhankelijk is van veel andere factoren (game/toepassing, resolutie, overige PC-componenten).

Dat is het enige waar we tot nu toe uitspraken over kunnen doen. Als de 3070 voor €500 neergezet wordt lijkt dat mooi, maar ook daarbij moeten we afwachten wat de prijs in de markt gaat doen o.a. als gevolg van beschikbaarheid. Daarnaast blijft natuurlijk de grote vraag wat AMD daar tegenover gaat zetten.


[...]


Dat denk ik ook :) Ik denk dat wat ze lieten zien het topmodel is, en ik vind het ontzettend knap dat ze in 1 generatie zo'n grote sprong weten te maken. Ze leggen daarmee Nvidia in mijn optiek toch aardig het vuur aan de schenen, want de 3090 is een niche-product dat nooit de strijd om de markt zal bepalen.
Je vergeet in je hele verhaal dat amd mogelijk ook helemaal niet genoeg kan leveren en de prijzen dus ook omhoog zullen schieten. Veel fabrikanten maken amd en nvidia kaarten immers in dezelfde fabrieken.

Die x% duurder zou ik dus tot de release met een liksteen nemen.

We gaan het zien maar sneller als 3080 verwacht ik zeker niet. En meer als 720 zal ik ook niet betalen dus als due prijs niet zakt word get een tier lager en over 2 jaar een andere.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op woensdag 14 oktober 2020 @ 10:28:
Ik zou 't eerder achter de ruk drivers zoeken die deze tools onderwater draaien. Microsoft heeft met 2004 weer wat gaten gedicht, gezien de partijen die je noemt grote helden zijn in drivers vol gaten te releasen. Waarschijnlijk met de gedachte: dan hebben we maar één driver nodig die altijd werkt voor alle toepassingen! :+ Ze zullen nu wel niet de verwachte response krijgen van de driver en daarom niet starten.
Dat zou kunnen, maar het neemt niks weg van de observatie dat W10 compleet waardeloos is in je dit vertellen. ;) :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
DaniëlWW2 schreef op woensdag 14 oktober 2020 @ 10:53:
[...]


Dat zou kunnen, maar het neemt niks weg van de observatie dat W10 compleet waardeloos is in je dit vertellen. ;) :P
Maar dat is dan toch een software probleem? Dat een normale fabrikant een mooie melding heeft een deze bedrijven iets releasen wat bij een edge case helemaal niets doet, tja...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op woensdag 14 oktober 2020 @ 10:58:
[...]

Maar dat is dan toch een software probleem? Dat een normale fabrikant een mooie melding heeft een deze bedrijven iets releasen wat bij een edge case helemaal niets doet, tja...
Het is ook een software probleem, maar het gaat er juist om dat W10 je helemaal niks verteld waarom de programma's niet openen. Dat is ook niet handig als je werkt op basis van foutmeldingen door gebruikers om zaken op te lossen, zoals werkelijk iedereen doet. Nu krijg je, "is kapot" en weinig meer. Zoek het maar uit. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
DaniëlWW2 schreef op woensdag 14 oktober 2020 @ 11:10:
[...]


Het is ook een software probleem, maar het gaat er juist om dat W10 je helemaal niks verteld waarom de programma's niet openen. Dat is ook niet handig als je werkt op basis van foutmeldingen door gebruikers om zaken op te lossen, zoals werkelijk iedereen doet. Nu krijg je, "is kapot" en weinig meer. Zoek het maar uit. :z
Maar als de eerste regel zegt: shutdown if return code < 0 dan houdt het toch op? Dan kan Microsoft daar toch niets over zeggen...

Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
computerjunky schreef op woensdag 14 oktober 2020 @ 10:47:
[...]
Je vergeet in je hele verhaal dat amd mogelijk ook helemaal niet genoeg kan leveren en de prijzen dus ook omhoog zullen schieten. Veel fabrikanten maken amd en nvidia kaarten immers in dezelfde fabrieken.
Niet vergeten, simpelweg niet vermeldt :) Dat is iets dat we nu onmogelijk kunnen weten of meenemen in de discussie, dus waarom erover beginnen? Die €700,- van me was al aanname genoeg ;)
computerjunky schreef op woensdag 14 oktober 2020 @ 10:47:
Die x% duurder zou ik dus tot de release met een liksteen nemen.
Helemaal eens, we kunnen niet veel anders dan wachten en kijken hoe de situatie qua prijzen en beschikbaarheid er over zeg een maandje of twee voor staat, er vanuit gaande dat de 6000-serie dan wel beschikbaar is. Ik vind 't vooral leuk om wat met cijfers te goochelen en zo toch te proberen een beetje een beeld te vormen qua prijzen. We moeten toch wat terwijl we wachten...

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
computerjunky schreef op woensdag 14 oktober 2020 @ 10:47:
[...]


Je vergeet in je hele verhaal dat amd mogelijk ook helemaal niet genoeg kan leveren en de prijzen dus ook omhoog zullen schieten. Veel fabrikanten maken amd en nvidia kaarten immers in dezelfde fabrieken.

Die x% duurder zou ik dus tot de release met een liksteen nemen.

We gaan het zien maar sneller als 3080 verwacht ik zeker niet. En meer als 720 zal ik ook niet betalen dus als due prijs niet zakt word get een tier lager en over 2 jaar een andere.
Sneller dan een 3080 sluit ik niet uit. Lisa Su zei inderdaad: "dit is de krachtigste GPU ooit" maar Scott Herkelmann zei eerder: "we hebben *niet* vermeld welk model we zullen laten zien."

Beschikbaarheid van 3080 en 3090 is nu kunstmatig laag: nVidia gijzelt alle GDDR6X modules, en heeft de eigen verkoop gestopt. Dat zal in November een stuk beter zijn, wanneer de RX 6000 ook beschikbaar zal zijn, in vermoedelijk grote aantallen. Aan Samsung en TSMC zal het niet liggen.

Maar zeker weten doe je het natuurlijk nooit.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:02
sunsmountain schreef op woensdag 14 oktober 2020 @ 12:20:
[...]

Sneller dan een 3080 sluit ik niet uit. Lisa Su zei inderdaad: "dit is de krachtigste GPU ooit" maar Scott Herkelmann zei eerder: "we hebben *niet* vermeld welk model we zullen laten zien."

Beschikbaarheid van 3080 en 3090 is nu kunstmatig laag: nVidia gijzelt alle GDDR6X modules, en heeft de eigen verkoop gestopt. Dat zal in November een stuk beter zijn, wanneer de RX 6000 ook beschikbaar zal zijn, in vermoedelijk grote aantallen. Aan Samsung en TSMC zal het niet liggen.

Maar zeker weten doe je het natuurlijk nooit.
Tja dat schaar ik toch onder wishfull thinking. Onder het mom van wishfull thinking kan je ook zo redeneren dat botherlands 3 die als tease gebruikt werd de slechts presterende game is. Maar ik heb intel, nvidia of amd werkelijk nog nooit betrapt op het weergeven van een worst case scenario. Het is toch altijd cherry picked best case.

Persoonlijk vind ik tussen de 2080ti en 3080 prima als het rond de 600 euro is en 425 voor de 3070 competitie die daar net iets onder zit en dus rond de 2080ti zal zitten.


Features vind ik bij een goedkoper kaartje minder boeiend als bij de high end. Zo vind ik bij een 3070 dlss en reflex minder belangrijk als bij een 3080 waar ik verwzcht langer mee te doen. En dus ook bij amd maar vooral bij de goedkopere kaart de feature set minder uit. Tegen de tijd dat features breed geimplementeerd zijn over een paar jaar ben ik dan toch toe aan een upgrade.

We gaan het allemaal zien. Nog 2 weken. Hoop dat nvidia dan zijn zaakjes beter op orde heeft want mijn 1070 mag toch wel het gpu bejaardentehuis in. Die is zeer slecht oud geworden.

Wel hoop ik dat fabrikanten het ooit anders gaan doen. Ik erger me persoonlijk kapot aan het maanden lang ophypen en false hoop creëren. Speel gewoon meteen open kaart en laat zien wat je heb en wat je als klant kan verwachten het eind product kan je op dat moment toch al niet meer veranderen. Maarja dat zijn bedrijfstechnische keuzes, je wil immers de competitie niet die informatie geven. Maar het zou wel een veel prettigere omgeving creëren en veel op het internet rondhangende valse informatie wegnemen. A man can dream...

[ Voor 13% gewijzigd door computerjunky op 14-10-2020 12:44 ]


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
computerjunky schreef op woensdag 14 oktober 2020 @ 12:33:
[...]


Tja dat schaar ik toch onder wishfull thinking. Onder het mom van wishfull thinking kan je ook zo redeneren dat botherlands 3 die als tease gebruikt werd de slechts presterende game is. Maar ik heb intel, nvidia of amd werkelijk nog nooit betrapt op het weergeven van een worst case scenario. Het is toch altijd cherry picked best case.

Persoonlijk vind ik tussen de 2080ti en 3080 prima als het rond de 600 euro is en 425 voor de 3070 competitie die daar net iets onder zit en dus rond de 2080ti zal zitten.


Features vind ik bij een goedkoper kaartje minder boeiend als bij de high end. Zo vind ik bij een 3070 dlss en reflex minder belangrijk als bij een 3080 waar ik verwzcht langer mee te doen. En dus ook bij amd maar vooral bij de goedkopere kaart de feature set minder uit. Tegen de tijd dat features breed geimplementeerd zijn over een paar jaar ben ik dan toch toe aan een upgrade.

We gaan het allemaal zien. Nog 2 weken. Hoop dat nvidia dan zijn zaakjes beter op orde heeft want mijn 1070 mag toch wel het gpu bejaardentehuis in. Die is zeer slecht oud geworden.

Wel hoop ik dat fabrikanten het ooit anders gaan doen. Ik erger me persoonlijk kapot aan het maanden lang ophypen en false hoop creëren. Speel gewoon meteen open kaart en laat zien wat je heb en wat je als klant kan verwachten het eind product kan je op dat moment toch al niet meer veranderen. Maarja dat zijn bedrijfstechnische keuzes, je wil immers de competitie niet die informatie geven. Maar het zou wel een veel prettigere omgeving creëren en veel op het internet rondhangende valse informatie wegnemen. A man can dream...
Fair enough, ik zeg het naast de uitspraak van Scott ook op basis van de +50% performance / Watt claim, en m'n berekeningen. Als de teaser kaart tussen de 2080Ti en 3080 in zit, dan sluit dat perfect aan bij een socket power van 200W (TDP 250W), Navi 21a, 167% van een RX5700XT op 4k. Daarboven zit nog een driver gelekte socket power van 238W Navi 21b, en de 3e variant weten we nog niet

https://www.reddit.com/r/...navi_31_van_gogh_cezanne/.

Wat betreft wishful thinking, denk ik aan dat DLSS 2.1 een mooiere beeldkwaliteit zou geven dan dezelfde resolutie native. Daarnaast weten we nog niet hoe storend de artefacten zullen zijn (transparante textures, motion) en is DLSS afhankelijk van TAA developer implementatie. Ik vind het wel een mooie feature en denk dat AMD zeker Radeon Image Sharpening verder zal verbeteren om daar mee te concurreren, RIS 2.0, net zoals nVidia DLSS 1.0 verbeterd heeft met de tijd. Als de feature van AMD voor alle spellen gelijk werkt en meer open source is, heb ik liever zoiets dan dat developers extra moeite moeten doen.

Daarnaast is RDNA2 specifiek ontworpen voor games, terwijl Ampere ook veel compute doet. Het feit dat zowel PS5 als XSX ook RDNA2 gebruiken, zou wel eens de doorslag kunnen geven: welke developer gaat dan nog optimaliseren voor nVidia? Tenzij ze een zak geld krijgen natuurlijk >:) nVidia "the way it's meant to be paid"

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:12

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op woensdag 14 oktober 2020 @ 11:10:
[...]
Het is ook een software probleem, maar het gaat er juist om dat W10 je helemaal niks verteld waarom de programma's niet openen. Dat is ook niet handig als je werkt op basis van foutmeldingen door gebruikers om zaken op te lossen, zoals werkelijk iedereen doet. Nu krijg je, "is kapot" en weinig meer. Zoek het maar uit. :z
Volgens het almachtige internet en het rog forum van Asus moet je een ss3 cleanup tooltje draaien en dan weer je drivers installeren...

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:02
sunsmountain schreef op woensdag 14 oktober 2020 @ 13:06:
Als de feature van AMD voor alle spellen gelijk werkt en meer open source is, heb ik liever zoiets dan dat developers extra moeite moeten doen.
Zolang open source kwalitatief minimaal even goed is ben ik het daar zeker mee eens.
Zo is physx open source variant gewoon even goed en dus veelvoudig geïmplementeerd en tot standaard verheven maar ik vind RIS gewoon minderwaardig aan DLSS 2.0 maarja implementatie... dat blijft toch een pijnpuntje en een groot vraagteken. En daarnaast is de verdeling van features is erg slecht voor gamers op de korte termijn maar de kans dat AMD en Nvidia (en intel) samen aan een standaard zullen werken waar wij als gamers beter van worden is vrijwel nul.

Ondanks dat ik dus vaak nvidia features beter vind neemt dat niet weg dat ik helemaal geen fan ben van technieken die op de hardware van maar 1 bedrijf leunen ook al is het beter. Het kost altijd meer en vertraagd adoptie enorm en daar word ik als gamer minder blij van.

Ik hoop dan ook dat amd RIS naar dezelfde standaard kan tillen waardoor nvidia de silicon ruimte weer in kan zetten voor pure prestaties maar ik ben toch skeptisch gezien de huidige resultaten en de gebruikte techniek.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Dit klinkt best aardig: RIS + CAS. CAS maakt net als DLSS gebruik van TAA.

https://gpuopen.com/fidelityfx-cas/
Contrast Adaptive Sharpening (CAS) provides a mixed ability to sharpen and optionally scale an image. The algorithm adjusts the amount of sharpening per pixel to target an even level of sharpness across the image. Areas of the input image that are already sharp are sharpened less, while areas that lack detail are sharpened more. This allows for higher overall natural visual sharpness with fewer artifacts.

CAS was designed to help increase the quality of existing Temporal Anti-Aliasing (TAA) solutions. TAA often introduces a variable amount of blur due to temporal feedback. The adaptive sharpening provided by CAS is ideal to restore detail in images produced after TAA .

CAS’ optional scaling capability is designed to support Dynamic Resolution Scaling (DRS). DRS changes render resolution every frame, which requires scaling prior to compositing the fixed-resolution User Interface (UI). CAS supports both up-sampling and down-sampling in the same single pass that applies sharpening.
Maar het is niet hetzelfde als DLSS en ik acht de kans dat AMD tensor cores gaat toevoegen aan de hardware 0 (nul).

Softwarematig, qua UX, design, en marketing, vind ik nVidia ook beter, geen twijfel. Qua beeld kwaliteit en nauwkeurig weergeven met dan maar wat minder FPS heeft AMD vaak een streepje voor. Het zal nog wel even een kat & muis spelletje blijven tussen die twee.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
computerjunky schreef op woensdag 14 oktober 2020 @ 14:42:
[...]


Zolang open source kwalitatief minimaal even goed is ben ik het daar zeker mee eens.
Zo is physx open source variant gewoon even goed en dus veelvoudig geïmplementeerd en tot standaard verheven maar ik vind RIS gewoon minderwaardig aan DLSS 2.0 maarja implementatie... dat blijft toch een pijnpuntje en een groot vraagteken. En daarnaast is de verdeling van features is erg slecht voor gamers op de korte termijn maar de kans dat AMD en Nvidia (en intel) samen aan een standaard zullen werken waar wij als gamers beter van worden is vrijwel nul.

Ondanks dat ik dus vaak nvidia features beter vind neemt dat niet weg dat ik helemaal geen fan ben van technieken die op de hardware van maar 1 bedrijf leunen ook al is het beter. Het kost altijd meer en vertraagd adoptie enorm en daar word ik als gamer minder blij van.

Ik hoop dan ook dat amd RIS naar dezelfde standaard kan tillen waardoor nvidia de silicon ruimte weer in kan zetten voor pure prestaties maar ik ben toch skeptisch gezien de huidige resultaten en de gebruikte techniek.
Fantastisch dat Physx open source is, alleen draait het nog steeds niet op een AMD gpu. Zolang dat niet gebeurt dan zie ik er vrij weinig in om het open source te noemen.
Plus CUDA is nodig, dat is ook zo'n open standaard.

Daarnaast de mooie license die aan Physx zit:
I would check out the open source BSD-3 license and it's the SDK that has been made open source

Redistribution and use in source and binary forms, with or without modification, are permitted provided that the following conditions are met:

Redistributions of source code must retain the above copyright notice, this list of conditions and the following disclaimer.

Redistributions in binary form must reproduce the above copyright notice, this list of conditions and the following disclaimer in the documentation and/or other materials provided with the distribution.

Neither the name of the copyright holder nor the names of its contributors may be used to endorse or promote products derived from this software without specific prior written permission.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 16:21:
[...]


Fantastisch dat Physx open source is, alleen draait het nog steeds niet op een AMD gpu. Zolang dat niet gebeurt dan zie ik er vrij weinig in om het open source te noemen.
Plus CUDA is nodig, dat is ook zo'n open standaard.
[...]
Idd zelfde als wanneer AMD hun hele x86/64 architectuur open source maakt, weinig kans dat Intel het gaat gebruiken en helemaal 0% kans dat enig ander bedrijf het mag/kan gebruiken.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:02
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 16:21:
[...]


Fantastisch dat Physx open source is, alleen draait het nog steeds niet op een AMD gpu. Zolang dat niet gebeurt dan zie ik er vrij weinig in om het open source te noemen.
Plus CUDA is nodig, dat is ook zo'n open standaard.

Daarnaast de mooie license die aan Physx zit:

[...]
Totaal niet mijn punt.
Er zijn opengl opties die prima werken en een cpu variant die helemaal niet gpu afhankelijk zijn en dus is het helemaal niet relevant of het wel of niet op een amd gpu draait.
Er zitten dus Physx achtige features in de games van tegenwoordig alleen is er geen physx software of hardware meer voor nodig. Nvidia heeft dus een nieuwe feature op de markt gebracht en is later breed geimplementeerd in andere vormen.

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:12

Mars Warrior

Earth, the final frontier

Ach, ff wachten totdat DirectML echt aanslaat (Artikel van juni 2020):
  • AI Upscale of Low-Resolution Textures In Real-time
  • Xbox Series X Machine Learning – SDR to HDR Conversion
  • Machine Learning Upscaling
"According to developers, there may be even more uses for Machine Learning in gaming. Developers are still figuring out how to properly use DirectML, so I’m excited to see what the future will bring. Improved AI and physics would be a huge win for me."

Aangezien DirectML in DX12 zit mag je verwachten dat het veelvuldig gebruikt gaat worden door game developers. Of het daarmee dus ook automatisch beter performed op RDNA2 is even afwachten :9~

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
computerjunky schreef op woensdag 14 oktober 2020 @ 16:28:
[...]


Totaal niet mijn punt.
Er zijn opengl opties die prima werken en een cpu variant die helemaal niet gpu afhankelijk zijn en dus is het helemaal niet relevant of het wel of niet op een amd gpu draait.
Er zitten dus Physx achtige features in de games van tegenwoordig alleen is er geen physx software of hardware meer voor nodig. Nvidia heeft dus een nieuwe feature op de markt gebracht en is later breed geimplementeerd in andere vormen.
Je bedoelt OpenCL?
Dat lijkt me nogal logisch dat er geen Physx hardware of software nodig voor physics, er zijn genoeg andere engines beschikbaar waaronder Bullet en Havok; en het is ook prima mogelijk om er zelf een te schrijven (dat moest ik op de uni doen, zei het een minimale).
Toch hoop ik dat Physx doodbloed omdat het gewoon een gesloten ding is.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 17:20:
[...]


Je bedoelt OpenCL?
Dat lijkt me nogal logisch dat er geen Physx hardware of software nodig voor physics, er zijn genoeg andere engines beschikbaar waaronder Bullet en Havok; en het is ook prima mogelijk om er zelf een te schrijven (dat moest ik op de uni doen, zei het een minimale).
Toch hoop ik dat Physx doodbloed omdat het gewoon een gesloten ding is.
At GDC 2015, Nvidia made the source code for PhysX available on GitHub, but required registration at developer.nvidia.com.[8] The proprietary SDK was provided to developers for free for both commercial and non-commercial use on Windows, Linux, macOS, iOS and Android platforms.

On December 3, 2018, PhysX was made open source under a 3-clause BSD license, but this change applied only to computer and mobile platforms.


Even van Wikipedia, maar het klopt wel. Verder zit het in Unreal Engine 4 en kun je dus zelfs een open source toepassing opzoeken tegenwoordig en zit het natuurlijk in gigantisch veel games, want Unreal Engine gebruikt en Unity ook. Laat het maar vooral niet dood gaan, want het werkt prima. Havok is in verhouding juist altijd ontzettend duur geweest in 't verleden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op woensdag 14 oktober 2020 @ 17:23:
[...]

At GDC 2015, Nvidia made the source code for PhysX available on GitHub, but required registration at developer.nvidia.com.[8] The proprietary SDK was provided to developers for free for both commercial and non-commercial use on Windows, Linux, macOS, iOS and Android platforms.

On December 3, 2018, PhysX was made open source under a 3-clause BSD license, but this change applied only to computer and mobile platforms.


Even van Wikipedia, maar het klopt wel. Verder zit het in Unreal Engine 4 en kun je dus zelfs een open source toepassing opzoeken tegenwoordig en zit het natuurlijk in gigantisch veel games, want Unreal Engine gebruikt en Unity ook. Laat het maar vooral niet dood gaan, want het werkt prima. Havok is in verhouding juist altijd ontzettend duur geweest in 't verleden.
Klopt die licentie quote ik inderdaad al.

Unity is zelf ook weer bezig met Havok zag ik, maar dit kan voor een specifiek onderdeel zijn ik heb er niet goed naar gekeken.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 17:34:
[...]


Klopt die licentie quote ik inderdaad al.

Unity is zelf ook weer bezig met Havok zag ik, maar dit kan voor een specifiek onderdeel zijn ik heb er niet goed naar gekeken.
Zowel Havok als PhysX (CUDA) zijn niet breed genoeg denk ik. Als een physics engine breed geadopteerd zou gaan worden, geef ik OpenGL / Vulkan de beste kansen:
https://developer.downloa...penxr-gltf-and-opencl.pdf

OpenGL is de oudste, 2006, "opgevolgd" door Vulkan in 2015, en ANARI wordt momenteel onderzocht maar lijkt vooral wetenschappelijk gericht.

Daar zitten tenminste genoeg partijen achter, zowel AMD als nVidia lijken mee te werken. Qua physics gebruikt OpenCL o.a. de Bullet library en Matlab is bekende software uit de wetenschapppelijke hoek.

Een goede raytracing engine zoals OpenXR heeft de kans om ook physics en andere gewenste features standaard mee te nemen.

Als losse feature maakt een physics engine dus denk ik weinig kans in de toekomst.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 16:21:
[...]


Fantastisch dat Physx open source is, alleen draait het nog steeds niet op een AMD gpu. Zolang dat niet gebeurt dan zie ik er vrij weinig in om het open source te noemen.
Plus CUDA is nodig, dat is ook zo'n open standaard.

Daarnaast de mooie license die aan Physx zit:

[...]
Dat is toch een prima licentie? Je mag alles ermee doen wat je wil. Alleen even ergens diep in je documentatie erbij zetten dat je dit ding gebruikt, klaar.

Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

sunsmountain schreef op woensdag 14 oktober 2020 @ 18:08:
[...]

Zowel Havok als PhysX (CUDA) zijn niet breed genoeg denk ik. Als een physics engine breed geadopteerd zou gaan worden, geef ik OpenGL / Vulkan de beste kansen:
https://developer.downloa...penxr-gltf-and-opencl.pdf

OpenGL is de oudste, 2006, "opgevolgd" door Vulkan in 2015, en ANARI wordt momenteel onderzocht maar lijkt vooral wetenschappelijk gericht.

Daar zitten tenminste genoeg partijen achter, zowel AMD als nVidia lijken mee te werken. Qua physics gebruikt OpenCL o.a. de Bullet library en Matlab is bekende software uit de wetenschapppelijke hoek.

Een goede raytracing engine zoals OpenXR heeft de kans om ook physics en andere gewenste features standaard mee te nemen.

Als losse feature maakt een physics engine dus denk ik weinig kans in de toekomst.
Ik snap je post niet helemaal. OpenGL, Vulkan en ANARI hebben niks met physics/collision detection te maken?

[edit] Oké met compute shaders kan je wellicht iets uitrichten, maar dat lijkt me voor een omvangrijk systeem wel tamelijk omslachtig t.o.v. OpenCL of physics libraries.

[ Voor 7% gewijzigd door ocf81 op 14-10-2020 20:09 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]





Disclaimer: {Dump>>zout<<hier}

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Sissors schreef op woensdag 14 oktober 2020 @ 18:28:
[...]

Dat is toch een prima licentie? Je mag alles ermee doen wat je wil. Alleen even ergens diep in je documentatie erbij zetten dat je dit ding gebruikt, klaar.
Je hebt gelijk, ik heb nog even rondgestruint op het internet en de licentie is open. Het is blijkbaar alleen om NV's trademark te beschermen.
Overigens, laatste commite 14 maanden geleden en er staan een heleboel pull requests open. Het lijkt er niet echt op dat Nvidia het nog actief onderhoud?

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Ik kan mij niet voorstellen dat de kaart duurder is om te maken dan de GTX 3080 of GTX 3090 tenzij Nvidia de dies gratis krijgt. De koeling oplossing van de Nvidia kaarten kost gewoon erg veel plus GDDR6x.

/zout :P

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Die eerste moet ik nog zien aangezien de XSX en PS5 ook RT hebben. Dat zijn relatief kleine chips die ook nog eens een 8c/16t Zen 2 CPU hebben. Die tweede laat ik in het midden.

De derde, tja de TMU van de CU gaat waarschijnlijk over naar RT mode en dan kan je geen shaders meer uitvoeren. Meer weten we eindelijk ook niet van RDNA2 RT. Het zou ook goed kunnen dat er iets van denoising plaatsvind waardoor de CU voor relatief veel clock cycles bezig is met alleen RT.


Heb ook nog een kleine. 128 ROP's, maar die wisten we eigenlijk allang.

[ Voor 11% gewijzigd door DaniëlWW2 op 14-10-2020 19:37 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
- Benchmarks with DXR enabled should show increased PWR consumption
Werkelijkwaar elke beetje recente kaart is TDP limited, lijkt mij dan ook onwaarschijnlijk dat DXR een toename van TDP zou betekenen, immers dan is hij in normale modus niet TDP limited.

Acties:
  • 0 Henk 'm!

  • giantgiantus
  • Registratie: Juni 2007
  • Nu online
Wanneer is er eigenlijk een release?

Acties:
  • +1 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 15-09 20:27

Acties:
  • 0 Henk 'm!

  • giantgiantus
  • Registratie: Juni 2007
  • Nu online
Goed punt :). Bedoelde eigenlijk of er een presentatie komt ala die van Nvidia?

Acties:
  • +1 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 01:50
giantgiantus schreef op woensdag 14 oktober 2020 @ 20:27:
[...]

Goed punt :). Bedoelde eigenlijk of er een presentatie komt ala die van Nvidia?
28 oktober :)

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

giantgiantus schreef op woensdag 14 oktober 2020 @ 20:27:
[...]

Goed punt :). Bedoelde eigenlijk of er een presentatie komt ala die van Nvidia?
Ja, de 28ste en nee, niet vergelijkbaar met Nvidia. Of dat positief of negatief is, laat ik in het midden. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Waarschijnlijk fake:
- DXR support is apparently only on N21 and cut variants
Xbox XSX en XSS hebben 52 CU en 20 CU en ondersteunen DXR. Onwaarschijnlijk dus.
- N21 "XTX" consumes a lot of PWR >#RTX3080
Als dit waar is, dan is de performance ook > RTX3090, mits de door AMD beweerde +50% performance / Watt gehaald wordt. En waardoor zou AMD de PWR limiet opzoeken, als ze nVidia *niet* verslaan? Hebben ze geen reden toe, auto overclock komt ver genoeg met gewone PWR draw.
- N21 XTX can compete with #RTX3080 but not #RTX3090
Onwaarschijnlijk, 3080 en 3090 zitten dicht bij elkaar. De kans is groot dat àls N21 XTX de RTX3080 verslaat, dat ze òòk de RTX3090 verslaan. Maar er lijkt een soort magische halo rond de RTX3090 te zitten, dat die niet verslagen kan worden. Daar is echter geen enkele objectieve reden voor te bedenken.
- Expensive to make and expensive to buy > #RTX3080
Met GDDR6 en een 256-bit bus? En kleiner dan de RTX3080? Lol, fake.
- As mentioned on Sept 20 pinned tweet - there is something funky going on with how throughput performance works in particular with DXR RT. It takes a hit like Turing does but maybe more so is what I am hearing.
Ok, dit zou kunnen. We weten niet wat de DXR RT performance hit is op de andere CU's. Maar dit lijkt meer commentaar van Avery78 zelf te zijn :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het zou alleen maar goed als Navi 21 met de 3080 kan concurreren. Waarschijnlijk zullen beide videokaarten stuivertje wisselen in de benchmarks. Dat de RT performance van Navi dan minder presteert is met een hybride aanpak wel te verwachten. De CU's die voor RT ingezet worden gaan dan ten koste van de shader performance, wat de overall performance niet ten goede komt. Ik gok dat console games ook maar minimale ray tracing effecten hebben.

Maar dat het stroomgebruik van die XTX uitvoering dan hoger kan zijn dan de 3080 is dan weer jammer, misschien heeft AMD er alles uitgeperst om maar te kunnen meedoen in de high-end (en dat zou ook kunnen bevestigen dat GA104 het originele 3080 doelwit was). Maar als Navi 21 al zo flink uitgeknepen wordt, wat wil AMD dan tegenover een eventuele 3080 Ti/Super zetten?
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 19:27:
[...]


Ik kan mij niet voorstellen dat de kaart duurder is om te maken dan de GTX 3080 of GTX 3090 tenzij Nvidia de dies gratis krijgt. De koeling oplossing van de Nvidia kaarten kost gewoon erg veel plus GDDR6x.

/zout :P
Dat zou mij niks verbazen, Navi 21 is ook geen kleine chip en die TSMC wafers zijn duurder dan wat Samsung vraagt.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
XWB schreef op woensdag 14 oktober 2020 @ 22:26:
[...]


Het zou alleen maar goed als Navi 21 met de 3080 kan concurreren. Waarschijnlijk zullen beide videokaarten stuivertje wisselen in de benchmarks. Dat de RT performance van Navi dan minder presteert is met een hybride aanpak wel te verwachten. De CU's die voor RT ingezet worden gaan dan ten koste van de shader performance, wat de overall performance niet ten goede komt. Ik gok dat console games ook maar minimale ray tracing effecten hebben.

Maar dat het stroomgebruik van die XTX uitvoering dan hoger kan zijn dan de 3080 is dan weer jammer, misschien heeft AMD er alles uitgeperst om maar te kunnen meedoen in de high-end (en dat zou ook kunnen bevestigen dat GA104 het originele 3080 doelwit was). Maar als Navi 21 al zo flink uitgeknepen wordt, wat wil AMD dan tegenover een eventuele 3080 Ti/Super zetten?


[...]


Dat zou mij niks verbazen, Navi 21 is ook geen kleine chip en die TSMC wafers zijn duurder dan wat Samsung vraagt.
Ik zit nu de laatste MLD te kijken. MLD denkt dat AMD bloed ruikt en naast wat ze hebben laten zien een kaart gaan maken (dus inderdaad de XTX) die misschien tussen de 3080 en 3090 gaat inzitten. Dat is dus niet de kaart die ze hebben laten zien met de presentatie want de beslissing is pas net genomen nadat de 3090 "teleurstelde".
Zo'n kaart zou inderdaad een stuk meer kunnen gebruiken en duurder zijn om te maken (door betere koeling en iets sneller/duurder geheugen).

Wat dus niet uit die tweets duidelijk was is dat het dus om een kaart gaat die ze dus nog niet hebben laten zien.

Tenminste ik hoop dat dit zo is en dat er dus een kaart komt die net onder de 3080 zit die een stuk zuiniger zit (ik wil geen Fermi of Vega meer in mijn PC :P).

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Lijkt mij allemaal sterk. Ze gaan echt geen nieuw silicium ontwerpen nu nog, dan hebben we iig voorlopig geen XTX kaart. Ik geloof wel dat na aanleiding van wat Nvidia heeft laten zien, ze hun powerlimit hoger willen zetten. Dat heeft dan natuurlijk absoluut niks te maken met de 3090, en veel meer met de 3080. Zou het kunnen dat de huidige koeler dat powerlimit nog niet aan kan, en ze dus naargeestig bezig zijn een betere koeler te onwerpen? Prima. Maar dan kan je uiteraard nog steeds benchmarks draaien met je originele koeler waarvan je gewoon je fans op 100% zet.

En jij verwacht echt dat AMD niet het tot de laatste watt uitperst? :D

Acties:
  • +6 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op woensdag 14 oktober 2020 @ 14:42:
Zo is physx open source variant gewoon even goed en dus veelvoudig geïmplementeerd en tot standaard verheven
computerjunky schreef op woensdag 14 oktober 2020 @ 16:28:
Er zitten dus Physx achtige features in de games van tegenwoordig alleen is er geen physx software of hardware meer voor nodig. Nvidia heeft dus een nieuwe feature op de markt gebracht en is later breed geimplementeerd in andere vormen.
Uh, nee. Als je dit soort statements wil maken, moet je wel even je huiswerk doen.

PhysX zelf is twee jaar geleden open source gemaakt, maar een "standaard" waar andere dingen op gebaseerd zijn is het niet. Havok is ook ouder dan PhysX en deed de kern van PhysX al vóór PhysX überhaupt op de markt was. Nvidia heeft het ook niet op de markt gebracht, het was al op de markt. En zij hebben het opgekocht, soort-van-werkend gemaakt op CPU's met kleine stukjes GPU en pas veel later hebben ze er iets serieus mee gedaan. Ze waren bij lange na niet de eerste, en dan deden ze het nog slecht ook. En ze ontwikkelen het nog steeds maar matig door.

Hardware is ook nooit echt nodig geweest voor PhysX, want bijna alles draait gewoon op je CPU. Enkel particles draaien op de GPU; en fluid simulations kúnnen deels op de GPU. De rest is allemaal puur CPU. Haar en kleding vallen niet onder PhysX.

Het is niet voor niets dat elke game die serieus iets realistisch met physics wilde doen, op Havok draait/draaide. Red Faction? Havok. Source Engine en alle games die daarop draaien? Havok. Battlefield? Just Cause? Allemaal Havok. Ik kan nog wel even door gaan, want de lijst is lang. Heel erg lang. En Rockstar gebruikt bijvoorbeeld Bullet.

Zelfs Epic stapt nu van PhysX af. UE 4.26 maakt officieel standaard geen gebruik meer van PhysX. GameWorks wordt al bar weinig gebruikt, maar PhysX wordt ook steeds minder.

Acties:
  • 0 Henk 'm!

  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 13:11

jgj82

Ja, maar = nee

Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 22:49:
[...]


Tenminste ik hoop dat dit zo is en dat er dus een kaart komt die net onder de 3080 zit die een stuk zuiniger zit (ik wil geen Fermi of Vega meer in mijn PC :P).
VEGA 64 80 met +50% perf/W op 2200Mhz+ en 16GB HBM2? :9~
Dat is makkelijk 2080 TI territory, dat zou grappig zijn.... })

Helaas moeten we gewoon nog even wachten tot 28 oktober... -O-

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Sissors schreef op woensdag 14 oktober 2020 @ 23:01:
Lijkt mij allemaal sterk. Ze gaan echt geen nieuw silicium ontwerpen nu nog, dan hebben we iig voorlopig geen XTX kaart. Ik geloof wel dat na aanleiding van wat Nvidia heeft laten zien, ze hun powerlimit hoger willen zetten. Dat heeft dan natuurlijk absoluut niks te maken met de 3090, en veel meer met de 3080. Zou het kunnen dat de huidige koeler dat powerlimit nog niet aan kan, en ze dus naargeestig bezig zijn een betere koeler te onwerpen? Prima. Maar dan kan je uiteraard nog steeds benchmarks draaien met je originele koeler waarvan je gewoon je fans op 100% zet.

En jij verwacht echt dat AMD niet het tot de laatste watt uitperst? :D
Ik zeg nergens dat het een andere die is. Wat ik denk is dat ze met die chip alle performance/watt uit het raam gooien zodat hij net wat sneller is dan een 3080 en tussen de 3080 en 3090 in zit.
Dus ipv een 6800, 6800XT dat ze nu toch voor een 6800XTX gaan (mag ook een 9 zijn).

Met teleurstelde bedoel ik dat het verschil tussen een 3080 en de 3090 veel kleiner is dan wat we gewend zijn tussen een 1/2080 en 1/2080Ti. Daarnaast heeft Nvidia zelfs in hun benaming express de 9 gekozen niet 8 Ti. Met een 9 verwacht ik persoonlijk meer dan met een Ti.

Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_2560_1440.png
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-2080-ti-founders-edition/images/relative-performance_2560-1440.png
Afbeeldingslocatie: https://tpucdn.com/review/msi-geforce-rtx-3090-gaming-x-trio/images/relative-performance_2560-1440.png

https://www.techpowerup.c...force-gtx-1080-ti/30.html
https://www.techpowerup.c...-founders-edition/33.html
https://www.techpowerup.c...090-gaming-x-trio/32.html

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
jgj82 schreef op woensdag 14 oktober 2020 @ 23:04:
[...]


VEGA 64 80 met +50% perf/W op 2200Mhz+ en 16GB HBM2? :9~
Dat is makkelijk 2080 TI territory, dat zou grappig zijn.... })

Helaas moeten we gewoon nog even wachten tot 28 oktober... -O-
Als de architectuur door zou schalen :+.

Acties:
  • 0 Henk 'm!

  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 13:11

jgj82

Ja, maar = nee

Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 23:15:
[...]


Als de architectuur door zou schalen :+.
Yep... lekker fantaseren. Maar wat een grap zou het zijn als ze met zoiets op de proppen komen of dat de getoonde kaart een Navi-22 blijkt te zijn..

Verder hoop ik gewoon dat het geen paper-launch wordt, dat zou al een hoop goodwill kweken als ik zie wat een puinhoop het bij Vega was en in het groene kamp is atm..

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 23:14:
[...]


Ik zeg nergens dat het een andere die is. Wat ik denk is dat ze met die chip alle performance/watt uit het raam gooien zodat hij net wat sneller is dan een 3080 en tussen de 3080 en 3090 in zit.
Dus ipv een 6800, 6800XT dat ze nu toch voor een 6800XTX gaan (mag ook een 9 zijn).
Zou wat zijn als die XTX een 350W videokaart blijkt te zijn, dat zou die 320W van de 3080 in een ander perspectief plaatsen :+

March of the Eagles


Acties:
  • 0 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 14:33
XWB schreef op woensdag 14 oktober 2020 @ 23:28:

Zou wat zijn als die XTX een 350W videokaart blijkt te zijn, dat zou die 320W van de 3080 in een ander perspectief plaatsen :+
Die 320w is ook al een papieren tijger.
Het is 350w boost voor de FE en mijn Asus doet ook 345w met de fabrieksinstellingen :+

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Uh, fake. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
AMD zou begin September al bezig zijn geweest om clock speeds en TDP te 'tweaken', naar aanleiding van de 3080 3090 lancering. Veel van de recente geruchten die ik hoor lijken misinformatie, die meer vanuit nVidia verspreid lijken te worden en board partners (zowel Tier 1 and Tier 2), die van AMD bewust verkeerde info krijgen qua performance/prijs.

Feit is dat het doel +50% performance / Watt was van AMD (officieel) en dat ze zullen "compete in the high-end. Geruchten via niet-AIB board partner bronnen bevestigen dat dat doel niet alleen gehaald is (youtubers: RGT, notanapplefan, Coreteks, en twitteraars: Avery78, Rogame, kopite7kimi), maar zeggen soms zelfs +60% of performance / CU (RGT realiseert zichzelf niet dat dat laatste een 300% RX 5700XT kaart zou opleveren, met 2*CU en 1,5* performance, waar de RTX3090 op ongeveer 200% performance zit. Totaal onrealistisch).

Nou kan het natuurlijk alsnog tegenvallen. Maar dat zal AMD over 2 weken zelf vertellen. Ik denk wel dat ze voor een paar Navi21 modellen er uit gaan persen qua TDP en clocks wat nodig is, om de RTX3080 èn RTX3090 te verslaan. Specifiek, speculeer ik: Navi21 XTX verslaat RTX3090, Navi21 XT verslaat RTX3080, Navi21 XL is wat we gezien hebben in de teaser, voor $499, de laagste versie (maar niet Navi22). Op ruwe performance, dus zonder Ray Tracing / DLSS 2.1.

Iedereen die nog steeds denkt dat RTX3080 wèl verslaanbaar is maar RTX3090 niet, moet even logisch nadenken. Ze verschillen maar 10%, dat is niet veel.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
XWB schreef op woensdag 14 oktober 2020 @ 23:28:
[...]


Zou wat zijn als die XTX een 350W videokaart blijkt te zijn, dat zou die 320W van de 3080 in een ander perspectief plaatsen :+
Ik denk dat AMD aan 238+275W, en 250+300W, socket power + total board power, genoeg heeft om RTX 3080 respectievelijk RTX3090, te verslaan. De getoonde teaser kaart was denk ik 200+240W.

Puur op basis van de gelekte OpenGL / Radeon compute beta drivers door stblr (de MacOS beta drivers geven de CUs, maar dat is bonus), en +50% performance/Watt door AMD. Meer heb je eigenlijk niet nodig voor deze voorspelling.

https://www.reddit.com/r/...navi_31_van_gogh_cezanne/
https://www.tomshardware....mance-per-watt-50-percent

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik zou toch echt niet zoveel focus leggen op die 50% performance/watt. Nvidia had +80% performance/watt ofzo met de RTX3080. Als je bij gelijke performance vergelijkt...
Oftewel het ligt er compleet aan hoe je vergelijkt. Sowieso kan je niet dubbel de 5700XT CUs op een chip gooien zonder het vermogen per CU flink naarbeneden te draaien, immers anders verbruik je straks een 400W.

Als je vermogen per CU naarbeneden draait, dan krijg je zonder enige andere verandering, sowieso een betere performance/watt. Exact hetzelfde ding, maar je gaat gewoon op een betere plaats in zijn power curve zitten.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Sissors schreef op donderdag 15 oktober 2020 @ 11:02:
Ik zou toch echt niet zoveel focus leggen op die 50% performance/watt. Nvidia had +80% performance/watt ofzo met de RTX3080. Als je bij gelijke performance vergelijkt...
Oftewel het ligt er compleet aan hoe je vergelijkt. Sowieso kan je niet dubbel de 5700XT CUs op een chip gooien zonder het vermogen per CU flink naarbeneden te draaien, immers anders verbruik je straks een 400W.

Als je vermogen per CU naarbeneden draait, dan krijg je zonder enige andere verandering, sowieso een betere performance/watt. Exact hetzelfde ding, maar je gaat gewoon op een betere plaats in zijn power curve zitten.
Het meeste stroomverbruik en uiteindelijk verlies in performance is het feit dat data niet op de goede plek staat en van A naar B moet. Als alle geruchten kloppen is dat juist het punt van RDNA2 takkelt. Daarmee wordt die performance/watt gehaald.

Voorbeeld vanuit game perspectief. Bij een turn based game zou ik ervoor kiezen alles zoveel mogelijk opnieuw uit te rekenen en daarmee de state van een game te beperken; dit zou ik bij niet simulatie games veel minder overwegen omdat een hogere FPS belangrijker is.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sp3ci3s8472 schreef op donderdag 15 oktober 2020 @ 11:29:
[...]


Het meeste stroomverbruik en uiteindelijk verlies in performance is het feit dat data niet op de goede plek staat en van A naar B moet. Als alle geruchten kloppen is dat juist het punt van RDNA2 takkelt. Daarmee wordt die performance/watt gehaald.

Voorbeeld vanuit game perspectief. Bij een turn based game zou ik ervoor kiezen alles zoveel mogelijk opnieuw uit te rekenen en daarmee de state van een game te beperken; dit zou ik bij niet simulatie games veel minder overwegen omdat een hogere FPS belangrijker is.
Hoe is de verhouding dan in power gebruik van data die van IOs naar L1 cache gaat en die van een gigantisch L2 cache naar de L1 cache moet gaan?

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sunsmountain schreef op donderdag 15 oktober 2020 @ 10:27:
Iedereen die nog steeds denkt dat RTX3080 wèl verslaanbaar is maar RTX3090 niet, moet even logisch nadenken. Ze verschillen maar 10%, dat is niet veel.
Theoretisch kan dat prima en hangt er maar net vanaf waar AMD de TDP limiet trekt. Als die XTX uitvoering en 3080 stuivertje wisselen in de benchmarks dan blijft die 3090 gewoon net wat sneller.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
sunsmountain schreef op donderdag 15 oktober 2020 @ 10:27:
Iedereen die nog steeds denkt dat RTX3080 wèl verslaanbaar is maar RTX3090 niet, moet even logisch nadenken. Ze verschillen maar 10%, dat is niet veel.
Kun je uitleggen waarom je het onlogisch vindt om te denken dat AMD de 3090 net niet aan kan tikken maar net wel over de 3080 gaat? Afgaand op wat AMD zelf in hun laatste presentatie heeft laten zien vind ik dat zelfs aannemelijk; ze hebben benchmarks getoond van een kaart die pakweg 5% onder de performance van de 3080 zit, da's dus al heel erg close. Zeg dat ze een kaart hebben die daar nog 10% boven zit, dan zitten ze op 3080 +5% en dus precies tussen de 3080 en de 3090. Dat kan toch prima? Niet omdat de 3090 een magisch halo product is dat niet te verslaan is, maar simpelweg omdat het best een realistisch scenario is.

Zelf denk ik dat AMD's volgende topkaart net onder de 3090 gaat zitten, die daarna net onder de 3080, en die daarna rond de 3070, en dat alle kaarten gunstig geprijsd gaan worden t.o.v. Nvidia's line-up, lees €50+ goedkoper per kaart. Daarmee hebben ze dan in mijn optiek gewonnen als ze kunnen zorgen dat de kaarten beter beschikbaar zijn dan de RTX 3000's, want ik schat in dat de meerderheid van de mensen voor een luttele 5% performance gain geen €50+ euro neer gaan leggen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Sissors schreef op donderdag 15 oktober 2020 @ 11:32:
[...]

Hoe is de verhouding dan in power gebruik van data die van IOs naar L1 cache gaat en die van een gigantisch L2 cache naar de L1 cache moet gaan?
Ik kan nu helaas geen directe cijfers vinden (wel een paper achter een wall):
https://ieeexplore.ieee.org/document/6983056

Volgens mij was het o.a. Nvidia dit tijdens een van hun presentaties aangaf. Nu zijn er meer kanten aan dit verhaal, een grote cache kan ook veel stroom gebruiken. Het is dus een balans wat je moet vinden.
Wat ik wel vrij zeker kan zeggen is dat als RDNA2 een 384 of 512 bus had genomen dat dat meer stroom had gebruikt.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op donderdag 15 oktober 2020 @ 12:20:
[...]

Wat ik wel vrij zeker kan zeggen is dat als RDNA2 een 384 of 512 bus had genomen dat dat meer stroom had gebruikt.
Maar daar stond dan wellicht meer performance tegenover :)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
XWB schreef op donderdag 15 oktober 2020 @ 12:21:
[...]


Maar daar stond dan wellicht meer performance tegenover :)
Wellicht, maar ik denk dat je dat pas ziet als de extra cache niet voldoende is.

Ik kon het volgende nog tegen:
https://hpc.pnl.gov//modsim/2014/Presentations/Kestor.pdf

Zoektermen als:
"power cost of moving data in a chip"
Geven leuke resultaten, dus als iemand zin heeft om de papers door te spitten (ik heb er helaas geen tijd voor :P).

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sp3ci3s8472 schreef op donderdag 15 oktober 2020 @ 12:20:
[...]


Ik kan nu helaas geen directe cijfers vinden (wel een paper achter een wall):
https://ieeexplore.ieee.org/document/6983056

Volgens mij was het o.a. Nvidia dit tijdens een van hun presentaties aangaf. Nu zijn er meer kanten aan dit verhaal, een grote cache kan ook veel stroom gebruiken. Het is dus een balans wat je moet vinden.
Wat ik wel vrij zeker kan zeggen is dat als RDNA2 een 384 of 512 bus had genomen dat dat meer stroom had gebruikt.
Ik heb toegang tot IEEE, dus dat is geen probleem :) . Daarin staat wel enorm veel minder energieverbruik voor in principe een bit vanaf DRAM naar ALU verplaatsen en vanaf L2 cache. Tegelijk weten we hoeveel DRAM verbruikt (ruwweg), en hebben we nog geen idee hoeveel data bewegingen het allemaal scheelt.

Onder de streep zal het vast iig wel wat aan betere performance/watt opleveren, maar blijft het simpelweg dat een 50% performance/watt statement op zichzelf heen weinig zegt, als bewezen door Nvidia. Onder de streep zal het vermoedelijk behoorlijk dicht bij Nvidia in de buurt zitten, zowel qua performance als qua performance/watt, wat prima is. (Beter is altijd leuk voor ons consument, maar dat AMD uberhaupt weer vergelijkbaar is, is al een hele stap).

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:12

Mars Warrior

Earth, the final frontier

XWB schreef op donderdag 15 oktober 2020 @ 12:21:
[...]


Maar daar stond dan wellicht meer performance tegenover :)
En dat staat lijnrecht tegenover het onderzoek dat ook begin oktober is gepresenteerd over de slimme - adaptieve L1 cache en grote L2 cache.

Die lieten zien dat de occupancy/bezetting van de CU's/ALU's sterk verbeterd, en dat betekent dus inherent meer performance. Anders had een grote cache natuurlijk aantoonbaar geen enkel nut gehad, als de performance voornamelijk afhankelijk is van een flinke bandbreedte naar het geheugen.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
pixeled schreef op donderdag 15 oktober 2020 @ 11:51:
[...]


Kun je uitleggen waarom je het onlogisch vindt om te denken dat AMD de 3090 net niet aan kan tikken maar net wel over de 3080 gaat? Afgaand op wat AMD zelf in hun laatste presentatie heeft laten zien vind ik dat zelfs aannemelijk; ze hebben benchmarks getoond van een kaart die pakweg 5% onder de performance van de 3080 zit, da's dus al heel erg close. Zeg dat ze een kaart hebben die daar nog 10% boven zit, dan zitten ze op 3080 +5% en dus precies tussen de 3080 en de 3090. Dat kan toch prima? Niet omdat de 3090 een magisch halo product is dat niet te verslaan is, maar simpelweg omdat het best een realistisch scenario is.

Zelf denk ik dat AMD's volgende topkaart net onder de 3090 gaat zitten, die daarna net onder de 3080, en die daarna rond de 3070, en dat alle kaarten gunstig geprijsd gaan worden t.o.v. Nvidia's line-up, lees €50+ goedkoper per kaart. Daarmee hebben ze dan in mijn optiek gewonnen als ze kunnen zorgen dat de kaarten beter beschikbaar zijn dan de RTX 3000's, want ik schat in dat de meerderheid van de mensen voor een luttele 5% performance gain geen €50+ euro neer gaan leggen.
Zeker. Ik vind dat onlogisch omdat het "startbudget TDP" voor Navi 21a op 200W socket power ligt, versus 320W total board power voor RTX3080, de laagste GA102. Laten we zeggen dat total board power van Navi 21a 240 à 250W. Dan is de TDP ruimte om Navi21 op de staart te trappen met Navi 21b (238W) en wie weet 21c (?W), gewoon veel meer dan 10%. Bij GA102 zit je na 30W extra al aan de top van 350W. Bij Navi21 is die ruimte 100 à 110W. Dat is ruim 3x zoveel. Zelfs als AMD 350W niet aandurft, dan board partners en overclockers wel.

Dus daarom vermoed ik, die RTX3090, die gaat er aan. +30% spread is realistisch, al weet ik natuurlijk niet welke Navi21 ze geteased hebben. Gegeven de complete radiostilte, bewuste misinformatie, jebaited poging 2 en under under promise verwacht ik wel een beetje over deliver. Met hoeveel is 30%. Maar als de tease Navi21b was, zou XTX nèt onder 3090 nog net kunnen. Maar dat fixen de board partners en overclockers dan wel, want dan nog is de TDP ruimte 60 à 70W vergeleken met 30W.

Als AMD dit keer met de kaarten telkens boven nVidia zit qua performance (versus 3080, 3080 20GB, 3090), denk ik aan deze prijzen:
$499 Navi 21a / XL
$699 Navi 21b / XT
$799 Navi 21c / XTX (misschien $999 als ze all-out gaan en echt +20/30% halen op de 3090)

zitten ze er telkens net onder:
$499 Navi 21a / XL
$599 Navi 21b / XT
$699 Navi 21c / XTX

Met Navi22 XT / XL op $399 12 GB / $ 349 12GB / $299 met 6GB. RX5600 / RX5500 gaan nog even door voor $249 / $199, tot Navi23 uit komt in 2021 Q1. RX5700 wordt vervangen door Navi22.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op woensdag 14 oktober 2020 @ 13:49:
[...]

Volgens het almachtige internet en het rog forum van Asus moet je een ss3 cleanup tooltje draaien en dan weer je drivers installeren...
Thanks. :*)
Dat fikste het inderdaad. Driverconflict lijkt de oorzaak en zoals gebruikelijk vertelde Windows je helemaal niks. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Goede uitleg, thanks :) Alleen: hoe weet je of de kaart die AMD nu heeft laten zien niet hun topper was? Of dat het niet een kaart was die, ik zeg maar wat, al 325W aan het opstoken was?

Edit: ik denk persoonlijk dat je 'zitten ze er telkens net onder'-prijsstelling realistisch is. Wat je 'underpromise - overdeliver' argument betreft, tsja, het blijft het Radeon marketing team :P Maar who knows, wie weet verrassen ze iedereen!

[ Voor 27% gewijzigd door pixeled op 15-10-2020 13:42 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
pixeled schreef op donderdag 15 oktober 2020 @ 13:38:
[...]


Goede uitleg, thanks :) Alleen: hoe weet je of de kaart die AMD nu heeft laten zien niet hun topper was? Of dat het niet een kaart was die, ik zeg maar wat, al 325W aan het opstoken was?
Dat weet ik inderdaad niet, heb ik al toegelicht, als de teaser Navi21b zou zijn ipv Navi21a, in dezelfde uitleg.

Wat ik wel vermoed, is dat omdat AMD geleid wordt door ingenieurs, dat die van nature wat voorzichtiger zijn. AMD hamert elke generatie op performance / Watt, terwijl ik nVidia marketing daar bijna nooit over hoor. Een paar van de geruchten (youtube, twitter) noemden terloops het originele TDP van big navi, dat dat 250W zou zijn. Dat biedt alsnog een hoop ruimte daarboven! :)

[ Voor 13% gewijzigd door sunsmountain op 15-10-2020 15:10 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
pixeled schreef op donderdag 15 oktober 2020 @ 13:38:
[...]

Edit: ik denk persoonlijk dat je 'zitten ze er telkens net onder'-prijsstelling realistisch is. Wat je 'underpromise - overdeliver' argument betreft, tsja, het blijft het Radeon marketing team :P Maar who knows, wie weet verrassen ze iedereen!
ps.: Ja die 'zitten ze er telkens net onder' vind ik ook realistisch qua pricing, net als jij. Maar qua performance verwacht ik stiekem toch nog wat meer. Zelfs als performance / Watt natuurlijk voor verschillende uitleg vatbaar is: welke chip, tot welk TDP: +50%? En minder stroom verbruik betekent natuurlijk niet meer FPS. Hogere clocks en IPC betekenen wel meer FPS, maar wel met diminishing returns.

Dus +50% performance is niet +50% FPS, maar daar hoop ik stiekem wel op, mèt een beetje overclocken èn door de hogere CU occupancy dankzij infinity cache.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Pagina: 1 ... 21 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.