Acties:
  • +4 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Hebben jullie ooit wel eens gekeken hoe je RTX raytracing moet implementeren? Daar komt letterlijk geen enkele Nvidia specifieke code aan te pas. Dat is juist het hele idee van DXR. Als je nu de tutorial van de Nvidia website pakt en deze op een AMD GPU gaat draaien werkt deze zonder enige code wijzigingen.

Hoe denken jullie dat dit andere zou werken?
https://videocardz.com/ne...dxr-ray-tracing-benchmark

Je kunt gewoon net als bij tessalation jaren terug een setting toevoegen hoe zwaar je deze wilt laten zijn en dus hoe accuraat je reflecties worden.

[ Voor 13% gewijzigd door Paprika op 29-10-2020 09:12 ]


Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 22:59
Amazigh_N_Ariff schreef op donderdag 29 oktober 2020 @ 09:08:
[...]


Je mist de /s.

En ik weet het bijna zeker, het is Nvidia waar we het over hebben.
In dat opzicht kan ik me hooguit inbeelden dat Nvidia zou uitzoeken in welk specifiek stukje van de RT cycle AMD een relatieve extra bottleneck heeft tov Nvidia, om die dan te benadelen. Met het oog op games die op consoles lekker moeten draaien wens ik Nvidia daar echter succes mee.

Acties:
  • +2 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

biggydeen2 schreef op donderdag 29 oktober 2020 @ 09:00:
[...]


Die 16Gb is echt puur marketing. Op 4k heb je bij lange na geen 16GB nodig. Ook de komende jaren niet. Er is zelfs op dit moment geen enkele tripple A game welke meer dan 8GB vram verbruikt. Anders zou je namelijk bottlenecks tegenkomen tussen een 2080 super (8GB) en 2080Ti (11GB). Maar die zijn er niet.

De nieuwe Xbox en PS5 hebben ook maar 10GB vram aanboord wat 25%+ langzamer is dan de 3080 aan boord heeft. En dit zijn 4k gaming consoles. Daarnaast worden er nieuwe compressie technieken gebruikt en met RTX IO worden assets ingeladen via een SSD. Dus je zou kunnen concluderen dat als assets supersnel ingeladen kunnen worden via een SSD dat deze niet altijd meer in het VRAM hoeven te staan.

Met andere woorden, de 10GB op de 3080 is ruim voldoende voor de komende jaren. Al helemaal op 1440p.

Als je gaat gamen op 4K zou ik even heel goed nadenken wat je gaat doen. Niet zomaar blind afgaan op pure FPS. Er gaan vast en zeker hier heel wat mensen Cyberpunk 2077 spelen. Cyberpunk ondersteund DLSS 2.0. Met DLSS 2.0. blaast een 3080 de 6900xt gewoon keihard voorbij op 4k. DLSS 2.0 is echt een zeer krachtige techniek en de toekomst voor 4k gaming. Maar geldt natuurlijk ook voor 1440p. Onderschat dit zeker niet. AMD heeft gewoon nog geen goede tegenhanger hiervoor.

En wellicht heb ik iets gemist maar ik kon het zo 123 niet direct vinden. De benchmarks uit de slides van de 3080 hebben ze deze gewoon overgenomen van Nvidia? Met andere woorden, hebben ze de 3080 benchmarks ook gedaan op Zen 3 of op een intel? Anders is het echt appels met peren vergelijken.

En natuurlijk de rage mode plus die andere optie heb je alleen iets aan als je een nieuwe Ryzen CPU hebt. Ik draai nu nog Intel maar de stap naar een nieuwe Ryzen is wel erg veel geld. Dan ben ik minstens 500 euro verder en voor de 8 core nog meer. De prestatiewinst die je daarmee pakt staat niet in verhouding tot de kosten.

Verder ben ik onder de indruk van AMD wat ze presteren met hun CPU's en GPU's. Voor de 6900XT ziet er erg goed uit qua prijs prestatie. Ik denk dat Nvidia met een 3080TI gaat komen tussen de 3080 en 6900xt in met hopelijk 12GB en niet onzinnig 20GB wat de kaart weer duurder gaat maken.
16GB is nu nog niet nodig, maar voor futureproofing wel lekker. En dat je een AMD CPU moet kopen, tja, dat kan natuurlijk ook voor de prijs van een RTX3090. Dan heb je een RX6900 XT, een X570 bordje én een 5800X.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Paprika schreef op donderdag 29 oktober 2020 @ 09:10:
Hebben jullie ooit wel eens gekeken hoe je RTX raytracing moet implementeren? Daar komt letterlijk geen enkele Nvidia specifieke code aan te pas. Dat is juist het hele idee van DXR. Als je nu de tutorial van de Nvidia website pakt en deze op een AMD GPU gaat draaien werkt deze zonder enige code wijzigingen.

Hoe denken jullie dat dit andere zou werken?
https://videocardz.com/ne...dxr-ray-tracing-benchmark

Je kunt gewoon net als bij tessalation jaren terug een setting toevoegen hoe zwaar je deze wilt laten zijn en dus hoe accuraat je reflecties worden.
Ik had die nog niet gezien. Aan de ene kant is een Nvidia die 33% sneller is een behoorlijk gat. Aan de andere kant valt het mij nog mee, gezien hoeveel extra snelheid de dedicated raytracing hardware bij een 6800XT er nog uit krijgt, is het gat nog geen eens zo groot: AMD's hardware geeft een 14x raytracing versnelling, van Nvidia ~18x.

Heb jij alleen enig idee hoe het nog met denoising zit? Van wat ik begrijp moet Nvidia dat een hoop doen, en gebruikt daarvoor Tensor cores. Maar met minder rays zal AMD alleen maar meer moeten doen, en is dat inbegrepen bij deze benchmark?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Het is een techdemo geen benchmark, dus laten we vooral de juiste term aanhouden :p. Naar mijn weten is de benadering van beide implementaties anders, maar daar heb ik niet 123 een linkje van.

Belangrijkste is dat als een game raytracing op een Xbox gaat bevatten, dan zal dit ook werken op een Nvidia GPU op de pc.

[ Voor 24% gewijzigd door Paprika op 29-10-2020 09:23 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Als je nu deze nieuwe technieken van AMD in de cpu en het mobo wilt i.cm. een 6000 series dan moet je dus een redelijk "oud" x570 bord kopen, met een cpu die nog moet uitkomen en "oud" ddr4.

Het is dan zeg maar het eerste setje voor al deze nieuwe technieken en de laatste op socket am4?
De volgende keer (in de toekomst) ben je weer aan een nieuwe upgrade set gebonden.

Toch jammer (wel slim van AMD... begrijp me niet verkeerd ik ben echt fan van AMD op het moment!) dat de volgende AMD cpu's naar ddr5 gaan en je dus weer een hele nieuwe set van mobo + cpu + ram moet kopen.

Ik ga enkel kijken naar een nieuwe videokaart en wacht nog tot de ddr5 periode voor een eventueel upgrade setje.

Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 27-08 20:38
Jeroenneman schreef op donderdag 29 oktober 2020 @ 09:14:
[...]


16GB is nu nog niet nodig, maar voor futureproofing wel lekker. En dat je een AMD CPU moet kopen, tja, dat kan natuurlijk ook voor de prijs van een RTX3090. Dan heb je een RX6900 XT, een X570 bordje én een 5800X.
Ja maar dat is nu juist de marketing :) 16Gb heb je niet nodig. Wat ik probeer te zeggen is dat je niet blind een AMD moet kopen omdat daar 16GB op zit ipv 10Gb op een 3080. 3090 is natuurlijk qua prijs prestatie een hele slechte koop. Al voordat de 6900xt prestaties bekend waren. Er zijn maar weinig mensen die een 3090 kopen. Ik snap je vergelijking maar dat is voor 99% niet realistisch dan kun je beter die 500 euro besparen en geen CPU upgrade doen.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Paprika schreef op donderdag 29 oktober 2020 @ 09:10:
Hebben jullie ooit wel eens gekeken hoe je RTX raytracing moet implementeren? Daar komt letterlijk geen enkele Nvidia specifieke code aan te pas. Dat is juist het hele idee van DXR. Als je nu de tutorial van de Nvidia website pakt en deze op een AMD GPU gaat draaien werkt deze zonder enige code wijzigingen.

Hoe denken jullie dat dit andere zou werken?
https://videocardz.com/ne...dxr-ray-tracing-benchmark

Je kunt gewoon net als bij tessalation jaren terug een setting toevoegen hoe zwaar je deze wilt laten zijn en dus hoe accuraat je reflecties worden.
Ja, echter zijn er alsnog optimalisaties mogelijk (lees: nodig) om optimaal gebruik te maken van de hardware. Denk met name aan de manier waarop het geheugen gebruikt wordt. Het is jammer dat AMD zo stil is over hun RT performance (en voor mij persoonlijk: vooral hoe het bij hen werkt :D), maar ik zou nog geen conclusies trekken op basis van dat sample.

Waarom?

Afbeeldingslocatie: https://media.discordapp.net/attachments/484833655424942093/548228851323371531/200_Ti_raytracing.PNG?width=830&height=487

Een 2080 Ti doet in dat sample 325 FPS. De helft van een 3080, het verschil ligt in de praktijk veel lager. Ik heb de code van het sample nog niet bekeken, maar in de README het lijkt meer om de geometry dan RT te gaan, dus om dat sample nu als een RT benchmark te gebruiken is een beetje dom.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Ik snap ook niet waarom mensen dit soort simpele omgevingen zouden gebruiken als benchmark. :p Genoeg games met een DXR implementatie.

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Paprika schreef op donderdag 29 oktober 2020 @ 09:31:
Ik snap ook niet waarom mensen dit soort simpele omgevingen zouden gebruiken als benchmark. :p Genoeg games met een DXR implementatie.
Voordeel van een simpel iets, is dat je meer puur RT kan vergelijken (met beperkingen uiteraard). Maar relevanter is dat volgens mij er geen enkele game met RT als benchmark is gereleased door AMD ;)

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik zie in elk geval nog geen reden tot paniek wat betreft RT prestaties. Niet op basis van resultaten in dat sample tenminste.

Wat ik overigens het belangrijkste vond aan het geheel (wat helaas vrij summier was :( whitepaper pl0x): als de performance cijfers kloppen, dan heeft AMD hun efficiëntie flink verbeterd. Dan heb ik het niet over verbruik, maar efficiëntie van de CU's en aansturing daarvan. Met 20,7 TF een 3080 evenaren is heel netjes. Een 3080 zal gemiddeld ook rond de 20 TF hangen in de praktijk.

Of, om de meest achterlijke term te gebruiken die helaas (ook hier) nog steeds populair is maar eigenlijk nergens op slaat: hun "IPC" is flink vooruit gegaan.

Acties:
  • 0 Henk 'm!

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Gurneyhck schreef op donderdag 29 oktober 2020 @ 04:52:
[...]


Dé echte hamvraag ;) , komen er nog combinatie-kortingen!?
Ze zouden qua prijs nog wat extra kunnen pushen door Ryzen 5xxx te combineren met de verschillende RX6xxx kaarten en €50-100 korting te geven op de combo :9
Ik denk dat een combinatie korting veel Zen2 bezitters aan hun achterste zal oxideren.

Ga zelf wel overstappen, maar alleen omdat ik toch een goede bestemming heb voor mn 3950x als deze niet verkocht raakt.

iR Profiel


Acties:
  • +2 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
biggydeen2 schreef op donderdag 29 oktober 2020 @ 09:28:
[...]


Ja maar dat is nu juist de marketing :) 16Gb heb je niet nodig. Wat ik probeer te zeggen is dat je niet blind een AMD moet kopen omdat daar 16GB op zit ipv 10Gb op een 3080.
Red dead redemption 2 weigert op hoogste settings te draaien omdat het menu 11GB ram nodig heeft :)

https://www.overclockers....-discuss.18897519/page-77

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
jody2k schreef op donderdag 29 oktober 2020 @ 09:40:
[...]


Red dead redemption 2 weigert op hoogste settings te draaien omdat het menu 11GB ram nodig heeft :)

https://www.overclockers....-discuss.18897519/page-77
Werkt gewoon prima hier. Altijd fijn om iemand zonder de videokaart als bron aan te houden :+.

[ Voor 8% gewijzigd door Paprika op 29-10-2020 09:44 ]


Acties:
  • +3 Henk 'm!

  • william89
  • Registratie: September 2012
  • Laatst online: 15-09 12:25
Klein beetje offtopic, maar hij is te geweldig ;-)

AMD Marketing Engineer Reacts to Radeon 6000 Series Announcement

https://www.youtube.com/watch?v=tTlWjLhqfKk

[ Voor 23% gewijzigd door william89 op 29-10-2020 09:46 ]


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 09:26:
Als je nu deze nieuwe technieken van AMD in de cpu en het mobo wilt i.cm. een 6000 series dan moet je dus een redelijk "oud" x570 bord kopen, met een cpu die nog moet uitkomen en "oud" ddr4.

Het is dan zeg maar het eerste setje voor al deze nieuwe technieken en de laatste op socket am4?
De volgende keer (in de toekomst) ben je weer aan een nieuwe upgrade set gebonden.

Toch jammer (wel slim van AMD... begrijp me niet verkeerd ik ben echt fan van AMD op het moment!) dat de volgende AMD cpu's naar ddr5 gaan en je dus weer een hele nieuwe set van mobo + cpu + ram moet kopen.

Ik ga enkel kijken naar een nieuwe videokaart en wacht nog tot de ddr5 periode voor een eventueel upgrade setje.
Zen3 kan de laatste zijn op socket AM4 inderdaad, lijkt er wel op en is wel iets om in het achterhoofd te houden. Het is ook maar de vraag of een 500 serie bord hardwarematig 'noodzakelijk' is voor SAM. Wie weet een bewuste beperking, ik heb nog geen idee. I/O die is zo ver ik weet ook gelijk aan Zen2 en tot op heden is er niet eens een prestatiesverschil voor de CPU tussen een 300 of 500 serie. Bewust beperkingen invoeren om nieuwe 'betere' hardware te kunnen verkopen ben ik in ieder geval geen fan van.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Luqq
  • Registratie: Juni 2005
  • Laatst online: 19-09 14:23
M-spec schreef op donderdag 29 oktober 2020 @ 09:52:
[...]


Zen3 kan de laatste zijn op socket AM4 inderdaad, lijkt er wel op en is wel iets om in het achterhoofd te houden. Het is ook maar de vraag of een 500 serie bord hardwarematig 'noodzakelijk' is voor SAM. Wie weet een bewuste beperking, ik heb nog geen idee. I/O die is zo ver ik weet ook gelijk aan Zen2 en tot op heden is er niet eens een prestatiesverschil voor de CPU tussen een 300 of 500 serie. Bewust beperkingen invoeren om nieuwe 'betere' hardware te kunnen verkopen ben ik in ieder geval geen fan van.
PCI-Express 4.0 is waarschijnlijk 1 van de requirements.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
M-spec schreef op donderdag 29 oktober 2020 @ 09:52:
[...]


Zen3 kan de laatste zijn op socket AM4 inderdaad, lijkt er wel op en is wel iets om in het achterhoofd te houden. Het is ook maar de vraag of een 500 serie bord hardwarematig 'noodzakelijk' is voor SAM. Wie weet een bewuste beperking, ik heb nog geen idee. I/O die is zo ver ik weet ook gelijk aan Zen2 en tot op heden is er niet eens een prestatiesverschil voor de CPU tussen een 300 of 500 serie. Bewust beperkingen invoeren om nieuwe 'betere' hardware te kunnen verkopen ben ik in ieder geval geen fan van.
Ik ben ook benieuwd of het bijvoorbeeld gaat werken met een B450 en Ryzen 3000 series.
AMD is juist zo sterk in het langdurige gebruik van AM4 en de bios updates om nieuwere cpu's op oudere mobo's te supporten.
Denk/hoop (ze zijn juist zo positief bezig) niet dat AMD bewust beperkingen gaat invoeren.

Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 17:58

ZenTex

Doet maar wat.

biggydeen2 schreef op donderdag 29 oktober 2020 @ 09:00:
[...]


Die 16Gb is echt puur marketing. Op 4k heb je bij lange na geen 16GB nodig. Ook de komende jaren niet. Er is zelfs op dit moment geen enkele tripple A game welke meer dan 8GB vram verbruikt. Anders zou je namelijk bottlenecks tegenkomen tussen een 2080 super (8GB) en 2080Ti (11GB). Maar die zijn er niet.
Met andere woorden, de 10GB op de 3080 is ruim voldoende voor de komende jaren. Al helemaal op 1440p.
Mja. 10Gb voor een 4k kaart vind ik toch echt karig anno 2020 en niet echt future proof. Nu us future proof natuurlijk onzin in tech, maar als ik een kaart koop voor de komende 5 jaar (zoals m'n vorige systeem) ga ik me toch echt zorgen maken.
Om over de 3070 maar te zwijgen, als het merk me weinig kon schelen koos ik voor 8Gb meer, geen twijfel aan.
En natuurlijk de rage mode plus die andere optie heb je alleen iets aan als je een nieuwe Ryzen CPU hebt.
Rage is gewoon een OC mode voor de GPU, (PBO voor GPU's)dus dat kan ook met een Intel.
Voor SAM heb je wel een Zen3 cpu nodig, icm 500 serie moederbord.
Maar ik heb zo'n vermoeden dat binnen het jaar zowat elke high end gamer wel een Zen3 cpu in z'n systeem heeft zitten. :+

Blijft de vraag wat een 6900XT in rage modus trekt, dat zal ongetwijfeld niet mals zijn, maar vast niet (veel) meer dan een 3090.
Lijkt me dan ook meer een gimmick om met 300W te kunnen adverteren.
Los daarvan zullen de AIB's ook wel los gaan met factory OCs en, tsja...

Vraag me af hoe goed RDNA schaalt met kloksnelheden.
Mooie kans voor een gedegen AIB VS AIB review.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Nutral schreef op donderdag 29 oktober 2020 @ 08:58:
[...]


Ik denk dat dit komt omdat (meestal) de PCI-e lanes van de videokaart direct aangesloten zitten op de CPU. dus uiteindelijk op het moment dat de cpu en videokaart er op voorbereid zijn kunnen ze dus direct contact hebben. Waarom het een 550 of570 moet zijn weet ik niet, misschien vanwege PCI-e 4.0, of vanwege hoe de moederborden zijn opgebouwd.
PCI-E 4.0 lijkt me inderdaad wel handig om sneller te communiceren.
Maar waarom een Ryzen 3000 CPU het dan niet kan...

Wellicht zit er echt nog andere logica in de Ryzen 5000 CPU's of ze willen mensen een extra rede geven om te upgraden en brengen het niet voor de 3000 serie uit. Kan ik ze opzich ook geen ongelijk in geven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Ik ben benieuwd wat de feiten/meningen van anderen hierover zijn.
Misschien wel richting offtopic hierzo...

Ik heb me ook nog even ingelezen over 8gb vram of meer, want ik twijfel toch echt, gezien het aardig tijd wordt voor een nieuwe videokaart.
Nu game ik nog op 1080p, maar ik zie dat in de nabije toekomst naar 1440p gaan.
Op de bewuste pc speel ik enkel Hunt: Showdown van Crytek.
En dat op de laagste settings op richting de 144fps te zitten, alhoewel ik nog flinke drops heb naar de 100fps.
Andere multiplayer games kunnen mij niet echt buien met muis + keyboard combo.
Voor "console" gaming heb ik een andere pc voor 1080p 60fps met een GTX 970.

Als je kijkt naar flight simulator dan zie je toch wel dat 8gb vram een beperking is.

Ik denk een beetje terug aan de periode van 2gb (en dan had je de keuze tussen 2 en 4) & 3gb vram.
GTX 580 1,5gb vs GTX 580 3gb... 3gb doet het tegenwoordig veel beter. (een enorm verschil in Doom 2016)
De 3gb AMD 7950 en 7970 kunnen nog steeds goed meekomen.

Een GTX 770 met 2gb is waardeloos terwijl een 4gb versie een stuk beter is (argument t.o.v. een GTX 780 met 3gb).

Met een 4gb (t.o.v 8gb) R9 kaartje kom je te kort, sterker nog, in de laatste Doom games kun je bepaalde settings niet eens aanzetten...

[ Voor 29% gewijzigd door HugoBoss1985 op 29-10-2020 10:02 ]


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
ZenTex schreef op donderdag 29 oktober 2020 @ 09:54:
Rage is gewoon een OC mode voor de GPU, (PBO voor GPU's)dus dat kan ook met een Intel.
Voor SAM heb je wel een Zen3 cpu nodig, icm 500 serie moederbord.
Maar ik heb zo'n vermoeden dat binnen het jaar zowat elke high end gamer wel een Zen3 cpu in z'n systeem heeft zitten. :+

Blijft de vraag wat een 6900XT in rage modus trekt, dat zal ongetwijfeld niet mals zijn, maar vast niet (veel) meer dan een 3090.
Lijkt me dan ook meer een gimmick om met 300W te kunnen adverteren.
Los daarvan zullen de AIB's ook wel los gaan met factory OCs en, tsja...

Vraag me af hoe goed RDNA schaalt met kloksnelheden.
Mooie kans voor een gedegen AIB VS AIB review.
Dat is het dus niet. Het is geen OC mode. Wat het mogelijk wel is is een mode waarin het power budget wat hoger is maar het is een preset en valt onder de garantie en dat is met OC anders.
Daarnaast heeft AMD ook Auto UV en OC opties in de automatic tab zitten maar dat is anders dan Rage mode.

Ik gok dat ze de max power limit 20-30 watt verhogen. En bij Quiet mode verlagen ze die wat en worden de Fan's gecapped zodat de kaart niet boven de 37dba komt.

[ Voor 4% gewijzigd door Astennu op 29-10-2020 10:00 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 17:58

ZenTex

Doet maar wat.

HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 09:58:
Ik ben benieuwd wat de feiten/meningen van anderen hierover zijn.
Misschien wel richting offtopic hierzo...

Ik heb me ook nog even ingelezen over 8gb vram of meer, want ik twijfel toch echt, gezien het aardig tijd wordt voor een nieuwe videokaart.

.
Zie met in reactie 2 posts terug.

Buiten dat hen ik een beetje het vermoeden dat het dubbele aan Vram 1 van de redenen is voor de hogere prijs van de 6800 TOV de 3070.
8Gb is gewoon een fail anno 2020 voor upper mid-range.

Acties:
  • 0 Henk 'm!

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 23-08 20:39
M-spec schreef op donderdag 29 oktober 2020 @ 09:52:
[...]


Zen3 kan de laatste zijn op socket AM4 inderdaad, lijkt er wel op en is wel iets om in het achterhoofd te houden. Het is ook maar de vraag of een 500 serie bord hardwarematig 'noodzakelijk' is voor SAM. Wie weet een bewuste beperking, ik heb nog geen idee. I/O die is zo ver ik weet ook gelijk aan Zen2 en tot op heden is er niet eens een prestatiesverschil voor de CPU tussen een 300 of 500 serie. Bewust beperkingen invoeren om nieuwe 'betere' hardware te kunnen verkopen ben ik in ieder geval geen fan van.
Ik heb zelf een 3700x met een Hero VI moederbord. Hoewel ik wellicht een XT zal aanschaffen na de reviews die gaan komen, twijfel ik enorm om voor de nieuwe AMD CPU/MOBO te gaan, mede dus, omdat dit de laatste ondersteuning zal zijn voor de huidige socket.

Ik vind het behoorlijk krom dan ze zeggen dat de nieuwe kaarten, optimaal werken met de nieuwe cpu's e.d. dus ik ben zeer benieuwd wat nu daadwerkelijk het verschil zal zijn.


Het lijkt mij daarnaast een slechte koop om nu een XT te halen icm. met de nieuwe cpu's/x570, terwijl Q1 dus de nieuwe socket komt?

Zie ik iets verkeerd of denken er meer zo?

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
ZenTex schreef op donderdag 29 oktober 2020 @ 10:02:
[...]


Zie met in reactie 2 posts terug.

Buiten dat hen ik een beetje het vermoeden dat het dubbele aan Vram 1 van de redenen is voor de hogere prijs van de 6800 TOV de 3070.
8Gb is gewoon een fail anno 2020 voor upper mid-range.
Thanks!
Ja, dat was dus eigenlijk ook mijn insteek vóór het hele grafische kaarten release geweld :P
Ik had ook al in het achterhoofd "maar ik heb al 8gb vram sinds 2 videokaart upgrades".

Maar jij koopt een kaart voor 5 jaar?!
Meestal was dat voor mij 2-3 jaar en in een ver verleden soms per jaar :P.

Nu is de hoeveelheid games die ik speel gereduceerd, ik denk dat Hunt:Showdown prima te doen is met 8gb vram op hogere resoluties.

[ Voor 18% gewijzigd door HugoBoss1985 op 29-10-2020 10:05 ]


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 09:58:
Ik ben benieuwd wat de feiten/meningen van anderen hierover zijn.
Misschien wel richting offtopic hierzo...

Ik heb me ook nog even ingelezen over 8gb vram of meer, want ik twijfel toch echt, gezien het aardig tijd wordt voor een nieuwe videokaart.

Als je kijkt naar flight simulator dan zie je toch wel dat 8gb vram een beperking is.

Ik denk een beetje terug aan de periode van 2gb (en dan had je de keuze tussen 2 en 4) & 3gb vram.
GTX 580 1,5gb vs GTX 580 3gb... 3gb doet het tegenwoordig veel beter.
De 3gb AMD 7950 en 7970 kunnen nog steeds goed meekomen.

Een GTX 770 met 2gb is waardeloos terwijl een 4gb versie een stuk beter is (argument t.o.v. een GTX 780 met 3gb).
Flight simulator is een uitzondering. Momenteel is op 4K het meeste te draaien zonder beperkingen zelfs met 8GB .

https://www.tweaktown.com...1080p-1440p-4k/index.html

YouTube: Bang4BuckPC Gamer - YouTube

Zowat alles ook nieuwe zit tussen de 4-7 GB , natuurlijk zegt dat niks over de toekomst. Ziende dat ps5/xbox meer dan dat krijgen zal het geheugen verbruik ntuurlijk omhoog gaan en zal de 10gb van 3080 of 16gb van AMD veel meer future proof zijn. Als je die kaart langer dan 2 jaar gebruikt zou ik toch eerder naar daar zien.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
ZenTex schreef op donderdag 29 oktober 2020 @ 10:02:
[...]


Zie met in reactie 2 posts terug.

Buiten dat hen ik een beetje het vermoeden dat het dubbele aan Vram 1 van de redenen is voor de hogere prijs van de 6800 TOV de 3070.
8Gb is gewoon een fail anno 2020 voor upper mid-range.
Neen dat is voor huidige games zelfs 4k ultra nog voldoende. Het geeft je natuurlijk weinig marge voor de toekomst.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 29 oktober 2020 @ 09:36:
Ik zie in elk geval nog geen reden tot paniek wat betreft RT prestaties. Niet op basis van resultaten in dat sample tenminste.

Wat ik overigens het belangrijkste vond aan het geheel (wat helaas vrij summier was :( whitepaper pl0x): als de performance cijfers kloppen, dan heeft AMD hun efficiëntie flink verbeterd. Dan heb ik het niet over verbruik, maar efficiëntie van de CU's en aansturing daarvan. Met 20,7 TF een 3080 evenaren is heel netjes. Een 3080 zal gemiddeld ook rond de 20 TF hangen in de praktijk.

Of, om de meest achterlijke term te gebruiken die helaas (ook hier) nog steeds populair is maar eigenlijk nergens op slaat: hun "IPC" is flink vooruit gegaan.
Instructions per CU. :Y)
* DaniëlWW2 rent. :P

Maar de whitepaper is wenselijk hier want ik wil ook wel weten wat de nu precies hebben gedaan met de CU's, hoe RT nu precies werkt, wat de buck "Super Resolution" nu werkelijk doet etc. Schaling lijkt ook uitzonderlijk goed te zijn als ik de RX5700XT als basislijn pak.





Maar een nacht later weet ik het nog steeds niet met de RX6800. Het is een serieus krachtige videokaart voor 1440p die vrijwel alles in high refresh zou moeten kunnen. Dankzij AMD hun hier niet welkome "trucje" van SAM weet ik alleen niet wat de marges zonder zijn aangezien ik vermoed dat ik uitgesloten ga worden met "maar" een 3700X en C6H wat ik niet zo grappig zou vinden. De prijs is voor mij het heikele punt. Zeker als ik nu zie dat Sapphire met een Pulse, Nitro en Toxic lijn komt. Ik moet daar zien of de "Pulse" die 250W TBP goed aankan of dat er een goed alternatief opduikt. Ik wil eigenlijk wel een stap sneller dan de RX5700XT. Voor mij is het een beetje zoals de RX580 die ik even had. Leuke stap, maar eigenlijk net niet.

Afbeeldingslocatie: https://www.techpowerup.com/img/ZUFAA0sFdj6eVNVH.jpg

Kwam dit per toeval ook tegen. Dit lijkt namelijk de basis van SAM te zijn. Dat lijkt dus weer wat marketing te zijn en dan is de segmentatie zoals die nu lijkt te gaan worden, helemaal twijfelachtig.
https://docs.microsoft.co...lay/resizable-bar-support
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 09:58:
Ik ben benieuwd wat de feiten/meningen van anderen hierover zijn.
Misschien wel richting offtopic hierzo...

Ik heb me ook nog even ingelezen over 8gb vram of meer, want ik twijfel toch echt, gezien het aardig tijd wordt voor een nieuwe videokaart.
Nu game ik nog op 1080p, maar ik zie dat in de nabije toekomst naar 1440p gaan.
Op de bewuste pc speel ik enkel Hunt: Showdown van Crytek.
En dat op de laagste settings op richting de 144fps te zitten, alhoewel ik nog flinke drops heb naar de 100fps.
Andere multiplayer games kunnen mij niet echt buien met muis + keyboard combo.
Voor "console" gaming heb ik een andere pc voor 1080p 60fps met een GTX 970.

Als je kijkt naar flight simulator dan zie je toch wel dat 8gb vram een beperking is.

Ik denk een beetje terug aan de periode van 2gb (en dan had je de keuze tussen 2 en 4) & 3gb vram.
GTX 580 1,5gb vs GTX 580 3gb... 3gb doet het tegenwoordig veel beter. (een enorm verschil in Doom 2016)
De 3gb AMD 7950 en 7970 kunnen nog steeds goed meekomen.

Een GTX 770 met 2gb is waardeloos terwijl een 4gb versie een stuk beter is (argument t.o.v. een GTX 780 met 3gb).

Met een 4gb (t.o.v 8gb) R9 kaartje kom je te kort, sterker nog, in de laatste Doom games kun je bepaalde settings niet eens aanzetten...
Voor 1440p is 8GB denk ik nog afdoende. Het is niet royaal, maar afdoende. Voor 4K, tja Nvidia kon hun 2x RTX2080 claimen met de RTX3080 omdat ze in Doom Eternal een setting hadden gebruikt die om meer dan 8GB aan vram vroeg en de RTX2080 ging tegenhouden. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
k995 schreef op donderdag 29 oktober 2020 @ 10:04:
[...]

Flight simulator is een uitzondering. Momenteel is op 4K het meeste te draaien zonder beperkingen zelfs met 8GB .

https://www.tweaktown.com...1080p-1440p-4k/index.html

YouTube: Bang4BuckPC Gamer - YouTube

Zowat alles ook nieuwe zit tussen de 4-7 GB , natuurlijk zegt dat niks over de toekomst. Ziende dat ps5/xbox meer dan dat krijgen zal het geheugen verbruik ntuurlijk omhoog gaan en zal de 10gb van 3080 of 16gb van AMD veel meer future proof zijn. Als je die kaart langer dan 2 jaar gebruikt zou ik toch eerder naar daar zien.
@k995 Dat eerste artikel is uit 2015 he ;) (maar zegt wel iets uiteraard)

Daar had ik ook iets over gelezen, maar de PS4 was bijvoorbeeld echt bijzonder met maarliefst 8gb toen die uitkwam.
En je ziet nu dat 8gb de speetspot is en 4gb te weinig :P

Geduld is nu een schone zaak tot 18 november, gewoon beheerst blijven en geen RTX 3070 kopen O-)

[ Voor 8% gewijzigd door HugoBoss1985 op 29-10-2020 10:11 ]


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 10:06:
[...]


Daar had ik ook iets over gelezen, maar de PS4 was bijvoorbeeld echt bijzonder met maarliefst 8gb toen die uitkwam.
En je ziet nu dat 8gb de speetspot is en 4gb te weinig :P
Dat was wel gedeeld, denk dat het iets was van 2-3GB voor systeem en 5-6GB voor games. Vandaar ook dat heel veel games rond die 3-5 GB VRAM zitten en je al ultra settings of hoge resolutie moet gaan (die op consoles niet beschiikbaar zijn) om daarboven te geraken.
@k995 Dat eerste artikel is uit 2015 he ;)
Updated in 2020.
Het youtube kanaal heeft enkele nieuwere games daar zie je net hetzelfde: nergens komen ze aan 8GB zelfs met 4k/ultra .

[ Voor 15% gewijzigd door k995 op 29-10-2020 10:12 ]


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Luqq schreef op donderdag 29 oktober 2020 @ 09:54:
[...]


PCI-Express 4.0 is waarschijnlijk 1 van de requirements.
Ook dat moet zich nog bewijzen of het wel echt nodig is. Tot op heden laat het geen voordeel zien (in orde van ~1%) tov Gen.3

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 17:58

ZenTex

Doet maar wat.

william89 schreef op donderdag 29 oktober 2020 @ 09:45:
Klein beetje offtopic, maar hij is te geweldig ;-)

AMD Marketing Engineer Reacts to Radeon 6000 Series Announcement

https://www.youtube.com/watch?v=tTlWjLhqfKk
Ik zit nog te wachten op Hitler uit der untergang meme, met Jensen als Hitler.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
ZenTex schreef op donderdag 29 oktober 2020 @ 10:21:
[...]


Ik zit nog te wachten op Hitler uit der untergang meme, met Jensen als Hitler.
't Zal wel meevallen. Sinds de announcement is het Nvidia levertijden topic weer 1137 berichten gegroeid en dat zijn geen annuleringen :p.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
k995 schreef op donderdag 29 oktober 2020 @ 10:10:
[...]

Dat was wel gedeeld, denk dat het iets was van 2-3GB voor systeem en 5-6GB voor games. Vandaar ook dat heel veel games rond die 3-5 GB VRAM zitten en je al ultra settings of hoge resolutie moet gaan (die op consoles niet beschiikbaar zijn) om daarboven te geraken.


[...]

Updated in 2020.
Het youtube kanaal heeft enkele nieuwere games daar zie je net hetzelfde: nergens komen ze aan 8GB zelfs met 4k/ultra .
Er is ook een duidelijk verschil tussen allocated en used, software laat vaak een vertekend beeld (véél meer!) zien.

Deze vond ik vanmorgen en is erg interessant:

https://www.resetera.com/...hy-10gb-is-enough.280976/

Nouja misschien toch maar een RTX 3070 8gb kopen want stel je voor dat AMD te machtig wordt :+

[ Voor 6% gewijzigd door HugoBoss1985 op 29-10-2020 10:29 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
ZenTex schreef op donderdag 29 oktober 2020 @ 10:21:
[...]


Ik zit nog te wachten op Hitler uit der untergang meme, met Jensen als Hitler.
Gaat over de 5000 series cpu's, maar toch ;)

YouTube: Hitler reacts to AMD Ryzen 5000 Series Zen 3 CPUs - Intel

Und er ist wieder da :D (6000 series)
Alle Nvidia medwerkers, op 3 na, moeten uit de kamer... maar ze kunnen toch alles horen. :+

YouTube: Hitler Reacts to Radeon 6000 Series Graphics Card Announcement - NVIDIA

[ Voor 26% gewijzigd door HugoBoss1985 op 29-10-2020 10:27 ]


Acties:
  • +3 Henk 'm!

  • Dutchy007
  • Registratie: September 2004
  • Laatst online: 21-09 11:47
Oh AMD ;)

Afbeeldingslocatie: https://i.ibb.co/cYmCbcd/rsz-2download.png

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Mooie sneer over die connector. Had Nvidia maar meer tijd in pure performance gestoken, in plaats van met nieuwe connectors te gaan lopen klooien.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Is het niet mogelijk VRAM te begrenzen?
Pak een kaart met 11 GB en draai wat benchmarks met 8, 9, 10 en 11 GB VRAM en zoek de verschillen...

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Jeroenneman schreef op donderdag 29 oktober 2020 @ 10:33:
[...]


Mooie sneer over die connector. Had Nvidia maar meer tijd in pure performance gestoken, in plaats van met nieuwe connectors te gaan lopen klooien.
Op zich is een 300W connector wel een goed idee.. toch?

Acties:
  • 0 Henk 'm!

Verwijderd

In de specificaties staan ook power supply recommendations:

- 6900XT - 850W
- 6800XT - 750W
- 6800 - 650W

Die 300W van de hoogste twee verdient dan wel een korreltje zout eventueel?
/me had gehoopt nog wel uit te kunnen met een 550W voeding...

[ Voor 19% gewijzigd door Verwijderd op 29-10-2020 10:40 ]


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Olaf van der Spek schreef op donderdag 29 oktober 2020 @ 10:34:
[...]

Op zich is een 300W connector wel een goed idee.. toch?
Agreed het idee was best wel goed. Vooral een mooie compacte connector die minder in de weg zit en je maar een kabel voor nodig hebt.
Nadeel is alleen dat de meeste PSU's die aansluiting dus niet hebben en het is volgens mij geen onderdeel van de ATX Standaard. Als ze dat nu meteen hadden geregeld. Of beter vooraf hadden regegeld voordat er kaarten waren dat er aan PSUs uit waren die het hadden was het beter geweest.

Maar opzich ben ik wel voor een high power connector ipv 2 of 3x een 8p er in moeten pluggen wat ook weer wat ruimte voor cooling weg neemt. Zeker met kaarten die met OC 400+ watt kunnen trekken dan moet je eigenlijk 3x 8p hebben zie bv bepaalde AIB kaarten die dat hebben.
Maar goed dan is een 300w connector eigenlijk ook al te beperkt dan wil je er een die 400 aan kan of 450 en dan heb je nog + 75w van het slot. Dan kan je tenminste even vooruit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 29 oktober 2020 @ 10:37:
In de specificaties staan ook power supply recommendations:

- 6900XT - 850W
- 6800XT - 750W
- 6800 - 650W

Die 300W van de hoogste twee verdient dan wel een korreltje zout eventueel?
/me had gehoopt nog wel uit te kunnen met een 550W voeding...
Vraag me af of ze dan met rage mode bedoelen Want de 6900XT is net als de 6800XT 300 watt board power. Dus waarom dan een 50 watt hogere PSU nodig. Misschien gaan ze er van uit dat mensen crappy PSU's hebben die geen stabiele voltages hebben. Ik denk dat dat het is door dan een hoger model te verzoeken heb je wat meer marge als die PSU te slecht is moet hij niet vol vermogen moeten leveren.

550 Watt A merk PSU gaat zeker wel voldoende zijn bij stock gebruik. Want dan gebruikt de kaart max 300 watt. En als je dan geen CPU hebt die 200 watt trekt heb je genoeg aan je 550 watt PSU.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Sardientje
  • Registratie: Februari 2012
  • Laatst online: 04-09 11:42
DaniëlWW2 schreef op donderdag 29 oktober 2020 @ 10:06:

Voor 1440p is 8GB denk ik nog afdoende. Het is niet royaal, maar afdoende. Voor 4K, tja Nvidia kon hun 2x RTX2080 claimen met de RTX3080 omdat ze in Doom Eternal een setting hadden gebruikt die om meer dan 8GB aan vram vroeg en de RTX2080 ging tegenhouden. :z
Dat vind ik inderdaad toch wel een puntje. Als nu FS en Doom Eternal al tegen de VRAM limieten lopen dan voorspelt dat weinig goeds voor de komende generatie games. Nu is het natuurlijk zo dat DLSS in veel gevallen uitkomst zal bieden, maar zodra er een 'next' gen game uitkomt die géén DLSS ondersteund maar wel de (V)RAM van de consoles volladen tot >10GB (en laten we wel wezen; waarom zouden developers geen gebruik maken van deze ruimte) dan zit je met een kaart die erg snel is (rtx 3080) maar het alsnog niet kan bijbenen door de lage VRAM.

En ja, ik weet dat er naast die twee voorbeelden weinig games zijn waar je op dit moment zorgen over hoeft te maken mbt VRAM gebruik (al zou je wellicht een heavily modded Skyrim hier nog aan toe kunnen voegen). Ik gok dat het echter nog een paar jaar zal duren voordat >10gb VRAM games breed beschikbaar zijn en het is natuurlijk ook een optie om tegen die tijd je 3080 weg te doen voor een 3080ti (of een AMD kaart).

Acties:
  • +1 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op donderdag 29 oktober 2020 @ 10:41:
Nadeel is alleen dat de meeste PSU's die aansluiting dus niet hebben en het is volgens mij geen onderdeel van de ATX Standaard. Als ze dat nu meteen hadden geregeld. Of beter vooraf hadden regegeld voordat er kaarten waren dat er aan PSUs uit waren die het hadden was het beter geweest.
Is dat niet met elke nieuwe connector zo? Vroeger had je voor SATA, PEG6 en PEG8 ook adapter kabels nodig..
Maar opzich ben ik wel voor een high power connector ipv 2 of 3x een 8p er in moeten pluggen wat ook weer wat ruimte voor cooling weg neemt. Zeker met kaarten die met OC 400+ watt kunnen trekken dan moet je eigenlijk 3x 8p hebben zie bv bepaalde AIB kaarten die dat hebben.
Maar goed dan is een 300w connector eigenlijk ook al te beperkt dan wil je er een die 400 aan kan of 450 en dan heb je nog + 75w van het slot. Dan kan je tenminste even vooruit.
375W zou toch eigenlijk wel voldoende moeten zijn voor een kaart...
Vergeleken met de huidige kaarten was Fermi gewoon zuinig. :p

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
VRAM usage per process in de nieuwere (beta) MSI Afterburners:

https://www.resetera.com/...-per-process-vram.291986/

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Sardientje schreef op donderdag 29 oktober 2020 @ 10:45:
[...]


Dat vind ik inderdaad toch wel een puntje. Als nu FS en Doom Eternal al tegen de VRAM limieten lopen dan voorspelt dat weinig goeds voor de komende generatie games. Nu is het natuurlijk zo dat DLSS in veel gevallen uitkomst zal bieden, maar zodra er een 'next' gen game uitkomt die géén DLSS ondersteund maar wel de (V)RAM van de consoles volladen tot >10GB (en laten we wel wezen; waarom zouden developers geen gebruik maken van deze ruimte) dan zit je met een kaart die erg snel is (rtx 3080) maar het alsnog niet kan bijbenen door de lage VRAM.
Heb je al eens goed gekeken naar de specs van consoles? De Xbox Series X heeft precies 10GB aan snel geheugen. Beide systemen hebben ook gewoon overhead. Er draait een OS op en niet al je geheugen zit in je VRAM. Er is ook gewoon RAM benodigd.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Olaf van der Spek schreef op donderdag 29 oktober 2020 @ 10:45:
[...]

Is dat niet met elke nieuwe connector zo? Vroeger had je voor SATA, PEG6 en PEG8 ook adapter kabels nodig..
Weet ik niet zeker meer. Dacht dat er dan vaak wel PSU's te koop waren maar dan moest je wel eerst een nieuwe kopen dan gebruiken mensen net als nu liever een convertor.
[...]

375W zou toch eigenlijk wel voldoende moeten zijn voor een kaart...
Vergeleken met de huidige kaarten was Fermi gewoon zuinig. :p
Ja true maar zie de 3090 stock al 350 dus als je dan een beetje wilt tweaken ga je al naar 480. En dan moet je die connectors dus wel op je kaart hebben.
Voor mensen die niet overclocken zitten de connectors er dan wel op en moeten ze wel ingeplugd zijn om de kaart te kunnen gebruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 27-08 20:38
ZenTex schreef op donderdag 29 oktober 2020 @ 09:54:
[...]

Mja. 10Gb voor een 4k kaart vind ik toch echt karig anno 2020 en niet echt future proof. Nu us future proof natuurlijk onzin in tech, maar als ik een kaart koop voor de komende 5 jaar (zoals m'n vorige systeem) ga ik me toch echt zorgen maken.
Om over de 3070 maar te zwijgen, als het merk me weinig kon schelen koos ik voor 8Gb meer, geen twijfel aan.
Dat is een gevoel. Dat begrijp ik wel maar je moet kijken naar wat je daadwerkelijk gebruikt. Er is geen enkele game welke op dit moment een bottleneck heeft met 8GB vram op 4k ultra settings. En voordat de nieuwe consoles tot hun maximale zijn benut zijn we vele jaren verder.

Maar goed, ieder zijn keuze.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Deze tool wordt gebruikt in het VRAM artikel wat ik eerder postte:

https://discourse.differentk.fyi/

So how do we find how much VRAM our games are actually using if our current tools are misleading us?
If you want to see the accurate amount of VRAM in use, not just allocated, you need to either use a built in monitoring overlay, such as those found in Doom Eternal or Flight Simulator 2020, or for games that do not offer their own real-time monitors you can use Special K which uses memory budgets to report VRAM.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
biggydeen2 schreef op donderdag 29 oktober 2020 @ 10:50:
[...]


Dat is een gevoel. Dat begrijp ik wel maar je moet kijken naar wat je daadwerkelijk gebruikt. Er is geen enkele game welke op dit moment een bottleneck heeft met 8GB vram op 4k ultra settings.
Misschien, maar is dat de komende twee / drie jaar ook zo?

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Olaf van der Spek schreef op donderdag 29 oktober 2020 @ 10:51:
[...]

Misschien, maar is dat de komende twee / drie jaar ook zo?
En dan is er nog het argument van "ja, maar dan is je videokaart toch al weer te traag".

Maar het verleden leert ook weer dat VRAM behoorlijk uit kan maken.

Er is voor allebei de argumenten iets te zeggen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
biggydeen2 schreef op donderdag 29 oktober 2020 @ 10:50:
[...]


Dat is een gevoel. Dat begrijp ik wel maar je moet kijken naar wat je daadwerkelijk gebruikt. Er is geen enkele game welke op dit moment een bottleneck heeft met 8GB vram op 4k ultra settings. En voordat de nieuwe consoles tot hun maximale zijn benut zijn we vele jaren verder.

Maar goed, ieder zijn keuze.
Ligt er aan wat je een bottleneck vind er zijn wel al games waar de prestaties flink inzakken omdat ze over de 8GB gaan. Niet veel maar als ze er nu al zijn worden dat er alleen maar meer.
Als je 3+ jaar met een kaart wilt doen snap ik dat 10GB dan een beetje krap is

Dan zit AMD met zijn 16GB een stuk beter. De meeste mensen die ik in mijn prive omgeving ken doen 3-5 jaar met een kaart dus dan speelt dat zeker wel een rol. En hangt het van de meerprijs af. Maar bij AMD krijg je voor 50 dollar minder wel 16GB ipv 10GB dus dat is in mijn ogen een groot voordeel voor die use cases.

Maar koop je over 1-2 jaar een nieuwe dan is 10GB wel prima te doen.

[ Voor 10% gewijzigd door Astennu op 29-10-2020 10:54 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Astennu schreef op donderdag 29 oktober 2020 @ 10:53:
[...]


Ligt er aan wat je een bottleneck vind er zijn wel al games waar de prestaties flink inzakken omdat ze over de 8GB gaan. Niet veel maar als ze er nu al zijn worden dat er alleen maar meer.
Als je 3+ jaar met een kaart wilt doen snap ik dat 10GB dan een beetje krap is

Dan zit AMD met zijn 16GB een stuk beter. De meeste mensen die ik in mijn prive omgeving ken doen 3-5 jaar met een kaart dus dan speelt dat zeker wel een rol. En hangt het van de meerprijs af. Maar bij AMD krijg je voor 50 dollar minder wel 16GB ipv 10GB dus dat is in mijn ogen een groot voordeel.
Ik lees ook genoeg verhalen online waar een GTX 1080TI en een RTX 2080TI vram te kort komen.
16gb is in ieder geval de beste en logische keuze, vind ik.

Ik doe max 2-3 jaar met een kaart, dan zitten ze nog binnen de garantie periode (alhoewel Gigabyte 4 jaar geeft op sommige kaarten, na registratie).

[ Voor 10% gewijzigd door HugoBoss1985 op 29-10-2020 10:56 ]


Acties:
  • +1 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 15-09 18:28
Ik denk dat het duidelijk is dat de huidige games niet 10GB aan VRAM gebruiken, maar dat men (waaronder ik) vooral aan het peinzen zijn of 10GB wel genoeg gaat zijn over 4/5 jaar voor games zoal TES VI en andere next-gen games die ook op de XSX of PS5 (pro) uitkomen. Ik wil zelf ook een GPU kopen die ik voor 4 jaar minstens goed kan gebruiken en zal dan enorm balen als ik wel een super snelle RTX 3080 heb, waar ik dan uiteindelijk toch door het VRAM gebruik niet de snelheid kan toepassen. Ik game zelf niet 4k, maar op 3440x1440 en verwacht dat dit ook mijn resolutie word voor 10 jaar.

Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 27-08 20:38
Olaf van der Spek schreef op donderdag 29 oktober 2020 @ 10:51:
[...]

Misschien, maar is dat de komende twee / drie jaar ook zo?
Wellicht op 8Gb wel maar op 10GB wat ook nog veel sneller is? Ik denk het niet nee. De nieuwe consoles hebben ook max 10GB vram wat 25% trager is dan wat op de 3080 zit.

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 29 oktober 2020 @ 10:45:
[...]


Vraag me af of ze dan met rage mode bedoelen Want de 6900XT is net als de 6800XT 300 watt board power. Dus waarom dan een 50 watt hogere PSU nodig. Misschien gaan ze er van uit dat mensen crappy PSU's hebben die geen stabiele voltages hebben. Ik denk dat dat het is door dan een hoger model te verzoeken heb je wat meer marge als die PSU te slecht is moet hij niet vol vermogen moeten leveren.
Ik verwacht dat AMD het efficiëntiepunt van de chips voorbij moet om Nvidia te bevechten in het topsegment, maar dat is gezond pessimisme momenteel. :)

Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
biggydeen2 schreef op donderdag 29 oktober 2020 @ 10:56:
[...]


Wellicht op 8Gb wel maar op 10GB wat ook nog veel sneller is? Ik denk het niet nee. De nieuwe consoles hebben ook max 10GB vram wat 25% trager is dan wat op de 3080 zit.
Consoles maken over het algemeen wel veel efficienter gebruik van hardware PC's hebben nog wel eens meer van alles nodig om vergelijkbare dingen te doen. Dus als een console 10GB nodig heeft kan het op een PC makkelijk 11-12GB zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 29 oktober 2020 @ 10:57:
[...]

Ik verwacht dat AMD het efficiëntiepunt van de chips voorbij moet om Nvidia te bevechten in het topsegment, maar dat is gezond pessimisme momenteel. :)
Ja maar het valt mee zowel de 6800XT als 6900XT zijn 300 watt
Dat is minder dan nVidia @ 320 (3080) en 350 watt (3090).

Dus ondanks ze de chips wel pushen valt het nog steeds mee. Maar goed zodra ik er een in mijn handen heb ga ik het zeker weer testen. Vega en RDNA 1 zaten voorbij de sweetspot. Hawaii en Fury eigenlijk ook.
De RX480 Polaris viel wel mee kon beter maar was niet heel slecht bij de 590 was het een heel ander verhaal.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Astennu schreef op donderdag 29 oktober 2020 @ 10:58:
[...]


Consoles maken over het algemeen wel veel efficienter gebruik van hardware PC's hebben nog wel eens meer van alles nodig om vergelijkbare dingen te doen. Dus als een console 10GB nodig heeft kan het op een PC makkelijk 11-12GB zijn.
Dat heeft meer met de veel betere textures te maken, waar consoles vooral veel met blurring, filters en algorithmes werken. Pak maar eens een willekeurige populaire console game. RDR2 is een mooi voorbeeld hiervoor. Met 2 identieke monitoren kun je dit heel goed zien. Als je ze dan naast elkaar ziet dan ga je heel goed merken waar de verschillen inzitten. 3-5 meter van je TV verwijdert speelt dit natuurlijk niet...

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op donderdag 29 oktober 2020 @ 09:10:
Hebben jullie ooit wel eens gekeken hoe je RTX raytracing moet implementeren? Daar komt letterlijk geen enkele Nvidia specifieke code aan te pas. Dat is juist het hele idee van DXR. Als je nu de tutorial van de Nvidia website pakt en deze op een AMD GPU gaat draaien werkt deze zonder enige code wijzigingen.

Hoe denken jullie dat dit andere zou werken?
https://videocardz.com/ne...dxr-ray-tracing-benchmark

Je kunt gewoon net als bij tessalation jaren terug een setting toevoegen hoe zwaar je deze wilt laten zijn en dus hoe accuraat je reflecties worden.
Denk dat de performance dan nog steeds kan uitmaken afhankelijk van de implementatie. Dat zagen we ook bij tesselation waar AMD heel snel was op lagere tesselation factors schaalde dit bij Nvidia door bij de hogere (en werd dit express aangezet in het begin bij Witcher 3).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op donderdag 29 oktober 2020 @ 10:22:
[...]

't Zal wel meevallen. Sinds de announcement is het Nvidia levertijden topic weer 1137 berichten gegroeid en dat zijn geen annuleringen :p.
Het lijkt me ook niet echt logisch om te annuleren zolang er geen reviews zijn (en je niks over levertijden weet). En al helemaal als je enigzins vooraan in een queue staat.

De 3080 blijft gewoon een goede en misschien wel de beste kaart om mee te gamen de komende tijd (afgezien vd 3090 en 6900XT die ik als buitenbeentjes zie vanwege prijs/prestatie).

Mochten de reviews voldoende goed zijn en ik kan zelfs voor minder een goede 6800XT krijgen en heb nog steeds geen 3080 binnen dan wordt het heel snel een ander verhaal.

Ik zou het ook wel erg leuk vinden om weer eens een AMD kaart te hebben.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 10:24:
[...]


Er is ook een duidelijk verschil tussen allocated en used, software laat vaak een vertekend beeld (véél meer!) zien.

Deze vond ik vanmorgen en is erg interessant:

https://www.resetera.com/...hy-10gb-is-enough.280976/

Nouja misschien toch maar een RTX 3070 8gb kopen want stel je voor dat AMD te machtig wordt :+
:-)

Eigenlijk komt het neer op: zal je zowat alles aanzetten op ultra high 4k gamen? Dan zal 10GB te weinig zijn voor nieuwe games de komende paar jaar. Doe je dat niet dan is zelfs 8gb genoeg,natuurlijk de vraag is of een 3070 genoeg is om op4k alles ultra te gamen. Ik betwijfel dat en dus het nut om daar meer dan 8GB voor gaming op te zetten.

Acties:
  • 0 Henk 'm!

  • CarJunkyXL
  • Registratie: Maart 2004
  • Laatst online: 18:20
De kaarten zijn net iets groter dan twee slots. Hadden ze nou er niet iets op kunnen verzinnen dat die precies twee slots was. Wel een gemiste kans. De 3080 lukt het ook. Al is die wat langer.

Maargoed. Ik zal wel voor een 6800XT gaan verwacht ik zo. (even de reviews en prijzen afwachten) :)
En een pluspunt ;normale connectors en minder stroom verbruik.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op donderdag 29 oktober 2020 @ 11:01:
[...]

Dat heeft meer met de veel betere textures te maken, waar consoles vooral veel met blurring, filters en algorithmes werken. Pak maar eens een willekeurige populaire console game. RDR2 is een mooi voorbeeld hiervoor. Met 2 identieke monitoren kun je dit heel goed zien. Als je ze dan naast elkaar ziet dan ga je heel goed merken waar de verschillen inzitten. 3-5 meter van je TV verwijdert speelt dit natuurlijk niet...
Nee klopt maar dan gaat dat argument van consoles hebben maar 10GB beschikbaar dus 10GB van de 3080 is voldoende de komende jaren gaat dus niet op. Ik verwacht dat games binnen 1-2 jaar wel over die 10GB heen gaan. Sommige zeggen zelfs dat dat nu al gebeurd ik zou zelf de voorbeelden alleen niet weten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 22:59
Olaf van der Spek schreef op donderdag 29 oktober 2020 @ 10:45:
375W zou toch eigenlijk wel voldoende moeten zijn voor een kaart...
Vergeleken met de huidige kaarten was Fermi gewoon zuinig. :p
M'n RX580 zuipt 185W en dat vind ik ook al voldoende. Ietsje meer kan misschien wel, maar het dubbele is gewoon lomp.
De oudere crossfire/SLI 2-in-1 kaarten zaten doorgaans ook tussen 300-400W. Dat is nu een enkele chip. 8)7

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
k995 schreef op donderdag 29 oktober 2020 @ 11:37:
[...]

:-)

Eigenlijk komt het neer op: zal je zowat alles aanzetten op ultra high 4k gamen? Dan zal 10GB te weinig zijn voor nieuwe games de komende paar jaar. Doe je dat niet dan is zelfs 8gb genoeg,natuurlijk de vraag is of een 3070 genoeg is om op4k alles ultra te gamen. Ik betwijfel dat en dus het nut om daar meer dan 8GB voor gaming op te zetten.
Dan is een RTX 3070 toch een gezonde optie, misschien gaat de prijs extra meevallen (zeker na al dit AMD geweld).
Nu op 1080p, in de toekomst op 1440p.
Ik had me ook voorgenomen om in ieder geval niet boven het verbruik van de Vega 56, met undervolt, (+/- 220 watt) te gaan zitten.
Die RTX 3070 zit, voor zo ver bekend, op dat niveau.
De 6800 gaat daar weer 30 watt overheen.

220 watt+ de rest van het systeem aan warmte is geen pretje in de zomer.

Sinds een GTS 450 1024mb heb ik geen Nvidia meer gehad :P (7850 2gb, r9 290 4gb, rx480 8gb, vega 56 8gb)

[ Voor 10% gewijzigd door HugoBoss1985 op 29-10-2020 11:46 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 11:42:
[...]


Dan is een RTX 3070 toch een gezonde optie, misschien gaat de prijs extra meevallen (zeker na al dit AMD geweld).
Nu op 1080p, in de toekomst op 1440p.
Ik had me ook voorgenomen om in ieder geval niet boven het verbruik van de Vega 56, met undervolt, (+/- 220 watt) te gaan zitten.
Die RTX 3070 zit, voor zo ver bekend, op dat niveau.
De 6800 gaat daar weer 30 watt overheen.

220 watt+ de rest van het systeem aan warmte is geen pretje in de zomer.

Sinds een GTS 450 1024mb heb ik geen Nvidia meer gehad :P (7850 2gb, r9 290 4gb, rx480 8gb, vega 56 8gb)
Of even wachten op de 6700 XT kijken wat die doet.
Ben ook benieuwd of deze GPU's goed te undervolten zijn. Bij RNDA1 was nog wel het geval.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Astennu schreef op donderdag 29 oktober 2020 @ 11:48:
[...]


Of even wachten op de 6700 XT kijken wat die doet.
Ben ook benieuwd of deze GPU's goed te undervolten zijn. Bij RNDA1 was nog wel het geval.
Zeker benieuwd naar!
Ik las ook al iets over biossen flashen >:)

Maar ik wacht al zo lang O-)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 11:50:
[...]


Zeker benieuwd naar!
Ik las ook al iets over biossen flashen >:)

Maar ik wacht al zo lang O-)
Bios flashen is niet echt meer een ding? Je kon de 5700 de XT power limits geven door de XT bios te flashen maar daar werd hij niet efficenter van prestaties gingen wel wat omhoog.

En dat soort dingen kon je met software zoals MorePowerTool ook al doen heb je geen flash voor nodig. Met die tool kan je zelfs meer.

[ Voor 14% gewijzigd door Astennu op 29-10-2020 11:53 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Astennu schreef op donderdag 29 oktober 2020 @ 11:53:
[...]


Bios flashen is niet echt meer een ding? Je kon de 5700 de XT power limits geven door de XT bios te flashen maar daar werd hij niet efficenter van prestaties gingen wel wat omhoog.
Wat ik gelezen had over de 6800 kaarten ging over unlocken, niet over power limits.
Kan het zo snel niet terug vinden.

En offtopic maar de 5700 XT was voor mij (een jaar geleden) een ramp, die ging dezelfde dag retour.
Niet normaal hoeveel problemen ik daar toen mee had.
Voor dat geld koop ik gelukkig nu ongeveer 2080ti prestaties. :X
En de Gigabyte Vega 56 (waar iedereen problemen mee had) doet het al bijna 3 jaar super met undervolt en hbm overclock :+

[ Voor 28% gewijzigd door HugoBoss1985 op 29-10-2020 11:57 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 11:53:
[...]


Wat ik gelezen had over de 6800 kaarten ging over unlocken, niet over power limits.
Kan het zo snel niet terug vinden.
Kan me daar niets bij voorstellen dat gaat al jaren niet meer. Af en toe is er een uitzondering zoals de 6950 en sommige Fury kaarten maar het werkte lang niet altijd.
Meestal worden laser cuts gebruikt om er voor te zorgen dat ze ook echt niet meer aan kunnen.

Vind het ook niet bij het nieuwe AMD passen om dit soort dingen dan kado te geven. Daarnaast riskeer je issues bij kaarten waar de CU's echt niet werken en die krijg je dan weer RMA gestuurd.
AMD is meer "volwassen" aan het worden en daar horen dat soort dingen niet bij.

Maar zou een leuke verassing zijn als het wel kan.

[ Voor 60% gewijzigd door Astennu op 29-10-2020 11:59 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Astennu schreef op donderdag 29 oktober 2020 @ 11:57:
[...]


Kan me daar niets bij voorstellen dat gaat al jaren niet meer. Af en toe is er een uitzondering zoals de 6950 en sommige Fury kaarten maar het werkte lang niet altijd.
Meestal worden laser cuts gebruikt om er voor te zorgen dat ze ook echt niet meer aan kunnen.

Vind het ook niet bij het nieuwe AMD passen om dit soort dingen dan kado te geven. Daarnaast riskeer je issues bij kaarten waar de CU's echt niet werken en die krijg je dan weer RMA gestuurd.
AMD is meer "volwassen" aan het worden en daar horen dat soort dingen niet bij.

Maar zou een leuke verassing zijn als het wel kan.
Het was de Asus Strix versie, met de (toen voor mij onbekend) bekende fout met de afstandsbusjes...
Kaart werd warm, maakte herrie maar ik had ook een hele boel software issues.

Met de early R9 290 kaarten lukte het ook nog wel eens (naar R9 290X).
Ik denk dat je gelijk hebt en dat dit gewoon een willekeurige post was van een dromer ergens op een forum :P

Zo zie je maar dat hardware verschillend is en anders kan reageren in verschillende systemen.

Ik moet wel toegeven dat ik aan het begin wat blackscreen issues met deze kaart heb gehad.
Toen een nieuwe voeding gekocht en een bios update van de Gigabyte website gedaan en nooit meer wat raars gehad.
Ik weet niet welke van de 2 zaken de oplossing gaf.
2 jaar geleden vond ik het best wel bijzonder dat Gigabyte best een groot aantal bios updates voor de kaart uit bracht.
En het feit dat men überhaupt de kaart liet flashen door consumenten.
Mijn vorige ervaring was met een Asus R9 290 flashen (met een bios van de Asus website), maar dat ging -voor zo ver ik me herinner- iets ingewikkelder.

Ik ben benieuwd of 6700 / 6800 kaarten unlocken een ding wordt, zou wel grappig zijn.

[ Voor 35% gewijzigd door HugoBoss1985 op 29-10-2020 12:08 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
En offtopic maar de 5700 XT was voor mij (een jaar geleden) een ramp, die ging dezelfde dag retour.
Niet normaal hoeveel problemen ik daar toen mee had.
Voor dat geld koop ik gelukkig nu ongeveer 2080ti prestaties. :X
En de Gigabyte Vega 56 (waar iedereen problemen mee had) doet het al bijna 3 jaar super met undervolt en hbm overclock
Ah apart ik heb de 5700 XT vanaf dag een en nooit grote issues gehad. Alleen wattman deed in het begin een beetje raar. Games werkte top stuk sneller dan mijn Vega 64 en ook wat sneller dan de Radeon VII.

Die GA V56 heb ik ook veel issues mee gehad. twee van die dingen toen gekocht maar idd niet lekker stabiel heb ze weer weg gedaan reference kaart er weer in.
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 11:59:
[...]


Met de early R9 290 kaarten lukte het ook nog wel eens (naar R9 290X).
Ik denk dat je gelijk hebt en dat dit gewoon een willekeurige post was van een dromer ergens op een forum :P
Dat klopt ja die zijn er idd ook geweest was ik even vergeten. Daar heb ik er nog wel een van gehad. Maar die was wel een beetje twijfelachtig qua stability.
En dat wil je niet want dat soort brichten over artifacts en crashes wil je nu juist niet na de RDNA1 driver issues.

En sowieso niet want die kaarten komen dan terug. + als mensen zelf gaan flashen worden daar ook fouten gemaakt ook weer kans op RMA is gewoon geen goed buisness model. Leuk voor ons tweakers maar als bedrijf niet wenselijk.

[ Voor 12% gewijzigd door Astennu op 29-10-2020 12:01 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

m.lammers schreef op donderdag 29 oktober 2020 @ 11:37:
De kaarten zijn net iets groter dan twee slots. Hadden ze nou er niet iets op kunnen verzinnen dat die precies twee slots was. Wel een gemiste kans. De 3080 lukt het ook. Al is die wat langer.

Maargoed. Ik zal wel voor een 6800XT gaan verwacht ik zo. (even de reviews en prijzen afwachten) :)
En een pluspunt ;normale connectors en minder stroom verbruik.
De RX6800 is dual slot. ;)
Maar je gaat in principe niet voor het referentieontwerp omdat de partnermodellen beter zullen zijn. AMD claimt 37dBA zonder afstand, omstandigheden of achtergrondgeluid te specificeren. Het zal wel ergens rond het niveau van hoorbaar, maar niet "straaljager" zijn. Waarschijnlijk zal het wel redelijk gekoeld zijn, maar het zal beter kunnen. Dus je koopt een partnermodel dat stiller en beter koelt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Volgens mij waren hier gister wel wat posts van Tweakers die dachten dat een 6800 en 6800XT wel makkelijk naar een 6900XT te flashen zouden zijn omdat TSMC een relatief laag defect ratio zou hebben, waardoor er mogelijk 'goede' chips in de 6800 en 800XT gebruikt gaan worden om aan de vraag te voldoen.

Ik zou dat echter met een flinke korrel zout nemen, voor zover ik weet maken de diverse chip fabrikanten (AMD, Intel en Nvidia in dit geval) dit al jaren niet meer mogelijk doordat ze daadwerkelijk hardwarematige beperkingen aanbrengen in cutdown chips.

Ik verwacht dat de tijd dat je cpu's of gpu's kan "unlocken" door een potloodstreepje, wat nagellak, een plakbandje of een biosflash toch wel redelijk verleden tijd is.

Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 00:10
Ik ben zelf niet echt bekend met de partners van AMD. Waar je bij Nvidia vooral kiest voor Asus, Gigabyte of MSI, naar welke fabrikanten kan je bij het AMD het beste kijken? Ik lees op het internet verschillende meningen.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
RobinNL schreef op donderdag 29 oktober 2020 @ 13:07:
Ik ben zelf niet echt bekend met de partners van AMD. Waar je bij Nvidia vooral kiest voor Asus, Gigabyte of MSI, naar welke fabrikanten kan je bij het AMD het beste kijken? Ik lees op het internet verschillende meningen.
Dat wisselt iedere GPU reeks en daar valt echt geen patroon in te herkennen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dennism schreef op donderdag 29 oktober 2020 @ 13:05:
Volgens mij waren hier gister wel wat posts van Tweakers die dachten dat een 6800 en 6800XT wel makkelijk naar een 6900XT te flashen zouden zijn omdat TSMC een relatief laag defect ratio zou hebben, waardoor er mogelijk 'goede' chips in de 6800 en 800XT gebruikt gaan worden om aan de vraag te voldoen.

Ik zou dat echter met een flinke korrel zout nemen, voor zover ik weet maken de diverse chip fabrikanten (AMD, Intel en Nvidia in dit geval) dit al jaren niet meer mogelijk doordat ze daadwerkelijk hardwarematige beperkingen aanbrengen in cutdown chips.

Ik verwacht dat de tijd dat je cpu's of gpu's kan "unlocken" door een potloodstreepje, wat nagellak, een plakbandje of een biosflash toch wel redelijk verleden tijd is.
Ja want als dat zo is snap ik niet waarom de 6800 maar 60 van de 80 CU's heeft. Als er zo weinig chips met defecten zijn hadden ze die makkelijk meer CU's kunnen geven of nog beter niet uit kunnen brengen.
En alleen de 6800 XT uitbrengen en meer kaarten van 650 euro verkopen. Die raak je momenteel toch allemaal wel kwijt.
Ik verwacht dat de tijd dat je cpu's of gpu's kan "unlocken" door een potloodstreepje, wat nagellak, een plakbandje of een biosflash toch wel redelijk verleden tijd is.
Haha ja de goede oude tijd met de premitieve laser cuts die wel te omzeilen waren ^^

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
RobinNL schreef op donderdag 29 oktober 2020 @ 13:07:
Ik ben zelf niet echt bekend met de partners van AMD. Waar je bij Nvidia vooral kiest voor Asus, Gigabyte of MSI, naar welke fabrikanten kan je bij het AMD het beste kijken? Ik lees op het internet verschillende meningen.
1: Sapphire
2: MSI (al is dat ook wel eens hit en mis maar voor de Top modellen niet lagere wel)
3: Power Color (Hadden met de Red Devil een top kaart in de 5700 serie) Hogere modellen zijn daar ook wel goed. Midrange is ook een beetje wel niet maar dat geld voor wel meer merken)
4: Gigabyte
5: Asus (ik vind de asus kaarten altijd erg ondermaats en duur. De 5700 TUF was echt een rampen ding veel te hoge temps)

Zelf ga ik het meeste voor AMD Reference vind die kaarten gewoon mooi en ben ook wel fan van blower fans. Zijn deze Gen er niet meer maar met 300 watt ook wel begrijpelijk dan is tripple axial een betere keuze.
Paprika schreef op donderdag 29 oktober 2020 @ 13:08:
[...]

Dat wisselt iedere GPU reeks en daar valt echt geen patroon in te herkennen.
Ja klopt het wisselt. Maar Sapphire is toch wel het meest konstant qua goede kaarten maken.

[ Voor 13% gewijzigd door Astennu op 29-10-2020 13:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Astennu schreef op donderdag 29 oktober 2020 @ 13:09:


Haha ja de goede oude tijd met de premitieve laser cuts die wel te omzeilen waren ^^
Ik denk dat mijn eerste Tweak m.b.t. hardware modificatie het afplakken van pin B21 was op mijn Pentium II cpu, zodat je 100Mhz FSB kreeg ipv 66, was toch een leuke overclock.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Ik lees altijd goed reviews maar ik kijk dus ook voornamelijk naar de garantietermijn.

Als je bij de ene 2 jaar en bij de andere 4 jaar garantie krijgt dan scheelt dat nogal wat ;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Astennu schreef op donderdag 29 oktober 2020 @ 13:13:
[...]

Zelf ga ik het meeste voor AMD Reference vind die kaarten gewoon mooi en ben ook wel fan van blower fans.
Jij zult altijd een reference kopen. Laten we realistisch zijn :p.

Acties:
  • 0 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

Richo999 schreef op donderdag 29 oktober 2020 @ 07:02:
[...]


Nu alleen de vraag, welk model kaart gaan ze dat blok voor ontwerpen, wil wss de 6800XT in mijn custom loop gaan gooien O+
Waar ze voordat de Nvidia-kaarten daadwerkelijk geleverd werden weinig/niks konden door gebrek aan kaarten/mallen/designs, hebben ze ondertussen voor de reference, FE, Asus, Zotac, EVGA, MSI en Gigabyte al blokken in de shop of in de planning. Aangezien ze nu al adverteren voor blokken ga ik ervan uit dat ze bij launch sowieso voor de reference-kaarten blokken zullen hebben maar ik gok dat ook de AIBs voorzien zullen worden gezien de ongelofelijke populariteit (qua aankoop-pogingen in ieder geval :P) van deze twee nieuwe series.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op donderdag 29 oktober 2020 @ 13:23:
[...]

Jij zult altijd een reference kopen. Laten we realistisch zijn :p.
Haha not alway's heb ook wel andere modellen gehad zoals de Gaming X, Pulse en Nitro. Owh ja en de Tri-X modellen. Dus niet alleen maar maar wel veel.

Bij nVidia de laatste paar keer wel alleen Reference 980, 980 Ti en 1080 Ti waren allemaal de FE Blowers. Waren mooie kaarten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op donderdag 29 oktober 2020 @ 13:15:
[...]


Ik denk dat mijn eerste Tweak m.b.t. hardware modificatie het afplakken van pin B21 was op mijn Pentium II cpu, zodat je 100Mhz FSB kreeg ipv 66, was toch een leuke overclock.
offtopic:
Pfft, wat modern, plakband of potloodstreepjes. Ik zal een jaar of 9 geweest zijn toen ik op het moederbord van m'n oude PC (486 DX4; we hadden toen net een P1 133 :D) wat DIP switches tegen kwam. Daar stond iets bij van "clock speed". Needless to say, kleine Werelds schakelde die uiteraard naar de maximale 120 of 133 MHz (ik weet echt niet meer hoe veel het was :')) want:

Afbeeldingslocatie: https://842358.smushcdn.com/1757108/wp-content/uploads/2019/07/Speed.gif?lossy=1&strip=1&webp=1

Speeeeeeeeeeeeeed!

Een tijd later rook het wel een beetje vreemd in m'n kamer :+

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 09:26:
Als je nu deze nieuwe technieken van AMD in de cpu en het mobo wilt i.cm. een 6000 series dan moet je dus een redelijk "oud" x570 bord kopen, met een cpu die nog moet uitkomen en "oud" ddr4.

Het is dan zeg maar het eerste setje voor al deze nieuwe technieken en de laatste op socket am4?
De volgende keer (in de toekomst) ben je weer aan een nieuwe upgrade set gebonden.

Toch jammer (wel slim van AMD... begrijp me niet verkeerd ik ben echt fan van AMD op het moment!) dat de volgende AMD cpu's naar ddr5 gaan en je dus weer een hele nieuwe set van mobo + cpu + ram moet kopen.

Ik ga enkel kijken naar een nieuwe videokaart en wacht nog tot de ddr5 periode voor een eventueel upgrade setje.
Ja, hier baal ik ook wel een beetje van. Liever stap je in op AM5 en DDR5, maar goed hoe vaak upgrade je je CPU? Je hebt in ieder geval PCIe 4.0 voor de toekomst, en X570 mobo's hebben goede VRM's.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

Arrigi schreef op donderdag 29 oktober 2020 @ 09:14:
[...]


In dat opzicht kan ik me hooguit inbeelden dat Nvidia zou uitzoeken in welk specifiek stukje van de RT cycle AMD een relatieve extra bottleneck heeft tov Nvidia, om die dan te benadelen. Met het oog op games die op consoles lekker moeten draaien wens ik Nvidia daar echter succes mee.
Precies, dus dat heeft AMD hopelijk slim aangepakt. Ik weet natuurlijk niet hoe het gegaan is maar ik kan me herinneren (dat kan ik mis hebben) dat Crysis altijd opstartte met "Best played on Nvidia". Als er sponsoring daar vandaan komt is het natuurlijk makkelijk voor Nvidia om te zeggen van "wij hebben feature X die op AMD een veel heftiger performance hit neemt, dus ga er los mee zodat het bij ons nog net goed genoeg draait". Feature X was in dit geval dus Tesselation. Hopelijk is AMD ze inderdaad voor door de console-markt vast te pakken zodat dit soort fratsen niet zomaar meer gaan gebeuren.

Acties:
  • 0 Henk 'm!

  • jbbrans
  • Registratie: Augustus 2000
  • Laatst online: 20-09 13:31

jbbrans

 

Weet iemand of de RX 6900 xt ook in een versie komt met 3 display poorten + 1 hdmi? Dit i.v.m. een tripple screen setup + 1 extra scherm.

Ik heb tot nu toe alleen een versie gezien met 2 displayports, 1 hdmi en 1 usb-c.

[ Voor 23% gewijzigd door jbbrans op 29-10-2020 13:35 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Werelds schreef op donderdag 29 oktober 2020 @ 13:29:
[...]

offtopic:
Pfft, wat modern, plakband of potloodstreepjes. Ik zal een jaar of 9 geweest zijn toen ik op het moederbord van m'n oude PC (486 DX4; we hadden toen net een P1 133 :D) wat DIP switches tegen kwam. Daar stond iets bij van "clock speed". Needless to say, kleine Werelds schakelde die uiteraard naar de maximale 120 of 133 MHz (ik weet echt niet meer hoe veel het was :')) want:

[Afbeelding]

Speeeeeeeeeeeeeed!

Een tijd later rook het wel een beetje vreemd in m'n kamer :+
offtopic:
Haha ja, jumpers en / of dipswitches afhankelijk van welke fabrikant, moet wel zeggen dat ik dat niet onder hardware modificatie schaarde, dit soort zaken deed ik inderdaad ver daarvoor al.

Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
sunsmountain schreef op donderdag 29 oktober 2020 @ 13:32:
[...]

Ja, hier baal ik ook wel een beetje van. Liever stap je in op AM5 en DDR5, maar goed hoe vaak upgrade je je CPU? Je hebt in ieder geval PCIe 4.0 voor de toekomst, en X570 mobo's hebben goede VRM's.
Verschilt per persoon. Ik vooral als er winst was
Ben van 920 -> 2600K -> 3770K -> 4770K -> 8600K -> 3600/3800X gegaan en de 5000 serie is wel weer een grotere upgrade.
Zeker als je het op hetzelfde bord kan inprikken ben ik er wel van om de CPU een upgrade te geven. Of geen nieuw geheugen nodig hebt.

Sommige upgraden nooit kopen alles meteen nieuw. Maar Hardware is voor mij ook wel een hobby (het tweaken er van) dus dan koop je natuurlijk wat vaker iets nieuws.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
sunsmountain schreef op donderdag 29 oktober 2020 @ 13:32:
[...]

Ja, hier baal ik ook wel een beetje van. Liever stap je in op AM5 en DDR5, maar goed hoe vaak upgrade je je CPU? Je hebt in ieder geval PCIe 4.0 voor de toekomst, en X570 mobo's hebben goede VRM's.
Dat kan toch nog steeds prima, deze kaarten zullen prima werken met Zen 2 en stap je dan later in op AM5 (of welke naam ze ook kiezen) dan pak je nog een bonusje mee. Of je bouwt nu een systeem met Zen 3 / B/X 500 series chipset en een Radeon 6000 serie kaart en je bent ook gewoon 'klaar' voor 3 tot 5 jaar ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
jbbrans schreef op donderdag 29 oktober 2020 @ 13:33:
Weet iemand of de RX 6900 xt ook in een versie komt met 3 display poorten + 1 hdmi? Dit i.v.m. een tripple screen setup + 1 extra scherm.

Ik heb tot nu toe alleen een versie gezien met 2 displayports, 1 hdmi en 1 usb-c.
Daar kan je toch gewoon een splitter voor gebruiken? je hebt van die poorten waar een kabel in kan dat je weer naar 3 aansluitingen kan geloof ik?
Of USB-C naar DP convertor gebruiken.

Maar er zullen vast AIB kaarten komen met een andere layout.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Richo999
  • Registratie: November 2016
  • Laatst online: 19-09 11:55
DataGhost schreef op donderdag 29 oktober 2020 @ 13:25:
[...]

Waar ze voordat de Nvidia-kaarten daadwerkelijk geleverd werden weinig/niks konden door gebrek aan kaarten/mallen/designs, hebben ze ondertussen voor de reference, FE, Asus, Zotac, EVGA, MSI en Gigabyte al blokken in de shop of in de planning. Aangezien ze nu al adverteren voor blokken ga ik ervan uit dat ze bij launch sowieso voor de reference-kaarten blokken zullen hebben maar ik gok dat ook de AIBs voorzien zullen worden gezien de ongelofelijke populariteit (qua aankoop-pogingen in ieder geval :P) van deze twee nieuwe series.
Heb nu powercolor Vega 64 Liquid en bevalt erg goed, dus mijn keuze van kaart zal afhangen van de blokken die EKWB heeft, moet toch nog een reserve D5 bestellen dit jaar (mijn huidige is nu 3 jaar oud) en ben nog aan het kijken voor een crossflow rad 8)

AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
HugoBoss1985 schreef op donderdag 29 oktober 2020 @ 10:03:
[...]


Thanks!
Ja, dat was dus eigenlijk ook mijn insteek vóór het hele grafische kaarten release geweld :P
Ik had ook al in het achterhoofd "maar ik heb al 8gb vram sinds 2 videokaart upgrades".

Maar jij koopt een kaart voor 5 jaar?!
Meestal was dat voor mij 2-3 jaar en in een ver verleden soms per jaar :P.

Nu is de hoeveelheid games die ik speel gereduceerd, ik denk dat Hunt:Showdown prima te doen is met 8gb vram op hogere resoluties.
Ik heb de 5850 7 jaar gehad en toen de R9 290 (2e hands) 3 jaar. Werkt prima als je de nieuwste games een beetje tweakt qua instellingen. En de afgelopen 10 jaar dezelfde CPU (Core i5 750) een van de eerste quad cores. Maar ik ben wel een echte leapfrogger.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op donderdag 29 oktober 2020 @ 13:33:
[...]


offtopic:
Haha ja, jumpers en / of dipswitches afhankelijk van welke fabrikant, moet wel zeggen dat ik dat niet onder hardware modificatie schaarde, dit soort zaken deed ik inderdaad ver daarvoor al.
offtopic:
Ah zo :P

Dat zal voor mij pas veel later geweest zijn, want die P1 heb ik bijzonder lang gebruikt (<3 3DFX :() en ik kan me niet herinneren dat daar iets aan te modden viel qua hardware. Van dat ding rechtstreeks naar een P3 (Coppermine) gegaan. P2 heb ik helemaal overgeslagen; Pa had wel er wel een (via zo'n PC Privé project die je toen had), maar daar mochten wij niet aan :+

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
ZenTex schreef op donderdag 29 oktober 2020 @ 10:21:
[...]


Ik zit nog te wachten op Hitler uit der untergang meme, met Jensen als Hitler.
YouTube: Hitler reacts to the Radeon RX 6000 series

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 21-09 00:46

Phntm

Tlingelingeling

sunsmountain schreef op donderdag 29 oktober 2020 @ 13:42:
[...]


En de afgelopen 10 jaar dezelfde CPU (Core i5 750) een van de eerste quad cores. Maar ik ben wel een echte leapfrogger.
Core 2 quad niet meegemaakt? :P Q6600 was een toppertje.

Ik ben extreem benieuwd of AMD er voor zal kiezen/zorgen om S.A.M. beschikbaar te stellen voor Ryzen 3xxx chips. Ik vind het doodzonde om nu al mijn 3600 te vervangen. 8)7

Acties:
  • 0 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

Verwijderd schreef op donderdag 29 oktober 2020 @ 10:37:
In de specificaties staan ook power supply recommendations:

- 6900XT - 850W
- 6800XT - 750W
- 6800 - 650W

Die 300W van de hoogste twee verdient dan wel een korreltje zout eventueel?
/me had gehoopt nog wel uit te kunnen met een 550W voeding...
Ik gok persoonlijk dat de 6800XT juist iets minder gebruikt dan 300W. Lijkt me niet heel handig om te gaan liegen in je presentaties :p
Anyway, er zijn nog steeds ontzettend veel hobbybouwers en commerciele systeembouwers die bezuinigen op een voeding, aangezien die niet direct voor meer FPS zorgt en ook door kopers niet als belangrijk wordt beschouwd. Als je de keuze hebt uit twee systemen voor dezelfde prijs ben je als onwetende consument eerder geneigd de machine met de beter CPU/GPU te pakken dan die met een fatsoenlijke voeding. Door de prijsstelling en het performanceverschil ten opzichte van de 6800XT zal de 6900XT vaker in higher-end systemen gebruikt worden met dus ook een higher-end CPU, meer geheugen en ga zo maar door. Dan is het handig om een zwaardere voeding aan te raden dus.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Phntm schreef op donderdag 29 oktober 2020 @ 13:54:
[...]


Core 2 quad niet meegemaakt? :P Q6600 was een toppertje.

Ik ben extreem benieuwd of AMD er voor zal kiezen/zorgen om S.A.M. beschikbaar te stellen voor Ryzen 3xxx chips. Ik vind het doodzonde om nu al mijn 3600 te vervangen. 8)7
Ribbit! *springt* (wel van gehoord, maar zat nog prima op m'n Core 2 Duo uit 2003 :P)
Ik denk wel dat ze SAM met een firmware / BIOS update zullen verspreiden, als dat kan. Ten minste voor Zen2 en 400 chipsets.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 16-09 11:43
sunsmountain schreef op donderdag 29 oktober 2020 @ 13:42:
[...]


Ik heb de 5850 7 jaar gehad en toen de R9 290 (2e hands) 3 jaar. Werkt prima als je de nieuwste games een beetje tweakt qua instellingen. En de afgelopen 10 jaar dezelfde CPU (Core i5 750) een van de eerste quad cores. Maar ik ben wel een echte leapfrogger.
Zo vroeg was die 750 niet, quadcores waren toen al 3 jaar beschikbaar voor consumenten. Daarvoor had je ook al wel midrange quadcores, dus zo exotisch was die cpu niet als je het mij vraagt. Zit zelf nog niet lang in de desktop cpu's, had eerst een x64 pentium 4, toen i5 3470, toen 3770k en fx9370, daarna begon bf1 wat dipjes te vertonen en ben ik geupgrade naar r51600. r53600 was gewoon een goeie deal en verbeterde aardig wat voor single thread games, dus dat was de laatste upgrade.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW

Pagina: 1 ... 33 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.