waarschijnlijk met een Nies als nog gelijk uit verkocht.westergas schreef op maandag 7 december 2020 @ 15:18:
[...]
Ik verwachtte te worden ge-Rick rolled dus dit viel erg mee
Oh en blijkbaar is de site van AMD eruit geklapt, want natuurlijk.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Volgens jayz2cents is de 6900xt softwarematig vast gezet op 250w. Dat vind ik toch een vreemde keuze. Ik dacht dat men had geadverteerd met 300watt?DaniëlWW2 schreef op dinsdag 8 december 2020 @ 15:47:
Nou de RX6900XT is er. Komt erop neer dat deze wat sneller is dan de RX6800XT en veel te duur voor dat beetje extra.
[YouTube: Radeon RX 6900 XT Review, AMD's Fight For the Top]
Oh en blijkbaar is de site van AMD eruit geklapt, want natuurlijk.
Wie goed doet, die goed ontmoet.
250W GPU limiet neem ik aan? Er zit namelijk nog meer op een videokaart om 300W Total Board Power te bereiken.AtlAntA schreef op dinsdag 8 december 2020 @ 15:58:
[...]
Volgens jayz2cents is de 6900xt softwarematig vast gezet op 250w. Dat vind ik toch een vreemde keuze. Ik dacht dat men had geadverteerd met 300watt?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het lijkt op lagere resoluties wel beter te schalen, zou het dan komen door een te kleine geheugenbus? Krijg een beetje een tegenovergesteld gevoel ten opzichte van Nvidia. Daar doen de kaarten het juist beter op hogere resoluties en kan de kaart beter benut worden (beetje Vega idee) terwijl deze kaart juist afvlakt door de geheugenbus/geheugensnelheid die naar mijn inziens op de 6800 XT ook al vrij kritisch was.DaniëlWW2 schreef op dinsdag 8 december 2020 @ 15:47:
Nou de RX6900XT is er. Komt erop neer dat deze wat sneller is dan de RX6800XT en veel te duur voor dat beetje extra.
Zou mij ook niets verbazen dat AMD met de volgende generatie hiermee aan de slag gaat (met de volgende grote chip).
Ik denk dat hij TBP bedoelt maar ik heb ook net het gamersnexus power consumption stukje gekeken en daar meten ze echt de TBP en daar komt hij wel op 300w+.DaniëlWW2 schreef op dinsdag 8 december 2020 @ 16:03:
[...]
250W GPU limiet neem ik aan? Er zit namelijk nog meer op een videokaart om 300W Total Board Power te bereiken.
Context:
YouTube: AMD 6900XT... This isn't AMD's greatest moment...
YouTube: AMD Radeon RX 6900 XT GPU Review & Benchmarks: Undervolting, Gaming,...
Wie goed doet, die goed ontmoet.
Helaas heb ik gewonnen. De 3090 blijft volgens TPU de koning, maar het is wel een echt concurrerende chip.qua performance uiteindelijk winnen wij hier allebei meesunsmountain schreef op maandag 26 oktober 2020 @ 13:12:
[...]
Eindhoven is een beetje ver voor mij uit Haarlem, voor een magnumfles.
Hou je van Grolsch Herfstbok? Eentje via G&G online is €13,94 inclusief verzenden https://www.gall.nl/grolsch-herfstbok-geen-150cl-901636.html .
Voor jou als de RTX3090 de TPU gemiddelde 4k performance kroon houdt;
voor mij als de Navi21 XTX (naamgeving van de kaart kan variëren, maar de chip is duidelijk) de top plek pakt.
Deal?
Of we doen gewoon €10,- cadeaukaart https://www.gall.nl/cadeaukaart-986577.html , dan maak je er een Big Chouffe van beetje bijbetalen: https://www.gall.nl/big-chouffe-geen-150cl-992534.html
En ik drink niet/nauwelijks dus de fles bier mag je zelf van gaan genieten
https://www.techpowerup.c...radeon-rx-6900-xt/35.html
[ Voor 3% gewijzigd door eL_Jay op 08-12-2020 16:10 ]
Helaas de 6900XT web pagina was om 15.00 offline en pas na 20min kwamen ze op de order pagina naar voren.
Ruim een uur geprobeerd iets te bestellen, maar pindakaas....
Enige wat consequente aan het verhaal was de 503 melding
Gezien de inmiddels beschikbare reviews wacht ik nog wel even af
Het lijkt niet de winst te zijn die ik gehoopt had.
to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Hij spreekt dus weer eens in Nvidia terminologie zonder zich te beseffen dat dit helemaal niet opgaat.AtlAntA schreef op dinsdag 8 december 2020 @ 16:06:
[...]
Ik denk dat hij TBP bedoelt maar ik heb ook net het gamersnexus power consumption stukje gekeken en daar meten ze echt de TBP en daar komt hij wel op 300w+.
Context:
YouTube: AMD 6900XT... This isn't AMD's greatest moment...
YouTube: AMD Radeon RX 6900 XT GPU Review & Benchmarks: Undervolting, Gaming,...
Het heeft niks met de geheugenbus te maken, maar alles met de organisatie van de basale rekeneenheden, ALU's in beide architecturen. Dat is hier echt heel vaak voorbij gekomen de laatste maanden. Oh en de RTX3090 heeft er dus meer dan twee keer zoveel dan de RX6900XT en dan heb ik het nog niet eens over de tensor cores.Yamotek schreef op dinsdag 8 december 2020 @ 16:03:
[...]
Het lijkt op lagere resoluties wel beter te schalen, zou het dan komen door een te kleine geheugenbus? Krijg een beetje een tegenovergesteld gevoel ten opzichte van Nvidia. Daar doen de kaarten het juist beter op hogere resoluties en kan de kaart beter benut worden (beetje Vega idee) terwijl deze kaart juist afvlakt door de geheugenbus/geheugensnelheid die naar mijn inziens op de 6800 XT ook al vrij kritisch was.
Zou mij ook niets verbazen dat AMD met de volgende generatie hiermee aan de slag gaat (met de volgende grote chip).
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat begrijp ik, het enige wat ik nog niet helemaal duidelijk heb is of bij AMD de rekeneenheden de bottleneck zijn of dat het de geheugenbus is. Vooral omdat deze kaart op lagere resoluties beter schaalt dan op hogere ten opzichte van de 6800 XT. Dus dat er bij AMD een afweging is gemaakt en dat ze dus niet het optimale hebben gekozen voor de geheugenbus om de chip wat kleiner te houden (energieverbruik lager etc.).DaniëlWW2 schreef op dinsdag 8 december 2020 @ 16:13:
[...]
Het heeft niks met de geheugenbus te maken, maar alles met de organisatie van de basale rekeneenheden, ALU's in beide architecturen. Dat is hier echt heel vaak voorbij gekomen de laatste maanden. Oh en de RTX3090 heeft er dus meer dan twee keer zoveel dan de RX6900XT en dan heb ik het nog niet eens over de tensor cores.
Hierbij heb ik het ook alleen over de 4k resolutie, bij 1440p lijkt hier nog geen sprake van te zijn.
Helaas is dit lastig te testen omdat de geheugenchips niet echt goed overklokken en fouten gaan geven bij hogere snelheden.
Edit: Kortom, wat ik bedoel is of er dus echt helemaal geen bandbreedte probleem is met geheugen op de 4k resolutie, of dat het bij sommige spellen wel het geval is waardoor het verschil 6900XT-6800XT niet groot is.
[ Voor 9% gewijzigd door Yamotek op 08-12-2020 16:34 ]
Met maar 6% verschil (4k), 2% (1440p) en -2% (1080p), denk ik inderdaad dat wij als gamers allebei winnen. Want qua prijs en performance / Watt is 6900XT wel beter dan de RTX 3090, dus dat zet nVidia mooi onder druk.eL_Jay schreef op dinsdag 8 december 2020 @ 16:10:
[...]
Helaas heb ik gewonnen. De 3090 blijft volgens TPU de koning, maar het is wel een echt concurrerende chip.qua performance uiteindelijk winnen wij hier allebei mee
En ik drink niet/nauwelijks dus de fles bier mag je zelf van gaan genieten
https://www.techpowerup.c...radeon-rx-6900-xt/35.html
Voor de weddenschap zelf had je hem toen moeten bevestigen
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Hier kan ik je dus niet echt een antwoord op geven. Maar ik vermoed dat Navi 21 eerder tegen een scheduling limiet aanloopt en moeite heeft om die laatste ALU's ook aan het werk te zetten en houden. Dat is ook normaal voor de grotere chips. Het is denk ik niet echt tegen een gebrek aan ALU's of geheugenbandbreedte. Immers is de prestatieverbetering op een per CU basis al niet meer lineair tussen de RX6800 en RX6800XT. Daar heeft de XT ook nog eens een merkbaar voordeel in clock speed en een extra Shader Engine. Wederom is het ook tussen de RX6800XT en RX6900XT niet lineair en daar heeft de RX6900XT het voordeel van hoge kwaliteit chips die ook wat beter zouden moeten clocken. Clock speed scalingmet overclocking lijkt ook verre van ideaal te zijn waardoor ik denk dat de referentie clock RX6800XT echt wel tegen de limiet zit van wat de scheduler in Navi 21 goed aan kan. Dat maakt de RX6900XT eigenlijk nog een beetje extra overbodig. De RX6800 is vooral erg efficiënt, iets dat AMD echt bizar slecht weet te communiceren.Yamotek schreef op dinsdag 8 december 2020 @ 16:32:
[...]
Dat begrijp ik, het enige wat ik nog niet helemaal duidelijk heb is of bij AMD de rekeneenheden de bottleneck zijn of dat het de geheugenbus is. Vooral omdat deze kaart op lagere resoluties beter schaalt dan op hogere ten opzichte van de 6800 XT. Dus dat er bij AMD een afweging is gemaakt en dat ze dus niet het optimale hebben gekozen voor de geheugenbus om de chip wat kleiner te houden (energieverbruik lager etc.).
Hierbij heb ik het ook alleen over de 4k resolutie, bij 1440p lijkt hier nog geen sprake van te zijn.
Helaas is dit lastig te testen omdat de geheugenchips niet echt goed overklokken en fouten gaan geven bij hogere snelheden.
Edit: Kortom, wat ik bedoel is of er dus echt helemaal geen bandbreedte probleem is met geheugen op de 4k resolutie, of dat het bij sommige spellen wel het geval is waardoor het verschil 6900XT-6800XT niet groot is.
Het is bij lange na niet meer Fury vs. Fury X of RX Vega 56 vs. 64, maar het is ook niet RX5700 vs. RX5700XT wat bijna perfect was. Niet dat ik denk dat de RX5700XT vaak echt al haar 2560 ALU's in gebruik zal hebben, maar occupency zal waarschijnlijk lager liggen bij Navi 21, zeker de XT SKU's. GA102 is dan echt een flinke stap slechter in occupency. Dat kan niet anders met zoveel extra ALU's voor relatief zo weinig extra op zelfs 4K.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://videocardz.com/ne...gs-are-being-discontinuedRX 6900 XT MBA is already at the end of its life even though it has not yet been launched. Just like the RX 6800 MBA and the RX 6800 XT MBA, production has been one shot for this card. A brand told us that they only have about forty cards for France, not one more […] those who manage to have an RX 6900 XT MBA will have a real collector [item] in their hands.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Jaysz2Cents heeft het veel vaker fout. Voor technieuws en indept analyses moet je niet bij hem zijn. Hij doet wat leuk spul in OCen en benchmarken maar verder niet. Ik plaats hem onder Linus (en team) als het gaat om tech waar de twee Steves daar beiden dik boven zitten.AtlAntA schreef op dinsdag 8 december 2020 @ 15:58:
[...]
Volgens jayz2cents is de 6900xt softwarematig vast gezet op 250w. Dat vind ik toch een vreemde keuze. Ik dacht dat men had geadverteerd met 300watt?
De 6900XT scored soms iets hoger dan de verwachte x% dacht ik. Wat ik denk is dat juist AMD de chips nu goed gebalanceerd heeft en dat Nvidia met die extra vaak ongebruikte CUDA cores (cringe) een chip hebben die minder in balans is en gewoon beter presteerd op 4k omdat die cores dan wel iets doen?DaniëlWW2 schreef op dinsdag 8 december 2020 @ 20:56:
[...]
Hier kan ik je dus niet echt een antwoord op geven. Maar ik vermoed dat Navi 21 eerder tegen een scheduling limiet aanloopt en moeite heeft om die laatste ALU's ook aan het werk te zetten en houden. Dat is ook normaal voor de grotere chips. Het is denk ik niet echt tegen een gebrek aan ALU's of geheugenbandbreedte. Immers is de prestatieverbetering op een per CU basis al niet meer lineair tussen de RX6800 en RX6800XT. Daar heeft de XT ook nog eens een merkbaar voordeel in clock speed en een extra Shader Engine. Wederom is het ook tussen de RX6800XT en RX6900XT niet lineair en daar heeft de RX6900XT het voordeel van hoge kwaliteit chips die ook wat beter zouden moeten clocken. Clock speed scalingmet overclocking lijkt ook verre van ideaal te zijn waardoor ik denk dat de referentie clock RX6800XT echt wel tegen de limiet zit van wat de scheduler in Navi 21 goed aan kan. Dat maakt de RX6900XT eigenlijk nog een beetje extra overbodig. De RX6800 is vooral erg efficiënt, iets dat AMD echt bizar slecht weet te communiceren.
Het is bij lange na niet meer Fury vs. Fury X of RX Vega 56 vs. 64, maar het is ook niet RX5700 vs. RX5700XT wat bijna perfect was. Niet dat ik denk dat de RX5700XT vaak echt al haar 2560 ALU's in gebruik zal hebben, maar occupency zal waarschijnlijk lager liggen bij Navi 21, zeker de XT SKU's. GA102 is dan echt een flinke stap slechter in occupency. Dat kan niet anders met zoveel extra ALU's voor relatief zo weinig extra op zelfs 4K.
Ik kijk naar de gemiddelden en daar zie ik dat het steeds wat terugloopt. Maar dat Navi 21 beter gebalanceerd lijkt te zijn dan GA102 ben ik het ook wel mee eens. Het punt van GA102 is juist dat op resoluties zoals 4K, het ratio FP vs. INT verschuift naar meer FP en dan kan GA102 een beetje marge opbouwen. Op 1440p en al helemaal op 1080p is het ratio meer naar INT en daar is Navi 21 echt beter.Sp3ci3s8472 schreef op woensdag 9 december 2020 @ 12:20:
[...]
De 6900XT scored soms iets hoger dan de verwachte x% dacht ik. Wat ik denk is dat juist AMD de chips nu goed gebalanceerd heeft en dat Nvidia met die extra vaak ongebruikte CUDA cores (cringe) een chip hebben die minder in balans is en gewoon beter presteerd op 4k omdat die cores dan wel iets doen?
Het is eigenlijk een voortzetting van het hele asynchronous compute verhaal met Maxwell vs. Fiji. Maxwell ondersteunde het op zich wel, maar GCN was er gewoon veel beter. Nvidia maakte een forse inhaalslag met Turing, maar AMD ging er weer overheen met RDNA. Ik vermoed ook dat er een moment gaat komen dat Navi 21 wel eens GA102 kan passeren op 4K. Ik weet alleen echt niet wanneer dat moment zal zijn. Het kan zomaar enkele jaren duren en dan is het waarschijnlijk niet erg relevant meer. Ja, ik vermoed dat Navi 21 enig "fine wine" potentieel heeft. Heeft niks met drivers te maken en alles met hardware organisatie. RDNA is vanuit het oogpunt van scheduling, gewoon veel simpeler opgezet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.

We've just officially extended the reference design builds indefinitely due to popular demand. Thanks for the feedback.
— Scott Herkelman (@sherkelman) 9 december 2020
[ Voor 8% gewijzigd door Xadeon op 09-12-2020 18:48 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21

Ja, dat is het eerste waar ik aan moest denken. Nu wachten we of dat ik gelijk krijg. Hoop echt van niet maar ik sluit het niet uit.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
AMD RDNA™ 2 Instruction Set Architecture reference guide is now available
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/MnChhPA1ZgwtSMYN6YphASnK.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/crJPES0fVVtGRq0WXKN5mXQS.jpg?f=user_large)
bron: https://gpuopen.com/rdna2...__twitter_impression=true
[ Voor 9% gewijzigd door Xadeon op 09-12-2020 18:54 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Die kwam eventjes later ja.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Het maakt mijn aanschafkeuze er in ieder geval niet makkelijker op. Ik game op 3440x1440 en dat zal de aankomende jaren ook wel zo blijven denk ik. En ik zit eigenlijk te wachten op de 3080ti maar de 6900xt lijkt in die prijsklasse ook erg aantrekkelijk. En als ik dan nu dat stukje van jou over de resolutie's lees dan kan de wind in mijn geval beide kanten op waaien lijkt het wel aangezien 3440x1440 tussen 4k en 1440p in ligt.DaniëlWW2 schreef op woensdag 9 december 2020 @ 16:46:
[...]
Ik kijk naar de gemiddelden en daar zie ik dat het steeds wat terugloopt. Maar dat Navi 21 beter gebalanceerd lijkt te zijn dan GA102 ben ik het ook wel mee eens. Het punt van GA102 is juist dat op resoluties zoals 4K, het ratio FP vs. INT verschuift naar meer FP en dan kan GA102 een beetje marge opbouwen. Op 1440p en al helemaal op 1080p is het ratio meer naar INT en daar is Navi 21 echt beter.
Het is eigenlijk een voortzetting van het hele asynchronous compute verhaal met Maxwell vs. Fiji. Maxwell ondersteunde het op zich wel, maar GCN was er gewoon veel beter. Nvidia maakte een forse inhaalslag met Turing, maar AMD ging er weer overheen met RDNA. Ik vermoed ook dat er een moment gaat komen dat Navi 21 wel eens GA102 kan passeren op 4K. Ik weet alleen echt niet wanneer dat moment zal zijn. Het kan zomaar enkele jaren duren en dan is het waarschijnlijk niet erg relevant meer. Ja, ik vermoed dat Navi 21 enig "fine wine" potentieel heeft. Heeft niks met drivers te maken en alles met hardware organisatie. RDNA is vanuit het oogpunt van scheduling, gewoon veel simpeler opgezet.
Wie goed doet, die goed ontmoet.
Die resolutie is het misschien nog niet eens. Immers als je het doorrekent naar pixels dan zit je alsnog veel dichter op 2650x1440p dan op 4K.AtlAntA schreef op woensdag 9 december 2020 @ 20:24:
[...]
Het maakt mijn aanschafkeuze er in ieder geval niet makkelijker op. Ik game op 3440x1440 en dat zal de aankomende jaren ook wel zo blijven denk ik. En ik zit eigenlijk te wachten op de 3080ti maar de 6900xt lijkt in die prijsklasse ook erg aantrekkelijk. En als ik dan nu dat stukje van jou over de resolutie's lees dan kan de wind in mijn geval beide kanten op waaien lijkt het wel aangezien 3440x1440 tussen 4k en 1440p in ligt.
2560x1440p = 3.686.400
3440x1440p = 4.953.600
3840x2160p = 8.294.400
Er speelt alleen nog wel meer. De RX6800XT zal waarschijnlijk betere frametimes (dus minder zware dips) hebben in de meeste games, maar Nvidia zal games hebben waar een RTX3080 wel wat uitloopt in de gemiddelden. Staat tegenover dat een RX6800XT over een gemiddelde van een aantal games, wel eens net sneller kan blijken te zijn op 3440x1440p. Nvidia heeft dan DLSS in de games die dat ondersteunen en waar de implementatie ook goed is, maar AMD gaat met Super Resolution komen waar we dus niks van weten behalve dat het via DirectML werkt, ingebakken lijkt te worden in zowel PS5 als XSX titels en dus onderdeel van de DX12U standaard is. De kwaliteit is dus even afwachten. Maar het kan zomaar zo zijn dat dit op termijn DLSS overbodig zal maken en Nvidia met een nieuwe DLSS variant moet komen die werkt binnen DirectML. Nvidia RT, tja dit is het wel en voor AMD is het ook nog erg ongewis wat Navi 21 nu precies kan. Heel veel zou ik alleen niet verwachten.
Ik denk dat het eigenlijk lastig is om echt een winnaar aan te wijzen. Te veel variabelen en te veel onduidelijk. Denk eigenlijk ook niet dat er een slechte keuze is, behalve de RTX3090 die echt belachelijk overpriced is. De RX6900XT eigenlijk ook, maar net wat minder. Ik zou eerder naar de RX6800XT of RTX3080 kijken. Ik hou zo ook rekening met AMD haar duidelijke GPU roadmap. Over een jaar is RDNA3 er al en dan zal Navi 31, rustig over zowel Navi 21 als GA102 rollen. Jaar erna dan RDNA4 etc. Dit is niet het moment om voluit te gaan qua budget, want het gaat nu waarschijnlijk versnellen met innovatie en prestatiesprongen. Verder is de RT hardware voor beide opties gewoon zwak en als dat gaat verbeteren, tja dan lig je daar helemaal hopeloos achter. De potentie voor RT is namelijk serieus, maar het is nog niet klaar. Alleen goede RT based Global Illumination is al heel wat en dat is juist de minst intensieve RT.
Ik zou eigenlijk neigen naar de RX6800XT puur omdat die in theorie goedkoper zou moeten zijn. Verder heb je met de RTX6800XT wel echt een goed referentiemodel. De vraag daar is vooral hoe hoog de hotspot uitvalt als je een exemplaar te pakken krijgy. Er zijn namelijk exemplaren die relatief koel uitvallen en waar de ventilatoren rond de 1300RPM blijven en dan is die niet te horen, maar ook exemplaren die wel een limiet passeren en die gaan automatisch naar 1600RPM wat wel te horen is.
Maar gelukkig kan je dit jaar toch niks kopen, dus je hebt alle tijd om er nog rustig over na te denken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Heb de 3080 en 6800XT gekochtDaniëlWW2 schreef op woensdag 9 december 2020 @ 21:16:
Ik zou eigenlijk neigen naar de RX6800XT puur omdat die in theorie goedkoper zou moeten zijn. Verder heb je met de RTX6800XT wel echt een goed referentiemodel. De vraag daar is vooral hoe hoog de hotspot uitvalt als je een exemplaar te pakken krijgy. Er zijn namelijk exemplaren die relatief koel uitvallen en waar de ventilatoren rond de 1300RPM blijven en dan is die niet te horen, maar ook exemplaren die wel een limiet passeren en die gaan automatisch naar 1600RPM wat wel te horen is.
Voorkeur gaat uit naar de 6800XT ondanks dat de 3080 betere piek FPS heeft.
Zodra bij de Nvidia de load te hoog word, gaat de kaart enorm stotteren, hakkelen en bokken.
De 6800XT blijft soepel draaien, ondanks dat de FPS counter een lage waarde *aangeeft*
Als ICT'er denk ik 3080, als gamer zie ik 6800XT
Dus ik gebruik de 3080 al een week als RHCE boekensteun

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets

https://www.reddit.com/r/...h_fidelityfx_cas_dynamic/
https://www.reddit.com/r/...tm_medium=web2x&context=3
Maar ik heb nu in meerdere reviews al wat gemopper gehoord dat DLSS blurry schijnt te zijn. Kan AMD dat mooi oplossen met hun uitstekende sharpening filter. Samenwerking.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
ASUS unveils liquid-cooled Radeon RX 6900 XT ROG STRIX LC graphics card
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/rVObti9bMGMoclyaYAcYhwF9.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/OBhys3if4NWByTn7JAllwj6U.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/1B72XfJEltXLXqLLDnxwU1Gz.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/HmMv4r6uYRhpYQa92WXIYcVu.jpg?f=user_large)
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
ASUS Delivers First Custom Radeon RX 6900 XT GPU - the TUF Gaming Radeon RX 6900 XT Graphics Card
:strip_exif()/f/image/rJ1gglXaO8H8pLTfLa7Vjdw7.jpg?f=fotoalbum_large)
:strip_exif()/f/image/l55phVBMNtEivBTmG4dyaowl.jpg?f=fotoalbum_large)
:strip_exif()/f/image/0pUyU5oQLgnYjmJD28oGxDvQ.jpg?f=fotoalbum_large)
https://www.techpowerup.c...__twitter_impression=true
[ Voor 46% gewijzigd door Xadeon op 10-12-2020 18:19 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
POWERCOLOR LAUNCHES RED DEVIL AMD RADEON™ RX 6900 XT
POWERCOLOR RED DEVIL RX 6900 XT
— PowerColor (@PowerColor) 10 december 2020
Delivering exceptional 4K gaming experience at the highest visual fidelity! pic.twitter.com/K30tG6rMz8
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/E8Yyd1Is0jn7V2sGmsybcpEV.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/zlHPOsku8VskIASGLYhAUops.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/2HfX3ITh4w5RTBdTp8yD0wtN.jpg?f=user_large)
https://www.powercolor.com/new?id=1607589679
[ Voor 3% gewijzigd door Xadeon op 11-12-2020 00:10 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Tune in to watch CEO @LisaSu, @XboxP3, @EA's Laura Miele, and @GeoffKeighley talk leadership in the industry at The Next Generation of Gaming panel.
— AMD (@AMD) 10 december 2020
Only at #TheGameAwards!
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Alle Nvidia users zijn ook blij hiermeeDaniëlWW2 schreef op donderdag 10 december 2020 @ 15:17:
Dit spreekt ergens ook boekdelen. Bij AMD komen ze er ook achter via reddit dat Cyberpunk 2077, FidelityFX CAS heeft. Ja echt.
[Afbeelding]
https://www.reddit.com/r/...h_fidelityfx_cas_dynamic/
https://www.reddit.com/r/...tm_medium=web2x&context=3
Maar ik heb nu in meerdere reviews al wat gemopper gehoord dat DLSS blurry schijnt te zijn. Kan AMD dat mooi oplossen met hun uitstekende sharpening filter. Samenwerking.![]()
Dit laat ook meteen de kracht van GPUOpen zien, devs kunnen lekker zelf aan de slag.
Wat een beest, zal wrs wel wat langer in de boost bllijven hangen :yXadeon schreef op vrijdag 11 december 2020 @ 00:08:POWERCOLOR LAUNCHES RED DEVIL AMD RADEON™ RX 6900 XT
[Twitter][Afbeelding]
[Afbeelding]
[Afbeelding]
https://www.powercolor.com/new?id=1607589679
Edit: boost is laag
Game 2105MHz(OC)/ 2015MHz(Silent)
Boost 2340MHz(OC)/ 2250MHz(Silent)
[ Voor 4% gewijzigd door Damic op 11-12-2020 07:16 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Ik ben er ook blij mee.Sp3ci3s8472 schreef op vrijdag 11 december 2020 @ 01:27:
[...]
Alle Nvidia users zijn ook blij hiermee. Omdat er maar vrij weinig zijn met kaarten die DLSS hebben.
Dit laat ook meteen de kracht van GPUOpen zien, devs kunnen lekker zelf aan de slag.
Die game is echt blurry. Alles van filters of DoF kan je beter meteen maar uit zetten. Op 1440p is resolution scaling naar 90% + dynamic FidelityFX CAS ook dramatisch. De blur begint al op een paar meter en is niet te missen. Het is voor iedereen echt een zegen en static FidelityFX CAS is een setting die je aan moet zetten.
Ik zou bijna gaan kijken of je RIS in het driverpaneel kan stacken met FidelityFX CAS.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hardware unboxed heeft wat mij betreft te persoonlijk en naar eigen mening gekeken ipv naar het brede geheel en dat voordeel geven ze amd vaak wel.
Zo blijven ze herhalen dat ze geen enkele driver problemen hadden met de amd kaarten ondanks het halve internet er vol mee stond.
Ze moeten iets neutraler leren te zijn wat mij betreft. Verder goede content hoor en aan de data zal het niet liggen maar de amd/intel/nvidia bias is toch wel duidelijk te vinden door hun eigen opinie (zie ook het afzeigen van de intel naamgeving wat ik nergens op vind slaan). En die opinie mag van mij achterwegen blijven. Laat de data voor zichzelf spreken.
Verder ben ik qua RTX nog altijd zelf ergens tussen wow en meh afhankelijk per spel. En bij de aanschaf van de gpu (ALS ze ooit terug gaan naar rond msrp) ben ik best berijd het RTX compromis te maken in deze fase. maar dlss is iets wat ondanks dat dat ook nog niet breed geimplementeerd is iets dat toch wel behoorlijk wat meerwaarde kan hebben.
mijn brein zien dus het volgende :
AMD:
+16 GB ram
-Drivers....
-Nutteloze Ray tracing
Nvidia
+DLSS
+RTX Voice
+Betere ray tracing
+-Reflex (moet zich nog maar eens bewijzen qua implementatie.
-10 gb ram
Misschien dat TI modellen als die ooit betaalbaar zijn doorslag kunnen geven..
[ Voor 32% gewijzigd door computerjunky op 11-12-2020 13:48 ]
Kijkend naar de praktijk, blijkbaar heel erg moeilijk. Want van de spellen die sli/crossfire ondersteunen, meen ik mij te herinneren dat het, enkele uitzonderingen daargelaten, heel slecht schaalt.Postman schreef op vrijdag 11 december 2020 @ 13:41:hoe moeilijk kan het zijn om een game engine multi-threaded te maken en dit als spel ontwikkelaar ook te gebruiken.
That being said, welk spel maakt optimaal gebruik van de multicore CPU-beesten die heden ten dage beschikbaar zijn?
Ik kan het volledig fout hebben, maar is nvidia nou juist niet degene die een bestaande standaard aanpast en een marketing naampje geeft. RT-implementatie is eerder in dit topic besproken en had een andere herkomst als nvidia ons wil doen geloven.computerjunky schreef op vrijdag 11 december 2020 @ 15:04:
[...]
Er hoeft helemaal niemand opgehemeld te worden. maar De 1 de hemel in prijzen en problemen bijna ontkennen en de andere doen voorkomen als irrelevante feate gaat mij te ver. Ik vind zelf DLSS meer potentie hebben op de korte termijn als RTX en ook rtx voice vind ik een topper en reflex heeft potentie maar faalt denk ik bij de implementatie maar lijdt hopelijk wel tot een andere standaard.
Wat heeft AMD ons de afgelopen jaren aan nieuwe features gebracht.
Als een die hard gamer brengt nvidia gewoon veel meer en betere features en ja dat kost helaas een premium maar als niemand die eerste stappen zet komen we nergens.
En dat mag dan wel eens gezegd worden ipv afgezeken omdat het in het begin nvidia exclusief is.
En dat juist AMD met nieuwe ontwikkelingen komt, maar dat al het budget in R&D zit en duidelijk niet in marketing. If you pay peanuts, you get monkeys...
[ Voor 6% gewijzigd door onsgeluk op 11-12-2020 15:18 ]
Opzich klopt dat natuurlijk, al wordt die cpu limiet steeds minder, Blizzard heeft de laatste jaren niet stilgezeten en waar een aantal jaar geleden mijn gpu utilization zeer regelmatig vrij laag was zie je dit patch op patch veranderen. Zeker sinds de DX12 patch die ik eigenlijk dat mijn een stuk meer belast wordt gemiddeld gezien en zit de utilization nu in veel scenario's continu op 90%+ (vaak zelfs straks 99%).Werelds schreef op vrijdag 11 december 2020 @ 12:43:
[...]
WoW heeft echter ook meerdere problemen waardoor het vanuit technisch perspectief niet echt spannend. Het is bijzonder dynamisch en loopt vrij snel tegen een CPU limiet aan. Met RT zal het vast tegen een GPU limiet aan lopen, echter is dat ook bijzonder misleidend doordat de rest van het spel de GPU nauwelijks belast. Het is een onevenredige belasting, waardoor de balans tussen verschillende chips er waarschijnlijk heel vreemd uit ziet (in negatieve zin). Ik weet niet of er al ergens een site het spel gebenchmarkt heeft, dus wellicht heb ik het mis, maar ik zie niet in hoe het spel een goede benchmark zou zijn
WoW wordt meer en meer een titel die ook de gpu flink aan het werk zet. Waarom WoW als benchmark misleidend zou zijn of geen goede benchmark ontgaat me even, die vind ik niet direct logisch. Het is immers een workload die redelijk wat gamers regelmatig uitvoeren en waar redelijk wat mensen specifiek hardware voor kopen en voor die mensen lijkt het mij juist altijd een zeer relevante benchmark. Ik kijk niet naar benchmarks voor de mooie grafiekjes, ik wil er als aspirant koper (deels) de informatie uithalen die ik nodig heb om tot een weloverwogen aanschaf te komen.
Als ik dan iemand ben die voornamelijk WoW speelt zijn juist benchmark resultaten van WoW (ook al zijn deze misschien anders dan je in andere games zou verwachten) veel relevanter dan bijvoorbeeld de geeikte "AC: Valhalla" (of welke willekeure AC titel op dat moment de laatste in de serie is) en titel die ik nooit zal spelen en dus voor mij geen enkele relevatie heeft.
Ik bedoelde dat meer in de zin van dat dze dat soort zaken meer genoemen in de reviews. Uiteraard hoef je van mij echt niet te testen hoeveel FPS het gebruik van RTX voice kost (of wint of whatever) maar meer van bijvoorbeeld een RX6800XT t.o.v. een RTX 3080 "Ok de rasterization performance van alle deze kaarten vallen binnen 5-10% van elkaar gemiddeld genomen en is dus niet bijster interessant, laten we eens kijken wat de verschillen zijn in feature set om zo misschien meer duiding te kunnen geven en wat deze kaarten nu wel onderscheidend maakt van elkaar. Waar je dan zaken als DLSS, RT, Radeon anti lag, encoder kwaliteit en performance, kwaliteit van eventuele drivers en andere software in (lichte) vorm kan uitlichten om zo misschien meer duiding te geven aan de verschillen tussen de producten. Dat zal echt niet in alle gevallen voorzien hoeven te worden van uitgebreide benchmark voor mij. Maar gezien de performance van deze kaarten zo close it, zou afgezien van beschikbaarheid, dit soort zaken nu juist iets kunnen zijn wat mij zou laten kiezen tussen AMD of Nvidia.Op die manier loop je echter ook het risico een reclame video te maken. Zoiets als RTX voice heeft al eigen video's en behoeft niet gebenchmarkt te worden bij elke release. Hetzelfde geldt voor zoiets als RIS. Die dingen zijn vrij statisch in hun gedrag en impact, dus om dat nu bij elke release opnieuw te testen heeft weinig nut. Als je dat soort dingen gaat testen, moet je bijvoorbeeld ook telkens gaan kijken wat de impact van Shadowplay is, of wat voor impact OBS met verschillende encoders heeft. Dat zijn echter zulke specifieke usecases dat het publiek van een kanaal als HWU daar gewoon geen behoefte aan heeft.
Nee, die had ik niet gemist, maar is pas uitgekomen na release en was dus niet relevant (meer) voor mij om te bepalen of ik bij release in de rij wilde gaan staan of niet. Dit had gewoon bij de review uit moeten komen zodat je hier kennis van kon nemen voordat de verkoop begon naar mijn mening.
[ Voor 3% gewijzigd door Dennism op 11-12-2020 15:43 ]
XFX unveils Radeon RX 6900 XT Speedster MERC 319
:strip_exif()/f/image/koxmxYPnPANYxzMdub4pFZl6.jpg?f=fotoalbum_large)
:strip_exif()/f/image/2vk0ZigvrLxj1yiNHxr8VC8v.jpg?f=fotoalbum_large)
:strip_exif()/f/image/oN1qs1OxvnCZzYtWyyMY7FoX.jpg?f=fotoalbum_large)
https://videocardz.com/ne...900-xt-speedster-merc-319
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Je laatste twee posts zijn werkelijk complete onzin. Discussie gaat over een reviewer die volgens een fabrikant haar product niet voldoende in het zonnetje zet.
Dat fabrikanten (nog steeds) een dikke vinger in de pap willen hebben en zich lenen tot infantiele acties als hier het geval is, vind ik op zijn zachtst gezegd waanzin.
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Je mag het onzin vinden maar ik spreek als iemand die zo goed als ALLE video's van hun en anderen het afgelopen jaar gezien heb en een duit amd bias nasmaak bij veel video's kreeg. Maar gezien jou posts in het afgelopen jaar leun jij ook behoorlijk naar 1 kamp.Xadeon schreef op vrijdag 11 december 2020 @ 19:05:XFX unveils Radeon RX 6900 XT Speedster MERC 319
[Afbeelding]
[Afbeelding]
[Afbeelding]
https://videocardz.com/ne...900-xt-speedster-merc-319
Het zijn dan ook altijd dezelfde die in de verdediging schieten als er ook maar iets positiefs over nvidia of negatiefs over amd gezegd word.
Vergeet ook niet dat deze reviewers indirect geld verdienen aan deze review samples en je dus op zijn minst een onafhankelijke toon mag verwachten en de klant laat oordelen wat zij wel of niet boeiend vinden.
Verder het niet waard om woorden aan vuil te maken maar als nvidia had ik hetzelfde gedaan en het verbaast mij niet als intel dezelfde route neemt.
LTT neemt stelling.computerjunky schreef op zaterdag 12 december 2020 @ 01:39:
[...]
Je mag het onzin vinden maar ik spreek als iemand die zo goed als ALLE video's van hun en anderen het afgelopen jaar gezien heb en een duit amd bias nasmaak bij veel video's kreeg. Maar gezien jou posts in het afgelopen jaar leun jij ook behoorlijk naar 1 kamp.
Het zijn dan ook altijd dezelfde die in de verdediging schieten als er ook maar iets positiefs over nvidia of negatiefs over amd gezegd word.
Vergeet ook niet dat deze reviewers indirect geld verdienen aan deze review samples en je dus op zijn minst een onafhankelijke toon mag verwachten en de klant laat oordelen wat zij wel of niet boeiend vinden.
Verder het niet waard om woorden aan vuil te maken maar als nvidia had ik hetzelfde gedaan en het verbaast mij niet als intel dezelfde route neemt.
TLDW: als het betaalde content is mag je de onderwerpen bepalen. Echter, als je een kaart ter review instuurt heb je 0,0 zeggenschap over de inhoud van de review. En passant geeft hij aan dat zij dezelfde conclusie hebben getrokken. Waardeloze toevoeging zolang je een enorme performance hit krijgt.
YouTube: NVIDIA might ACTUALLY be EVIL... - WAN Show December 11, 2020
Linus en Luke zijn NV echt aan het fileren...Met name Linus lijkt aardig over z'n pis te gaan.
[ Voor 3% gewijzigd door onsgeluk op 12-12-2020 03:15 ]
Op de 2080Ti na is geen enkele Turing kaart snel genoeg voor RT imho. Het is altijd zo dat de eerste generatie van een feature gewoon te traag werkt. Ik denk dat we pas volgende generatie een beetje fatsoenlijk performance gaan zien met RT zonder DLSS trucjes.computerjunky schreef op vrijdag 11 december 2020 @ 13:40:
Tja betreft Hardware unboxed begrijp ik nvidia volkomen. Al sinds dag 1 zijn ze negatief over RTX Als ze toch je investeringen en game changing tech afzeiken zou ik ze ook geen saamples geven.
Hardware unboxed heeft wat mij betreft te persoonlijk en naar eigen mening gekeken ipv naar het brede geheel en dat voordeel geven ze amd vaak wel.
Zo blijven ze herhalen dat ze geen enkele driver problemen hadden met de amd kaarten ondanks het halve internet er vol mee stond.
Ze moeten iets neutraler leren te zijn wat mij betreft. Verder goede content hoor en aan de data zal het niet liggen maar de amd/intel/nvidia bias is toch wel duidelijk te vinden door hun eigen opinie (zie ook het afzeigen van de intel naamgeving wat ik nergens op vind slaan). En die opinie mag van mij achterwegen blijven. Laat de data voor zichzelf spreken.
Verder ben ik qua RTX nog altijd zelf ergens tussen wow en meh afhankelijk per spel. En bij de aanschaf van de gpu (ALS ze ooit terug gaan naar rond msrp) ben ik best berijd het RTX compromis te maken in deze fase. maar dlss is iets wat ondanks dat dat ook nog niet breed geimplementeerd is iets dat toch wel behoorlijk wat meerwaarde kan hebben.
mijn brein zien dus het volgende :
AMD:
+16 GB ram
-Drivers....
-Nutteloze Ray tracing
Nvidia
+DLSS
+RTX Voice
+Betere ray tracing
+-Reflex (moet zich nog maar eens bewijzen qua implementatie.
-10 gb ram
Misschien dat TI modellen als die ooit betaalbaar zijn doorslag kunnen geven..
Zo krijg je dus precies de situatie die je in de gaming industrie met games dus al ziet. Reviewers durven nauwelijks nog een slechte review te plaatsen omdat ze anders geen review kopie krijgen. Ik kan mij niet voorstellen dat je dat een goed punt vind.
Hardware Unboxed heeft op genoeg video's lovend over DLSS en RT gesproken en het is onzin dat Nvidia dit doet.
Wat Nvidia hiermee doet is een situatie creeren dat een reviewer dus niet meer negatief mag zijn over een product en dat is als consument (jij dus ook) heel slecht.
Je noemt telkens al die mooie Nvidia features op waar ik geen barst om geef (wat moet ik met RTX voice, dat is alleen nuttig voor een select groepje mensen) en laat gemakshalve alle AMD features steeds linksliggen (waar jij mischien niks om geeft).
Ik ben erg blij met features zoals Radeon Chill, zodat ik in strategy games niet 200FPS heb op een statisch beeld.
Daarnaast Nvidia linux drivers zijn een drama.
De meesten kijken alle video's hier, daar ben je echt niet de enige in.computerjunky schreef op zaterdag 12 december 2020 @ 01:39:
[...]
Je mag het onzin vinden maar ik spreek als iemand die zo goed als ALLE video's van hun en anderen het afgelopen jaar gezien heb en een duit amd bias nasmaak bij veel video's kreeg.
Ik heb hem even voor jou vertaald zodat hij op jou slaat:
Negatieve dingen zijn hier prima, als je ze goed kan beargumenteren.Maar gezien jou posts in het afgelopen jaar leun jij ook behoorlijk naar 1 kamp.
Het zijn dan ook altijd dezelfde die in de verdediging schieten als er ook maar iets positiefs over AMD of negatiefs over Nvidia gezegd word.
Dat zou inderdaad zeer slecht zijn.Sp3ci3s8472 schreef op zaterdag 12 december 2020 @ 13:43:
Wat Nvidia hiermee doet is een situatie creëren dat een reviewer dus niet meer negatief mag zijn over een product en dat is als consument (jij dus ook) heel slecht.
Ik vraag me alleen af hier sprake van is, ik zie dat nergens naar voren komen, ook niet in die e-mail van Nvidia.
Ook vind ik HUB niet direct negatiever dan andere outlets in de conclusies en dergelijke aangaand raytracing.
Ik denk dat het meer zit in het volgende: Voor zover ik kan nagaan doet HUB vaak een minimaal aantal RT tests, neem bijvoorbeeld de RTX 3080 review iets van 16 rasterization tests en 1 raytracing test.
Wel heeft Tim na launch een uitgebreider RT artikel gedaan, echter was dat na launch en dus heeft dat artikel waarschijnlijk een stuk minder views gehad, het mij niets verbazen als dat zo 20-30% aan views kan schelen. Daarnaast weet ik niet of dit nog steeds het geval is, maar zeker in begin was "Tim" content veel minder populair dan "Steve" content.
Ik verwacht eigenlijk, op basis van de inhoud van de brief en andere zaken die ik hier gister en vandaag over gelezen heb dat Nvidia het niet niet direct te doen is om zeker te stellen dat de berichtgeving niet negatief zal zijn, nee ik denk dat Nvidia het voornamelijk te doen is om een testsuite waar de nadruk meer ligt op raytracing (en of DLSS) enabled titels. Dus in plaats van 16-1 een 9-8 verhouding of iets in die strekking.
Uiteindelijk natuurlijk wel met het doel om "er beter op te staan" dan AMD verwacht ik, want die zullen in een suite waar de focus meer op raytracing ligt op dit moment minder goed presteren.
En dat is natuur Nvidia "verhaallijn", Nvidia heeft veel meer baat bij Raytracing op de agenda, terwijl AMD juist een agenda lijkt te pushen waar rasterization voorop staat, omdat dat nu het scenario is waarin ze weer mee doen.
En dus krijg je straks ook weer doorgeslagen fanboys die straks gaan roepen dat iedere reviewer met een focus op rasterization een AMD shill is, en dat AMD fanboy's gaan roepen dat iedere reviewer die de focus meer op raytracing heeft een Nvidia shill is. Je ziet dit nu helaas alweer gebeuren hier op de FP.
[ Voor 19% gewijzigd door Dennism op 12-12-2020 14:37 ]
Dan nog vind ik niet dat het aan Nvidia is om dit te dicteren; zeker niet als een kanaal aangeeft dingen zoals RT en DLSS in een aparte video beter toe te lichten wat ze tot nu toe steeds doen.Dennism schreef op zaterdag 12 december 2020 @ 14:28:
[...]
Ik verwacht eigenlijk, op basis van de inhoud van de brief en andere zaken die ik hier gister en vandaag over gelezen heb dat Nvidia het niet niet direct te doen is om zeker te stellen dat de berichtgeving niet negatief zal zijn, nee ik denk dat Nvidia het voornamelijk te doen is om een testsuite waar de nadruk meer ligt op raytracing (en of DLSS) enabled titels. Dus in plaats van 16-1 een 9-8 verhouding of iets in die strekking.
Als Nvidia dat wel wil doen dan ben ik het met Linus eens, dan moeten ze er maar voor betalen en een video met sponsered content doen zoals LTT en Digital Foundry doen. Want positief of negatief het is gratis reclame voor Nvidia.
Dat ben ik ook zeker met je eens, echter denk ik ook dat we het verhaal niet groter moeten maken dan de beschikbare informatie aangeeft. Het heeft imho weinig zin om te gaan speculeren dat Nvidia negatieve meningen wil verbieden terwijl tot op heden geen van de beschikbare informatie daar op wijst. Dat gooit alleen maar meer olie op het "fanboi" voor, en dat zou iets moeten zijn dat je absoluut wil vermijden.Sp3ci3s8472 schreef op zaterdag 12 december 2020 @ 14:38:
[...]
Dan nog vind ik niet dat het aan Nvidia is om dit te dicteren; zeker niet als een kanaal aangeeft dingen zoals RT en DLSS in een aparte video beter toe te lichten wat ze tot nu toe steeds doen.
Als Nvidia dat wel wil doen dan ben ik het met Linus eens, dan moeten ze er maar voor betalen en een video met sponsered content doen zoals LTT en Digital Foundry doen. Want positief of negatief het is gratis reclame voor Nvidia.
Ik zou trouwens ook niet stellen dat reviews gratis reclame is, daar zit echt wel een flinke kostenpost in, denk niet alleen de kaarten, maar je zal ook PR mensen in dienst hebben daarvoor e.d. Netto zal het normaliter altijd wat geld opleveren voor zowel de reviewer als de fabrikant dat zeker, maar gratis, nee dat is het echt niet
[ Voor 14% gewijzigd door Dennism op 12-12-2020 14:44 ]
Had jij de video van Linus al gezien? Die geeft namelijk meer context; dus vandaar ook mijn reactie nu. Hij behandelt daar de hele email.Dennism schreef op zaterdag 12 december 2020 @ 14:42:
[...]
Dat ben ik ook zeker met je eens, echter denk ik ook dat we het verhaal niet groter moeten maken dan de beschikbare informatie aangeeft. Het heeft imho weinig zin om te gaan speculeren dat Nvidia negatieve meningen wil verbieden terwijl tot op heden geen van de beschikbare informatie daar op wijst. Dat gooit alleen maar meer olie op het "fanboi" voor, en dat zou iets moeten zijn dat je absoluut wil vermijden.
Daar heb je gelijk inIk zou trouwens ook niet stellen dat reviews gratis reclame is, daar zit echt wel een flinke kostenpost in, denk niet alleen de kaarten, maar je zal ook PR mensen in dienst hebben daarvoor e.d. Netto zal het normaliter altijd wat geld opleveren voor zowel de reviewer als de fabrikant dat zeker, maar gratis, nee dat is het echt niet
Naar mijn weten doet chill niets dat al niet lang mogelijk is met nvidia drivers or zelfs 3rd party software die bijna iedere gamers gebruikt om te overclocken. Een max fps instelen en linken aan de monitor refresh rate is gewoon een basis functie die er al jaren in zit.Sp3ci3s8472 schreef op zaterdag 12 december 2020 @ 13:43:
[...]
Je noemt telkens al die mooie Nvidia features op waar ik geen barst om geef (wat moet ik met RTX voice, dat is alleen nuttig voor een select groepje mensen) en laat gemakshalve alle AMD features steeds linksliggen (waar jij mischien niks om geeft).
Ik ben erg blij met features zoals Radeon Chill, zodat ik in strategy games niet 200FPS heb op een statisch beeld.
Daarnaast Nvidia linux drivers zijn een drama.
Ik heb het dan ook alleen voer features die Nvidia wel heeft en AMD niet heeft.
En eerlijk is eerlijk ik hoop dat een deel van de nvidia opties ooit (liever gister dan vandaag) een open versie krijgen zodat dat bij de gpu keuze geen rol meer speelt. Maar vooralsnog heeft nvidia een hoop moois gebracht de afgelopen jaren.
Want eerlijk is eerlijk als Nvidia niet met rtx was gekomen had amd het echt niet uit eigen initiatief gedaan. Die lijke over het algemeen toch wel achter nvidia aan te lopen betreft featues onder druk van de consument die blijkbaar dus wel features wil.
En zeggen dat rtx voice maar voor een select groepje mensen is is volgens mij vrij kort door de bocht. Er zijn heel heel veel streamers. Dat de meeste van deze mensen niet bewust zijn van de mogelijkheden is denk ik een punt waar nvidia een fout begaat. Nvidia leunt heel heel veel op mond op mond reclame en en initiatief van de media en dit soort features blijven daarbij buiten schot.
Als meer streamers en gamers zich bewust worden van features als rtx voice zal het bekender en populairder worden.
Video van linus staat in de wachtrij maar nu nog even F1 aan het kijken. Al vind ik hem qua mening soms net een pingpongbal die alle kanten op stuiterd. En dat komt vooral doordat hij een best machtige positie heeft onder de gebruikersgroep van cpu's en gpu's. zo kan hij intel afzijken om net niets en toch nog een contract krijgen voor 7 sponsored video's dus die macht werkt 2 kanten op en HUB beland hier een keer aan de andere kant. Ik vind soms reviews niet terecht en soms fabrikanten niet terecht handelen het is niet allemaal zwart wit.
[ Voor 12% gewijzigd door computerjunky op 12-12-2020 15:10 ]
Speculeren? Wat voor bewijs heb jij dan nodig voordat je wel overtuigd bent? Nuanceren prima, maar dit vind ik gewoon naief. Rechtpraten wat krom is. Zo kun je alles wel rechtpraten.Dennism schreef op zaterdag 12 december 2020 @ 14:42:
[...]
Dat ben ik ook zeker met je eens, echter denk ik ook dat we het verhaal niet groter moeten maken dan de beschikbare informatie aangeeft. Het heeft imho weinig zin om te gaan speculeren dat Nvidia negatieve meningen wil verbieden terwijl tot op heden geen van de beschikbare informatie daar op wijst. Dat gooit alleen maar meer olie op het "fanboi" voor, en dat zou iets moeten zijn dat je absoluut wil vermijden.
Ik zou trouwens ook niet stellen dat reviews gratis reclame is, daar zit echt wel een flinke kostenpost in, denk niet alleen de kaarten, maar je zal ook PR mensen in dienst hebben daarvoor e.d. Netto zal het normaliter altijd wat geld opleveren voor zowel de reviewer als de fabrikant dat zeker, maar gratis, nee dat is het echt niet
Het gaat overigens niet eens in de eerste plaats om een gratis kaart krijgen maar om het feit dat FE kaarten ook vaak als eerste launchen en je dus geen review kunt plaatsen op launchday want al zou je ervoor willen betalen je kunt er gewoon niet aankomen.
Dit zijn de momenten dat deze sites de meeste inkomsten hebben. Dat betekent dat je zo'n site aan het chanteren bent. Dat je niet elke wannabe review site een kaart stuurt kan ik inkomen. Maar dit is geen kleine site, blijkbaar vinden consumenten hun content en reviews dus relevant.
Luister Linus nog maar even terug. Je kunt zijn reviews wellicht niet diepgaand genoeg vinden maar hij weet echt wel wat zo'n brief werkelijk betekent.
Ben overigens wel benieuwd wat die nvidia head of marketing te melden heeft mocht hij Linus terugbellen. En of er niet iets anders persoonlijks speelt.
Het zou me overigens niet verbazen dat ze het gaan downplayen en sussen bij nvidia.
[ Voor 28% gewijzigd door Help!!!! op 12-12-2020 15:17 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Nu herhaal je weer het rtx verhaal van NVidia. Dus ik ben zelf maar gaan zoeken in het topic. Ik citeer @DaniëlWW2 even:computerjunky schreef op zaterdag 12 december 2020 @ 15:07:
[...]
Naar mijn weten doet chill niets dat al niet lang mogelijk is met nvidia drivers or zelfs 3rd party software die bijna iedere gamers gebruikt om te overclocken. Een max fps instelen en linken aan de monitor refresh rate is gewoon een basis functie die er al jaren in zit.
Ik heb het dan ook alleen voer features die Nvidia wel heeft en AMD niet heeft.
En eerlijk is eerlijk ik hoop dat een deel van de nvidia opties ooit (liever gister dan vandaag) een open versie krijgen zodat dat bij de gpu keuze geen rol meer speelt. Maar vooralsnog heeft nvidia een hoop moois gebracht de afgelopen jaren.
Want eerlijk is eerlijk als Nvidia niet met rtx was gekomen had amd het echt niet uit eigen initiatief gedaan. Die lijke over het algemeen toch wel achter nvidia aan te lopen betreft featues onder druk van de consument die blijkbaar dus wel features wil.
En zeggen dat rtx voice maar voor een select groepje mensen is is volgens mij vrij kort door de bocht. Er zijn heel heel veel streamers. Dat de meeste van deze mensen niet bewust zijn van de mogelijkheden is denk ik een punt waar nvidia een fout begaat. Nvidia leunt heel heel veel op mond op mond reclame en en initiatief van de media en dit soort features blijven daarbij buiten schot.
Als meer streamers en gamers zich bewust worden van features als rtx voice zal het bekender en populairder worden.
Video van linus staat in de wachtrij maar nu nog even F1 aan het kijken. Al vind ik hem qua mening soms net een pingpongbal die alle kanten op stuiterd. En dat komt vooral doordat hij een best machtige positie heeft onder de gebruikersgroep van cpu's en gpu's. zo kan hij intel afzijken om net niets en toch nog een contract krijgen voor 7 sponsored video's dus die macht werkt 2 kanten op en HUB beland hier een keer aan de andere kant. Ik vind soms reviews niet terecht en soms fabrikanten niet terecht handelen het is niet allemaal zwart wit.
Met Nvidia weet ik het meteen wat de boodschap was in 2018, ray tracing. De boodschap was glashelder en niet te missen. Dat Turing RT nu vrij hopeloos is, maakt niet uit want Nvidia heeft alweer AMD makkelijk verslagen in verkochte aanvallen en dan waren de Turing kaarten in de regel ook duurder. Het hele punt was dat mensen het nu al twee jaar over RTX hebben tot het punt dat veel leken niet eens weten dat RTX, Nvidia hun implementatie van DXR is. DXR, de standaard die Microsoft primair heeft ontwikkeld voor hun volgende generatie console, met AMD...
Welke dynamische limiter heeft Nvidia dan? Kom maar met een voorbeeld, ik wil geen statische FPS limiter daar heb ik niks aan en dat kan zoals je aangeeft allang.computerjunky schreef op zaterdag 12 december 2020 @ 15:07:
[...]
Naar mijn weten doet chill niets dat al niet lang mogelijk is met nvidia drivers or zelfs 3rd party software die bijna iedere gamers gebruikt om te overclocken. Een max fps instelen en linken aan de monitor refresh rate is gewoon een basis functie die er al jaren in zit.
Ik ook, ik hecht alleen meer waarde aan andere features dan jij. RTX voice is niks speciaals er zijn genoeg noise cancelation technieken beschikbaar, waar heb ik RTX voice dan voor nodig? Wat overigens weer prima op compute shaders draait maar Nvidia weer locked achter de Tensor cores. Ik zie de waarde wel in voor een streamer zonder fatsoenlijke setup of een streamer die in een hotel zit achter zijn laptop en zijn normale setup niet heeft.Ik heb het dan ook alleen voer features die Nvidia wel heeft en AMD niet heeft.
En eerlijk is eerlijk ik hoop dat een deel van de nvidia opties ooit (liever gister dan vandaag) een open versie krijgen zodat dat bij de gpu keuze geen rol meer speelt. Maar vooralsnog heeft nvidia een hoop moois gebracht de afgelopen jaren.
Want eerlijk is eerlijk als Nvidia niet met rtx was gekomen had amd het echt niet uit eigen initiatief gedaan. Die lijke over het algemeen toch wel achter nvidia aan te lopen betreft featues onder druk van de consument die blijkbaar dus wel features wil.
En zeggen dat rtx voice maar voor een select groepje mensen is is volgens mij vrij kort door de bocht. Er zijn heel heel veel streamers. Dat de meeste van deze mensen niet bewust zijn van de mogelijkheden is denk ik een punt waar nvidia een fout begaat. Nvidia leunt heel heel veel op mond op mond reclame en en initiatief van de media en dit soort features blijven daarbij buiten schot.
Als meer streamers en gamers zich bewust worden van features als rtx voice zal het bekender en populairder worden.
Linus is wat meer mainstream, maar hij is wel recht door zee. Zijn sponsered content vind ik zelf cringe en kijk ik niet, maar dat laat niet weg dat ik hem waardeer als techtuber.Video van linus staat in de wachtrij maar nu nog even F1 aan het kijken. Al vind ik hem qua mening soms net een pingpongbal die alle kanten op stuiterd. En dat komt vooral doordat hij een best machtige positie heeft onder de gebruikersgroep van cpu's en gpu's. zo kan hij intel afzijken om net niets en toch nog een contract krijgen voor 7 sponsored video's dus die macht werkt 2 kanten op en HUB beland hier een keer aan de andere kant. Ik vind soms reviews niet terecht en soms fabrikanten niet terecht handelen het is niet allemaal zwart wit.
Overtuigd waarvan? Dat is niet netjes geef ik al aan, ik geef alleen aan dat niets er op wijst dat Nvidia wil dat er alleen positief over raytracing gepraat wordt, waar het op lijkt is dat ze willen dat er meer nuance op wordt gelegd. Maar nergens wekt die brief de indruk dat Nvidia alleen wil dat er alleen positief gesproken mag worden over raytracing en dat is nu wel de indruk die lijkt te ontstaan en dat is een heel belangrijke nuance imho. Iets wat Linus trouwens volgens mij ook aangeeft in zijn verhaal.Help!!!! schreef op zaterdag 12 december 2020 @ 15:15:
[...]
Speculeren? Wat voor bewijs heb jij dan nodig voordat je wel overtuigd bent? Nuanceren prima, maar dit vind ik gewoon naief. Rechtpraten wat krom is. Zo kun je alles wel rechtpraten.
Als Steve nu extreem negatief geweest zou zijn over raytracing dan zou het een logische conclusie geweest kunnen zijn dat het daar aan zou liggen dat Nvidia deze stap zet. Echter was Steve niet extreem negatief. Hij zat eigenlijk heel erg op lijn met 'de rest' door aan te geven dat raytracing een mooie techniek kan zijn, maar nog altijd teveel performance kost in het algemeen. Steve heeft daar eigenlijk helemaal geen afwijkende mening t.o.v. de andere reviewers.
En dus is het niet direct logisch te concluderen dat Nvidia deze stap zou zeggen vanwege negatief commentaar van Steve, dat zou anders kunnen zijn mocht ook Linus, andere Steve (GN), ook zo'n brief zouden hebben ontvangen, voor zover mij bekend is Steve echter de enige.
Dat is goed mogelijk, al kan er inderdaad ook best wat anders spelen zoals waar Linus al naar hintte.Ben overigens wel benieuwd wat die nvidia head of marketing te melden heeft mocht hij Linus terugbellen. En of er niet iets anders persoonlijks speelt.
Het zou me overigens niet verbazen dat ze het gaan downplayen en sussen bij nvidia.
[ Voor 23% gewijzigd door Dennism op 12-12-2020 15:49 ]
Hier vergis jij je behoorlijk in. Nvidia heeft dit niet bedacht. Ze doen alsof ze het bedacht hebben. Hoe lang denk je al dat AMD met de nieuwe consoles bezig was en ray tracing samen met Microsoft ontwikkeld heeft voor o.a. dx12?computerjunky schreef op zaterdag 12 december 2020 @ 15:07:
[...]
Want eerlijk is eerlijk als Nvidia niet met rtx was gekomen had amd het echt niet uit eigen initiatief gedaan. Die lijke over het algemeen toch wel achter nvidia aan te lopen betreft featues onder druk van de consument die blijkbaar dus wel features wil.
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
Circa 2015, misschien al 2014.DJvL schreef op zaterdag 12 december 2020 @ 15:49:
[...]
Hier vergis jij je behoorlijk in. Nvidia heeft dit niet bedacht. Ze doen alsof ze het bedacht hebben. Hoe lang denk je al dat AMD met de nieuwe consoles bezig was en ray tracing samen met Microsoft ontwikkeld heeft voor o.a. dx12?
Immers is de ontwikkelcyclus voor een moderne GPU toch al snel vier jaar als het inmiddels niet meer is. Het kan zomaar langer duren als je fors minder personeel hebt. Uiteindelijk zal er een aantal ontwikkeluren staan voor een GPU. Met meer personeel kan je dat tot op zekere hoogte versnellen.
Nota bene zullen Microsoft en Sony, het ontwikkelbudget voor RDNA hebben moeten voorschieten omdat AMD heel erg blut was in die tijd en alles naar Zen ging. De verhalen dat het weinige geld dat AMD aan GPU's kon uitgeven, naar wat later RDNA zou worden ging en niet naar Polaris of Vega, stammen ook al uit 2017. Dat lijkt wel aardig uitgekomen te zijn.
Maar geen van beiden heeft RT bedacht of deze specifieke methode. Snel uit mijn hoofd bestaat de theorie over hybrid RT mode met het opbouwen van een BVH structuur al sinds de jaren 1980 en het word ook al tijden gebruikt. Het nieuwe is dat het berekenen nu enigszins mogelijk is met een framerate die meer dan een frame per seconde bedraagt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hoe je de brief ook leest, wel of niet tussen de regels; NVidia geeft hier expliciet aan dat als er niet op hun manier gereviewed wordt, je geen kaarten meer krijgt. Wat wij als consumers vinden van HU (objectief ja/nee) maakt niet eens meer uit.Dennism schreef op zaterdag 12 december 2020 @ 15:36:
[...]
Overtuigd waarvan? Dat is niet netjes geef ik al aan, ik geef alleen aan dat niets er op wijst dat Nvidia wil dat er alleen positief over raytracing gepraat wordt, waar het op lijkt is dat ze willen dat er meer nuance op wordt gelegd. Maar nergens wekt die brief de indruk dat Nvidia alleen wil dat er alleen positief gesproken mag worden over raytracing en dat is nu wel de indruk die lijkt te ontstaan en dat is een heel belangrijke nuance imho. Iets wat Linus trouwens volgens mij ook aangeeft in zijn verhaal.
NV doet hier een Trumpje, bully gedrag mijn inziens. Dit schreeuwt best wel hard ‘fake news’ richting HU.
Klopt. Ik wilde ook niet schetsen dat AMD het bedacht heeft, net zoals Nvidia ook niet. De marketingmachine van Nvidia is iets geavanceerder. Daar kan AMD zeker nog iets van leren.DaniëlWW2 schreef op zaterdag 12 december 2020 @ 16:01:
[...]
Circa 2015, misschien al 2014.![]()
Immers is de ontwikkelcyclus voor een moderne GPU toch al snel vier jaar als het inmiddels niet meer is. Het kan zomaar langer duren als je fors minder personeel hebt. Uiteindelijk zal er een aantal ontwikkeluren staan voor een GPU. Met meer personeel kan je dat tot op zekere hoogte versnellen.
Nota bene zullen Microsoft en Sony, het ontwikkelbudget voor RDNA hebben moeten voorschieten omdat AMD heel erg blut was in die tijd en alles naar Zen ging. De verhalen dat het weinige geld dat AMD aan GPU's kon uitgeven, naar wat later RDNA zou worden ging en niet naar Polaris of Vega, stammen ook al uit 2017. Dat lijkt wel aardig uitgekomen te zijn.
Maar geen van beiden heeft RT bedacht of deze specifieke methode. Snel uit mijn hoofd bestaat de theorie over hybrid RT mode met het opbouwen van een BVH structuur al sinds de jaren 1980 en het word ook al tijden gebruikt. Het nieuwe is dat het berekenen nu enigszins mogelijk is met een framerate die meer dan een frame per seconde bedraagt.
Ik ben zelf van mening dat ray tracing te vroeg is uitgebracht en nu met kunstmatige trucjes als dlss en de AMD tegenhanger, die eraan komt en waarvan de naam mij even ontschoten is, toch gepushed worden.
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
Dat klopt helemaal, en dat is nu ook het stuk wat niet netjes is. Als Nvidia dat wil moeten ze gesponsorde content laten maken. Dat is namelijk ook prima, zolang het maar duidelijk is. Maar dat is ook mijn punt niet, mijn punt is meer dat er niet overhaast conclusies getrokken zonder dat daar aanleiding voor is, aangezien dat alleen maar onnodig olie op het vuur gooien is. De hoeveelheid treurige fanboi reacties die je vandaag al weer ziet (uit beide kampen) bijvoorbeeld hier op de FP, maar ook op o.a. reddit (uiteraard!) ligt gewoon weer idioot hoog, terwijl geen enkele gebruiker fan zou moeten zijn multinationals.onsgeluk schreef op zaterdag 12 december 2020 @ 16:05:
[...]
Hoe je de brief ook leest, wel of niet tussen de regels; NVidia geeft hier expliciet aan dat als er niet op hun manier gereviewed wordt, je geen kaarten meer krijgt. Wat wij als consumers vinden van HU (objectief ja/nee) maakt niet eens meer uit.
NV doet hier een Trumpje, bully gedrag mijn inziens. Dit schreeuwt best wel hard ‘fake news’ richting HU.
Als blijkt dat Nvidia daadwerkelijk eist dat reviewers alleen nog maar positief zouden mogen schrijven over RT moet dat natuurlijk hard veroordeeld worden. Echter op basis van deze brief, ook als je tussen de regels doorleest, kan je dat niet concluderen.
[ Voor 10% gewijzigd door Dennism op 12-12-2020 16:12 ]
Klopt, zodra je je als reviewer moet houden aan vooropgestelde regels, ben je in mijn ogen niet geloofwaardig meer.onsgeluk schreef op zaterdag 12 december 2020 @ 16:05:
[...]
Hoe je de brief ook leest, wel of niet tussen de regels; NVidia geeft hier expliciet aan dat als er niet op hun manier gereviewed wordt, je geen kaarten meer krijgt. Wat wij als consumers vinden van HU (objectief ja/nee) maakt niet eens meer uit.
NV doet hier een Trumpje, bully gedrag mijn inziens. Dit schreeuwt best wel hard ‘fake news’ richting HU.
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
En dit is exact mijn issue met dit hele verhaal wat vannacht ook terecht door Linus werd aangehaald: hoe moeten we de media outlets die wel kaarten krijgen nu beoordelen? Want dat zou wel eens het ongewenste neveneffect kunnen krijgen; jullie hebben een kaart van NV, dus je bent biased.DJvL schreef op zaterdag 12 december 2020 @ 16:10:
[...]
Klopt, zodra je je als reviewer moet houden aan vooropgestelde regels, ben je in mijn ogen niet geloofwaardig meer.
Ik denk dat die marketing bobo hier onbedoeld een emmer stront tegen een hoogtoerige plafondventilator heeft gegooid.
Het gaat er niet om dat ze positief schrijven, maar dat ze het in de spotlight moeten zetten / aandacht aan moeten schenken in een mate dat het NV tevreden stelt. En dat durf ik weldegelijk uit de brief te concluderen en vind ik een uiterst zorgelijke ontwikkeling.Dennism schreef op zaterdag 12 december 2020 @ 16:10:
[...]
Als blijkt dat Nvidia daadwerkelijk eist dat reviewers alleen nog maar positief zouden mogen schrijven over RT moet dat natuurlijk hard veroordeeld worden. Echter op basis van deze brief, ook als je tussen de regels doorleest, kan je dat niet concluderen.
Regels zijn er altijd wel, iedere fabrikant heeft zich altijd te houden aan bepaalde afspraken. Wat echter wel zo zou moeten zijn is dat deze afspraken losstaan van de inhoud. Als zie je wel dat alle partijen, of het nu AMD, Intel of Nvidia is vaak wel met review guides komen waarin ze aangeven wat ze graag getest zouden willen zien e.d.DJvL schreef op zaterdag 12 december 2020 @ 16:10:
[...]
Klopt, zodra je je als reviewer moet houden aan vooropgestelde regels, ben je in mijn ogen niet geloofwaardig meer.
Dat is nu juist wat ik probeerde aan te gevenonsgeluk schreef op zaterdag 12 december 2020 @ 16:20:
[...]
Het gaat er niet om dat ze positief schrijven, maar dat ze het in de spotlight moeten zetten / aandacht aan moeten schenken in een mate dat het NV tevreden stelt. En dat durf ik weldegelijk uit de brief te concluderen en vind ik een uiterst zorgelijke ontwikkeling.
Dennism in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Dat het er juist om zou gaan dat er positieve berichtgeving geëist zou worden.
Sorry, dan las ik m verkeerdDennism schreef op zaterdag 12 december 2020 @ 16:24:
[...]Dat het er juist om zou gaan dat er positieve berichtgeving geëist zou worden.
computerjunky schreef op zaterdag 12 december 2020 @ 01:39:
[...]
Je mag het onzin vinden maar ik spreek als iemand die zo goed als ALLE video's van hun en anderen het afgelopen jaar gezien heb en een duit amd bias nasmaak bij veel video's kreeg. Maar gezien jou posts in het afgelopen jaar leun jij ook behoorlijk naar 1 kamp.
Het zijn dan ook altijd dezelfde die in de verdediging schieten als er ook maar iets positiefs over nvidia of negatiefs over amd gezegd word.
Nee, je bent zo'n beetje de enige hier die moeite heeft om bij iedere discussie dat 'AMD v Nvidia/Intel' -gewauwel er niet met de haren erbij te trekken; 'verdediging schieten', 'amd bias', 'gezien jouw posts', 'kampen.' Hou daar eens mee op..
Dat ze onafhankelijk zijn én er geld aan verdienen kun je er juist van uitgaan dat ze niet gekleurd zijn in hun werk. Het feit dat ze zich niet hebben laten chanteren bevestigd dit nog maar eens. En het feit dat ongeveer alle relevante techreviewers inmiddels hun steun aan HU hebben uitgesproken...zegt al met al mijns inziens meer dan genoeg. Dan blijft er van 'Hardware Unboxed is biased' dus niks over.Vergeet ook niet dat deze reviewers indirect geld verdienen aan deze review samples en je dus op zijn minst een onafhankelijke toon mag verwachten en de klant laat oordelen wat zij wel of niet boeiend vinden.
Verder het niet waard om woorden aan vuil te maken maar als nvidia had ik hetzelfde gedaan en het verbaast mij niet als intel dezelfde route neemt.
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Nnoitra in "[PC] Cyberpunk 2077 - Tech help"
De moeite waard om in de gaten te houden denk ik.
[ Voor 10% gewijzigd door Help!!!! op 12-12-2020 17:50 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Zoals we weten, haalt RDNA2 niet de performance van de nvidia kaarten in RT. De kans is dus klein dat we de komende jaren pure RT games gaan zien, omdat de consoles vergelijkbare chips hebben en dus niet voldoende performance halen. Of (console) games zitten straks weer allemaal op 30fps.
Dat maakt de positie van Hardware Unboxed ook wel redelijk: RT heeft nog weinig support van games, weinig hardware support, maar tankt performance enorm en ziet er net iets beter uit dan de standaard schaduw rendering technieken (als je gaat inzoomen en zo). Het gaat rasterization op de korte/middellange termijn dus niet (volledig) vervangen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik vind Steve van GN opvallend stil. Recent was er een ‘incidentje’ met een andere techtuber en MSI. Toen was het direct ‘Steve to the rescue’ om objectieve verslaggeving te waarborgen.Help!!!! schreef op zaterdag 12 december 2020 @ 18:13:
Goed om te zien dat ook een ander groot kanaal dit aan de orde stelt en sterk veroordeelt.
[YouTube: NVIDIA... You've officially gone TOO far this time...]
Er zullen er ook nog wel meer gaan komen ook, ik verwacht ook zeker iets van "de andere steve" hierover.Help!!!! schreef op zaterdag 12 december 2020 @ 18:13:
Goed om te zien dat ook een ander groot kanaal dit aan de orde stelt en sterk veroordeelt.
[YouTube: NVIDIA... You've officially gone TOO far this time...]
Ik ben wel benieuwd of we ooit het hele verhaal te horen krijgen, ik bedoel zo'n marketing VP van Nvidia moet toch ook weten dat zoiets totaal niet handig is op deze manier. Dit komt eerder over als een stagiar / junior die een mailtje uitstuurt met het onderschrift van de leidinggevende van de afdeling, zo ongelukkig als dit gegaan is.
Of er moet toch iets persoonlijks gaande zijn, al kan ik me dan eigenlijk met Steve van HUB bijna niet voorstellen, maar goed, niets is onmogelijk natuurlijk.
Steve van GN heeft al wel getwittert, vrijwel direct eigenlijk, dat HUB de ruimte krijgt hun verhaal eerst te doen, maar dat er zeker nog reactie zal komen. Op zich wel logisch, HUB is groot genoeg om zichzelf te profileren in deze, in tegenstelling tot het MSI geval.onsgeluk schreef op zaterdag 12 december 2020 @ 18:19:
[...]
Ik vind Steve van GN opvallend stil. Recent was er een ‘incidentje’ met een andere techtuber en MSI. Toen was het direct ‘Steve to the rescue’ om objectieve verslaggeving te waarborgen.
Won't be the last you hear of this. We'll let HUB start since it's their story, but they have our full support. Implying the demand for a "change" in "editorial direction" is way over the line. This makes NVIDIA look weak. This isn't necessary if the product is good. https://t.co/OXho45xQ73
— GamersNexus (@GamersNexus) 11 december 2020
Het is nog complexer. We weten namelijk niet of RDNA2 RT wel slechter is dan Ampere. Beter dan Turing lijkt het wel te zijn, maar dat is ook niet echt een standaard om te breken. Het zou namelijk kunnen dat RDNA beter is in het opbouwen van een BVH stuctuur en Ampere beter in ray box intersection testen. Het hele punt nu is om BVH structuren aan te maken om minder intersection testen uit te voeren.Tk55 schreef op zaterdag 12 december 2020 @ 17:53:
Wat ik bijzonder vindt aan deze discussie (nvidia VS Hardware Unboxed): Nvidia claimt dat RT revolutionair is en het landschap van gaming verandert. Dat is wellicht zo, maar wordt de brede adoptie van RT niet juist tegengehouden door de consoles?
Zoals we weten, haalt RDNA2 niet de performance van de nvidia kaarten in RT. De kans is dus klein dat we de komende jaren pure RT games gaan zien, omdat de consoles vergelijkbare chips hebben en dus niet voldoende performance halen. Of (console) games zitten straks weer allemaal op 30fps.
Dat maakt de positie van Hardware Unboxed ook wel redelijk: RT heeft nog weinig support van games, weinig hardware support, maar tankt performance enorm en ziet er net iets beter uit dan de standaard schaduw rendering technieken (als je gaat inzoomen en zo). Het gaat rasterization op de korte/middellange termijn dus niet (volledig) vervangen.
Favoriete filmpje van mij hier weer.
Voor Nvidia zou het dus kunnen zijn dat je eerder wil stoppen met die BVH fijnmaziger maken en door wilt gaan naar intersection testen tegen al die boxen. Voor AMD kan het juist zo zijn dat je langer door wil gaan met die BVH fijnmaziger maken zodat je minder intersection testen hoeft uit te voeren.
En dit is voor mij dus een reden om RDNA2 te willen overslaan. Ik wil weten hoe het precies gaat uitpakken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Toch raadde Steve de 3090 aan, als hij zou moeten kiezen tussen de 6900XT en de 3090.computerjunky schreef op vrijdag 11 december 2020 @ 13:40:
Tja betreft Hardware unboxed begrijp ik nvidia volkomen. Al sinds dag 1 zijn ze negatief over RTX Als ze toch je investeringen en game changing tech afzeiken zou ik ze ook geen saamples geven.
Hardware unboxed heeft wat mij betreft te persoonlijk en naar eigen mening gekeken ipv naar het brede geheel en dat voordeel geven ze amd vaak wel.
Zo blijven ze herhalen dat ze geen enkele driver problemen hadden met de amd kaarten ondanks het halve internet er vol mee stond.
Ze moeten iets neutraler leren te zijn wat mij betreft. Verder goede content hoor en aan de data zal het niet liggen maar de amd/intel/nvidia bias is toch wel duidelijk te vinden door hun eigen opinie (zie ook het afzeigen van de intel naamgeving wat ik nergens op vind slaan). En die opinie mag van mij achterwegen blijven. Laat de data voor zichzelf spreken.
Verder ben ik qua RTX nog altijd zelf ergens tussen wow en meh afhankelijk per spel. En bij de aanschaf van de gpu (ALS ze ooit terug gaan naar rond msrp) ben ik best berijd het RTX compromis te maken in deze fase. maar dlss is iets wat ondanks dat dat ook nog niet breed geimplementeerd is iets dat toch wel behoorlijk wat meerwaarde kan hebben.
mijn brein zien dus het volgende :
AMD:
+16 GB ram
-Drivers....
-Nutteloze Ray tracing
Nvidia
+DLSS
+RTX Voice
+Betere ray tracing
+-Reflex (moet zich nog maar eens bewijzen qua implementatie.
-10 gb ram
Misschien dat TI modellen als die ooit betaalbaar zijn doorslag kunnen geven..
Ik zou niet zeggen dat ray tracing van RDNA2 nutteloos is, het is in de meeste huidige titels nog niet geïmplementeerd.
DLSS 4k schijnt minder mooi te zijn dan native 4k, maar dat komt op YouTube niet over.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Nvidia heeft nu 2 jaar hun RTX en AMD nu net released. Nvidia claimed 10 jaar gewerkt te hebben om RT te implenteren, ga me nu niet vertellen dat AMD in 2 jaar tijd een competitief RT product heeft ontworpen... Corporate espionage is een dingetje en AMD zal al sinds GCN hiermee bezig zijn al dan niet eerder. Voordeel van AMD is gewoon dat ze veel open source doen (noodzaak ja) en ook custom zoals consoles, waar Nvidia zich te goed voor voelt (en ook niet nodig heeft).computerjunky schreef op zaterdag 12 december 2020 @ 15:07:
[...]
Naar mijn weten doet chill niets dat al niet lang mogelijk is met nvidia drivers or zelfs 3rd party software die bijna iedere gamers gebruikt om te overclocken. Een max fps instelen en linken aan de monitor refresh rate is gewoon een basis functie die er al jaren in zit.
Ik heb het dan ook alleen voer features die Nvidia wel heeft en AMD niet heeft.
En eerlijk is eerlijk ik hoop dat een deel van de nvidia opties ooit (liever gister dan vandaag) een open versie krijgen zodat dat bij de gpu keuze geen rol meer speelt. Maar vooralsnog heeft nvidia een hoop moois gebracht de afgelopen jaren.
Want eerlijk is eerlijk als Nvidia niet met rtx was gekomen had amd het echt niet uit eigen initiatief gedaan. Die lijke over het algemeen toch wel achter nvidia aan te lopen betreft featues onder druk van de consument die blijkbaar dus wel features wil.
En zeggen dat rtx voice maar voor een select groepje mensen is is volgens mij vrij kort door de bocht. Er zijn heel heel veel streamers. Dat de meeste van deze mensen niet bewust zijn van de mogelijkheden is denk ik een punt waar nvidia een fout begaat. Nvidia leunt heel heel veel op mond op mond reclame en en initiatief van de media en dit soort features blijven daarbij buiten schot.
Als meer streamers en gamers zich bewust worden van features als rtx voice zal het bekender en populairder worden.
Vergeet ook niet het gsync en freesync gedoe, in 2014 claimde NV dat gsync snel goedkoper ging worden maar dat is nooit gebeurd, ze hebben eigenhandig freesync de nek om gedraaid en het gsync compatible genoemd.
Features van NV komen meestal om een reden.
Ray tracing is een gimmick vooralsnog en de performance hit is nog te groot tenzij je op lage resoluties speelt. AMD hun implementatie met hun 6000 serie is niet slecht maar hetzelfde als de 2000 serie van NV, nog niet volwassen en vereist meer ontwikkeling.
AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX
Freesync = freesync. gsync compatible is freesync met een zeer grondige controle op de hardware aan de monitor kant voor fatsoenlijke ondersteuning. Daarom is freesync ook goedkoper en werkt gsync compatible beter/heeft een betere ervaring in gebruik. Alle slechte freesync monitoren zijn er namelijk al uitgefilterd.Richo999 schreef op zaterdag 12 december 2020 @ 21:38:
[...]
Nvidia heeft nu 2 jaar hun RTX en AMD nu net released. Nvidia claimed 10 jaar gewerkt te hebben om RT te implenteren, ga me nu niet vertellen dat AMD in 2 jaar tijd een competitief RT product heeft ontworpen... Corporate espionage is een dingetje en AMD zal al sinds GCN hiermee bezig zijn al dan niet eerder. Voordeel van AMD is gewoon dat ze veel open source doen (noodzaak ja) en ook custom zoals consoles, waar Nvidia zich te goed voor voelt (en ook niet nodig heeft).
Vergeet ook niet het gsync en freesync gedoe, in 2014 claimde NV dat gsync snel goedkoper ging worden maar dat is nooit gebeurd, ze hebben eigenhandig freesync de nek om gedraaid en het gsync compatible genoemd.
Features van NV komen meestal om een reden.
Ray tracing is een gimmick vooralsnog en de performance hit is nog te groot tenzij je op lage resoluties speelt. AMD hun implementatie met hun 6000 serie is niet slecht maar hetzelfde als de 2000 serie van NV, nog niet volwassen en vereist meer ontwikkeling.
AMD keek met 1 dichtgeknepen oog toe naar al die belabberde freesync monitoren en daarom wou nvidia er niets mee te maken hebben in het begin en is het nog altijd semi closed. Nvidia verbind niet blind zijn naam ergens aan wetend dat er problemen zijn en begrijpelijk. Neemt niet weg dat ik het belachelijk vind dat bedrijven ineens meer zijn gaan vragen voor monitoren die de gsync compatibel stamp kregen.
Gsync is trouwens nog altijd een betere feature. Het werkt over de gehele fps range en heeft minder andere nadelen zoals input lag. Maarja daar betaal je dan ook 150-250 meer voor. Iets wat ik overigens zelf niet bereid ben te doen.
En nvidia zou maar wat graag zijn chips in consoles stoppen maar het is niet goed voor de bottom line. Ze hebben beperkte productie zoals iedereen ondertussen wel weet en die gaan ze echt niet besteden aan chipjes voor een budget product. Als productie een non issue zou zijn en bijvoorbeeld samsung 5x zo veel zou kunnen produceren hadden ze er graag aan meegewerkt. geld is namelijk geld en een vaste klant is een vaste klant. Ze kiezen er alleen voor hun beperkte productie elders te gebruiken. dat is gewoon business.
Wees blij dat amd die deal heeft want die hadden ze de afgelopen 8 jaar hard nodig om nog wat af te zetten.
En wat is de reden volgens jou dat nvidia met ldat en pcat kwam? Daar winnen ze helemaal niets mee maar heel veel reviewers zijn er enorm blij mee. Persoonlijk zou ik ook wel en ldat willen voor mijn persoonlijke game testen. Alle beetjes helpen immers met het ouder worden.
In wat beelden van de loop simulator is het op bepaalde fronten zelfs beter als native. Op andere fronten is er inderdaad no wel wat te verbeteren maar hetzelfde geld voor bepaalde scaling die devs in games inbouwen zoals vegatatie in breakpoint waar ubi zelf een soort van scaling in heeft gepropt wat er niet bepaald fraai uit zien. En ook gears 5 zou denk ik mooier zijn met DLSS dan met wat ze zelf ingebakken hebben.sunsmountain schreef op zaterdag 12 december 2020 @ 21:34:
[...]
DLSS 4k schijnt minder mooi te zijn dan native 4k, maar dat komt op YouTube niet over.
Niet native gamen heeft wat mij betreft dan ook 4 mogelijke voordelen.
-Het verlengen van de levensduur van je gpu waardoor je meer war voor je geld krijgt. (dit is alleen het geval als je alleen bepaalde games speelt die het ondersteunen of als het breed geïmplementeerd wordt).
-Het langer op ultra kunnen spelen op een voor jou acceptabele resolutie.
-lagere power draw om kosten te drukken voor mensen die heel veel gamen zoals ikzelf. (kan al snel in de 100+ lopen met een 50% reductie in power draw.
-eerder op hogere resolutie gamen met toch hoge fps.
[ Voor 16% gewijzigd door computerjunky op 13-12-2020 12:08 ]
Sorry, maar dit raakt kant noch wal.computerjunky schreef op zaterdag 12 december 2020 @ 22:59:
[...]
Freesync = freesync. gsync compatible is freesync met een zeer grondige controle op de hardware aan de monitor kan voor fatsoenlijke ondersteuning. Daarom is freesunc ook goedkoper en werkt gsync compatible bter/heeft een betere ervating in gebruik. Alle slechte freesync monitoren zijn er namelijk al uitgefilterd.
AMD keer met 1 dichtgeknepen oog toe naar al die belabberde freesync monitoren en daarom wou nvidia er niets mee te maken hebben in het begin en is het nog altijd semi closed. Nvidia verbind niet blind zijn naam ergens aan wetend dat er problemen zijn en begrijpelijk. Neemt niet weg dat ik het belachelijk vind dat bedrijven ineens meer zijn gaan vragen voor monitoren die de gsync compatibel stamp kregen.
Gsync is trouwens nog altijd een betere feature. Het werkt over de gehele fps range en heeft minder andere nadelen zoals input lag. Maarja daar betaal je dan ook 150-250 meer voor. Iets wat ik overigens zelf niet bereid ben te doen.
En nvidia zou maar wat graag zijn chips in consoles stoppen maar het is niet goed voor de bottom line. Ze hebben beperkte productie zoals iedereen ondertussen wel weet en die gaan ze echt niet besteden aan chipjes voor een budget product. Als productie een non issue zou zijn en bijvoorbeeld samsung 5x zo veel zou kunnen produceren hadden ze er graag aan meegewerkt. geld is namelijk geld en een vaste klant is een vaste klant. Ze kiezen er alleen voor hun beperkte productie elders te gebruiken. dat is gewoon business.
Wees blij dat amd die deal heeft want die hadden ze de afgelopen 8 jaar hard nodig om nog wat af te zetten.
En wat is de reden volgens jou dat nvidia met ldat en pcat kwam? Daar winnen ze helemaal niets mee maar heel veel reviewers zijn er enorm blij mee. Persoonlijk zou ik ook wel en ldat willen voor mijn persoonlijke game testen. Alle beetjes helpen immers met het ouder worden.
Ps. Je weet dat dit het Radeon topic is?
Wat doet dat er toe. Kan er dan ineens geen cross talk meer zijn in een onderwerp die toch beide kanten aan gaat?onsgeluk schreef op zaterdag 12 december 2020 @ 23:04:
[...]
Sorry, maar dit raakt kant noch wal.
Ps. Je weet dat dit het Radeon topic is?
Dat JIJ het kant nog wal vind raken kan ik niets aan doen. Sommige mensen kijken gewoon naar het hele verhaal vanaf de zijlijn ipv met een gekleurd brilletje. Bij deze stop ik dus ook met deze onzinnige (niet eens discussie) want tweakers is duidelijk roder dan een Ferrari.
Mensen die in een Radeon topic positief zijn over AMD en minder over Nvidia. Crazy right?computerjunky schreef op zaterdag 12 december 2020 @ 23:07:
[...]
Wat doet dat er toe. Kan er dan ineens geen cross talk meer zijn in een onderwerp die toch beide kanten aan gaat?
Dat JIJ het kant nog wal vind raken kan ik niets aan doen. Sommige mensen kijken gewoon naar het hele verhaal vanaf de zijlijn ipv met een gekleurd brilletje. Bij deze stop ik dus ook met deze onzinnige (niet eens discussie) want tweakers is duidelijk roder dan een Ferrari.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Best wel ja... niet alle mensen bij de griek zijn dol op grieks en zijn anti op japans of italiaans en niet alle mensen op een 'gewoon' strand zijn meteen anti nudist en nudisten kunnen ook nog gewoon naar een gewoon strand.Jeroenneman schreef op zaterdag 12 december 2020 @ 23:08:
[...]
Mensen die in een Radeon topic positief zijn over AMD en minder over Nvidia. Crazy right?
Gewoon objectief blijven lijkt mij een veel slimmer idee. Maar dat blijkt voor velen toch net iets te veel gevraagd ...helaas.
Het gaat niet eens om de crosstalk, kon zijn dat je het even niet in de gaten had.computerjunky schreef op zaterdag 12 december 2020 @ 23:07:
[...]
Wat doet dat er toe. Kan er dan ineens geen cross talk meer zijn in een onderwerp die toch beide kanten aan gaat?
Dat JIJ het kant nog wal vind raken kan ik niets aan doen. Sommige mensen kijken gewoon naar het hele verhaal vanaf de zijlijn ipv met een gekleurd brilletje. Bij deze stop ik dus ook met deze onzinnige (niet eens discussie) want tweakers is duidelijk roder dan een Ferrari.
Het gaat me om deze zin:
Ze hebben beperkte productie zoals iedereen ondertussen wel weet en die gaan ze echt niet besteden aan chipjes voor een budget product.
wat absolute onzin is. Als NV de chips mag leveren omdat ze een beter bod hebben neergelegd bij MS en Sony, dan hadden ze dat met beide handen aangepakt. Simpele economieles, alles wat jij verkoopt, desnoods met minimale marge, kan niet door je concurrent verkocht worden.
*knip* lief zijnonsgeluk schreef op zaterdag 12 december 2020 @ 23:14:
[...]
Het gaat niet eens om de crosstalk, kon zijn dat je het even niet in de gaten had.
Het gaat me om deze zin:
Ze hebben beperkte productie zoals iedereen ondertussen wel weet en die gaan ze echt niet besteden aan chipjes voor een budget product.
wat absolute onzin is. Als NV de chips mag leveren omdat ze een beter bod hebben neergelegd bij MS en Sony, dan hadden ze dat met beide handen aangepakt. Simpele economieles, alles wat jij verkoopt, desnoods met minimale marge, kan niet door je concurrent verkocht worden.
-Alle fabs zijn productie capped.
-Nvidia heeft een beperkte fabricatie capaciteit bij TSMC en een beperkte fabricatie capaciteit bij Samsung.
Nvidia kan dus een beperkt aantal chips maken.
Ze kunnen die chips in tesla kaarten voor servers voor duizende dollars verkopen of voor peperduge gaming kaarten of voor consoles die in zijn geheel minder kosten als een midrange gaming gpu.
Alle producten verkopen al jaren uit dus verdienen ze meer of minder door geen console chips te maken en verkopen?
ALS nvidia extra fab space had gekregen bij die deal hadden ze dat gedaan maar dat is zeker weten niet het geval en dus kost het ze geld om die chips te leveren. Dat is ook waarom AMD het momenteen zo moeilijk heeft chips te verkopen. Ze hebben niet alleen meer producten in de maak (6xxx gpu , 5xxx cpu, nieuwe laptop chips met ingebakken gpu en ook nog 2 verschillende chips voor de 2 consoles) en dat met bijna geen extra fab space.
Die simepele economics moet je je toch nog even in verdiepen. er zijn zeker dit jaar namelijk heel veel limitaties aan die simpele economics waar je het over heb.
[ Voor 1% gewijzigd door Blaat op 16-12-2020 12:53 ]
Het enige wat Nvidia hypothetisch zou kunnen bieden is een ARM based APU. Maar die hebben ze nog niet ontwikkeld en Microsoft zou er weinig interesse voor hebben aangezien Xbox met Windows nu eenmaal een x86 platform is.
De overname van ATI destijds was een flinke gok, maar wel eentje die goed uitgepakt heeft voor AMD.
[ Voor 34% gewijzigd door XWB op 12-12-2020 23:40 ]
computerjunky schreef op zaterdag 12 december 2020 @ 23:24:
-Alle fabs zijn productie capped.
-Nvidia heeft een beperkte fabricatie capaciteit bij TSMC en een beperkte fabricatie capaciteit bij Samsung.
Nvidia kan dus een beperkt aantal chips maken.
Ze kunnen die chips in tesla kaarten voor servers voor duizende dollars verkopen of voor peperduge gaming kaarten of voor consoles die in zijn geheel minder kosten als een midrange gaming gpu.
Hier refereer je naar de huidige stand van zaken inzake capaciteit terwijl je zelf eerst rept over de afgelopen 8jr.computerjunky schreef op zaterdag 12 december 2020 @ 22:59:
Wees blij dat amd die deal heeft want die hadden ze de afgelopen 8 jaar hard nodig om nog wat af te zetten.
Buiten dat, als NV de klus had kunnen binnenhalen, dan hadden ze ook de capaciteit gehad. AMD zou 'm immers niet nodig hebben gehad als ik jouw redenatie 'probeer' te volgen. Wat trouwens ook niet klopt, niemand eist dat console-chips bij TSMC vandaan moeten komen.
En op basis van welke aanname redeneer je dat midrange chips uit dezelfde straat als de industriele en high-end gaming chips komen?
Fout! Ze verdienen het meeste door de markt te domineren en dus zelf de marktprijs te bepalen. Iets wat ze de afgelopen jaren dan ook hebben gedaan. Niets nieuw, Intel heeft AMD jarenlang klein weten te houden met rare fratsen en het heeft ze geen windeieren gelegd. Het simpelweg net niet kapot maken van de concurrentie...computerjunky schreef op zaterdag 12 december 2020 @ 23:24:
[...]
Alle producten verkopen al jaren uit dus verdienen ze meer of minder door geen console chips te maken en verkopen?
Nee, NVidia kan lekker uitleveren op het moment...computerjunky schreef op zaterdag 12 december 2020 @ 23:24:
[...]Dat is ook waarom AMD het momenteen zo moeilijk heeft chips te verkopen. Ze hebben niet alleen meer producten in de maak (6xxx gpu , 5xxx cpu, nieuwe laptop chips met ingebakken gpu en ook nog 2 verschillende chips voor de 2 consoles) en dat met bijna geen extra fab space.
Die simepele economics moet je je toch nog even in verdiepen. er zijn zeker dit jaar namelijk heel veel limitaties aan die simpele economics waar je het over heb.
Uit het NVidia topic, aangezien wij fanboys daar weigeren te kijken
https://twitter.com/Hardw...tatus/1337885741389471745
1. Afgelopen 8 jaar was er geen nieuwe console en zelfs de afgelopen 3 a 4 jaar heeft nvidia al niet genoeg productie gehad voor een globale vraag op ieder front.onsgeluk schreef op zaterdag 12 december 2020 @ 23:42:
[...]
[...]
Hier refereer je naar de huidige stand van zaken inzake capaciteit terwijl je zelf eerst rept over de afgelopen 8jr.
Buiten dat, als NV de klus had kunnen binnenhalen, dan hadden ze ook de capaciteit gehad. AMD zou 'm immers niet nodig hebben gehad als ik jouw redenatie 'probeer' te volgen. Wat trouwens ook niet klopt, niemand eist dat console-chips bij TSMC vandaan moeten komen.
En op basis van welke aanname redeneer je dat midrange chips uit dezelfde straat als de industriele en high-end gaming chips komen?
[...]
Fout! Ze verdienen het meeste door de markt te domineren en dus zelf de marktprijs te bepalen. Iets wat ze de afgelopen jaren dan ook hebben gedaan. Niets nieuw, Intel heeft AMD jarenlang klein weten te houden met rare fratsen en het heeft ze geen windeieren gelegd. Het simpelweg net niet kapot maken van de concurrentie...
[...]
Nee, NVidia kan lekker uitleveren op het moment...
2. Nee niemand eist dat console chips bij TSMC vandaan moeten komen maar er zijn nou eenmaal maar 2 spelers...en samsung is een nieuwe speler voor nvidia en niet een gok die je kan nemen met iets als consoles als je daar een contract voor tekent. In de toekomst kan samsung misschien wat van de load overnemen maar afgelopen jaren waren ze simpelweg geen optie en dus waren de nieuwe consoles eigenlijk al gebonden aan chips die bij TSMC uit de fabriek rolde ongeacht de chip designer.
3. Nee nvidia kan niet leveren dat is mijn hele punt... Beide AMD en Nvidia kunnen niet aan de vraag voldoen omdat er een te grote vraag is en niet genoeg fabrieks capaciteit...
4. Amd heeft zichzelf op de cpu markt klein weten te houden doordat ze simpelweg ruk chips produceerde daar is NIEMAND dan AMD schuldig aan. Ik zag bij de design layout val bulldozer al dat die het 2 cores op 1 fpu gewoon ontzettend dom was. en dat bleek gewoon zo te zijn en zelfs mijn phenom 940 4 vore destijds was sneller. Al die oude koeien slaan echt nergens meer op en waren toen al overdreven. Zo heeft amd ook aardig wat rare fratsen naar nvidia en intel uitgehaald maar daar hoor je niemand over. Denk bijvoorbeeld aan een aantal aankondigingen op beursen vlak voor intel en nvidia terwijl ze niet eens echt wat aan te kondigen hadden dan een hoop hype.
En 5 nvidia heeft blijkbaar de beslissing al terug gedraaid.
Truste.
[ Voor 3% gewijzigd door computerjunky op 13-12-2020 00:11 ]
1) dan ben jij nog steeds degene die over 8jr begint.computerjunky schreef op zaterdag 12 december 2020 @ 23:54:
[...]
1. Afgelopen 8 jaar was er geen nieuwe console en zelfs de afgelopen 3 a 4 jaar heeft nvidia al niet genoeg productie gehad voor een globale vraag op ieder front.
2. Nee niemand eist dat console chips bij TSMC vandaan moeten komen maar er zijn nou eenmaal maar 2 spelers...en samsung is een nieuwe speler voor nvidia en niet een gok die je kan nemen met iets als consoles als je daar een contract voor tekent. In de toekomst kan samsung misschien wat van de load overnemen maar afgelopen jaren waren ze simpelweg geen optie en dus waren de nieuwe consoles eigenlijk al gebonden aan chips die bij TSMC uit de fabriek rolde ongeacht de chip designer.
3. Nee nvidia kan niet leveren dat is mijn hele punt... Beide AMD en Nvidia kunnen niet aan de vraag voldoen omdat er een te grote vraag is en niet genoeg fabrieks capaciteit...
4. Amd heeft zichzelf op de cpu markt klein weten te houden doordat ze simpelweg ruk chips produceerde daar is NIEMAND dan AMD schuldig aan. Al die oude koeien slaan echt nergens meer op en waren toen al overdreven. Zo heeft amd ook aardig wat rare fratsen naar nvidia en intel uitgehaald maar daar hoor je niemand over. Denk bijvoorbeeld aan een aantal aankondigingen op beursen vlak voor intel en nvidia terwijl ze niet eens echt wat aan te kondigen hadden dan een hoop hype.
En 5 nvidia heeft blijkbaar de beslissing al terug gedraaid.
Truste.
2)True, maar dan nog ga je er blijkbaar vanuit dat midrange chips zoals jij ze noemt, uit dezelfde straat als het high-end spul komen.
3)De absurde vraag was op moment van inkoop (van capaciteit) niet te voorspellen en is dus geen reden om nee te zeggen tegen een mogelijke overeenkomst (los van het APU-argument van @XWB waar ik zelf niet eens bij stil stond)
4)Dit is me een pak onzin daar ga niet eens inhoudelijk op proberen te reageren.
*knip* niet doen
[ Voor 2% gewijzigd door Blaat op 16-12-2020 12:52 ]
dat is dus niet waar, Nvidia zit niet in de console markt omdat zij een product afleveren en daar moet je voor de rest vanaf blijven. Dit is o.a. de reden dat Apple geen Nvidia meer gebruikt en Microsoft en Sony ook niet, Nvidia levert de chips met een wurg contract. AMD heeft eigenlijk zover ik mij kan herinneren altijd custom hardware gedaan (mede om te overleven de laatste paar jaar maar toch).computerjunky schreef op zaterdag 12 december 2020 @ 22:59:
[...]
En nvidia zou maar wat graag zijn chips in consoles stoppen maar het is niet goed voor de bottom line. Ze hebben beperkte productie zoals iedereen ondertussen wel weet en die gaan ze echt niet besteden aan chipjes voor een budget product. Als productie een non issue zou zijn en bijvoorbeeld samsung 5x zo veel zou kunnen produceren hadden ze er graag aan meegewerkt. geld is namelijk geld en een vaste klant is een vaste klant. Ze kiezen er alleen voor hun beperkte productie elders te gebruiken. dat is gewoon business.
je punt hiermee is? AMD doet dit, Intel doet dit, Nvidia doet dit en eigenlijk ELK bedrijf in de wereld doet dit op de een of andere manier op een gegeven moment of wel eens vaker.. Amd heeft zichzelf op de cpu markt klein weten te houden doordat ze simpelweg ruk chips produceerde daar is NIEMAND dan AMD schuldig aan. Al die oude koeien slaan echt nergens meer op en waren toen al overdreven. Zo heeft amd ook aardig wat rare fratsen naar nvidia en intel uitgehaald maar daar hoor je niemand over. Denk bijvoorbeeld aan een aantal aankondigingen op beursen vlak voor intel en nvidia terwijl ze niet eens echt wat aan te kondigen hadden dan een hoop hype.
AMD heeft in de afgelopen 25 jaar 1 fout gemaakt met een architectuur zijnde bulldozer, dergelijke track record vind ik zo slecht nog niet. Intel heeft ditzelfde gehad met Netburst. AMD hoopte met bulldozer toen te bereiken wat ze nu met ZEN doen, pushe van meer cores naar de consumenten markt. dit heeft gefaald omdat de architectuur redelijke multicore had maar gewoon weg ruk IPC wat de chips slecht maakte omdat de meeste software toen single core was meestal. Intel had juist met netburst het omgedraaide gedaan die pushe extreme frequenties met een ruk IPC en adverteerde met frequenties.
Beide bedrijven hebben toen dit proberen te verbloemen wat ze niet gelukt is, verschil is dat Intel meer marketing kapitaal had dan AMD.
Over beursen gesproken, kan iemand die ene nog herinneren van Intel en hun CPU presentatie welke ACHTER de schermen sub-zero cooling nodig had om geadverteerde frequentie te behalen (wat ze trouwens niet vermeld hadden)?
[ Voor 43% gewijzigd door Richo999 op 13-12-2020 02:20 ]
AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX
Heb je je misschien afgevraagd hoe ze in die positie zijn beland (het is een van de factoren)? Intel ja. Intel heeft ze in het Pentium 4 tijdperk de markt uitgewerkt terwijl AMD de (veel) betere producten had. Hierdoor hebben ze minder liquide middelen kunnen opbouwen en dat dus niet in research kunnen stoppen.computerjunky schreef op zaterdag 12 december 2020 @ 23:54:
[...]
4. Amd heeft zichzelf op de cpu markt klein weten te houden doordat ze simpelweg ruk chips produceerde daar is NIEMAND dan AMD schuldig aan. Ik zag bij de design layout val bulldozer al dat die het 2 cores op 1 fpu gewoon ontzettend dom was. en dat bleek gewoon zo te zijn en zelfs mijn phenom 940 4 vore destijds was sneller. Al die oude koeien slaan echt nergens meer op en waren toen al overdreven. Zo heeft amd ook aardig wat rare fratsen naar nvidia en intel uitgehaald maar daar hoor je niemand over. Denk bijvoorbeeld aan een aantal aankondigingen op beursen vlak voor intel en nvidia terwijl ze niet eens echt wat aan te kondigen hadden dan een hoop hype.
Truste.
Intel heeft elke anti-trust/anti-competitive rechtzaak verloren hierover, alleen was de schade al gedaan.
Toch grappig dat ik in het P4 tijdperk voor computerwinkels werkte en toch voornamelijk AMD verkocht. Dat argument word steeds gemaakt dus ook nu nog 20 jaar later (10 jaar voordat amd er overigens zelf een zooitje van maakte) Sorry maar die vlieger gaat voor mij niet op.Sp3ci3s8472 schreef op zondag 13 december 2020 @ 14:27:
[...]
Heb je je misschien afgevraagd hoe ze in die positie zijn beland (het is een van de factoren)? Intel ja. Intel heeft ze in het Pentium 4 tijdperk de markt uitgewerkt terwijl AMD de (veel) betere producten had. Hierdoor hebben ze minder liquide middelen kunnen opbouwen en dat dus niet in research kunnen stoppen.
Intel heeft elke anti-trust/anti-competitive rechtzaak verloren hierover, alleen was de schade al gedaan.
tot en met de Phenom 2 940+ deden ze het prima en dat was al 9 jaar na je Pentium 4 tijdperk. Ze hebben het gewoon zelf verprutst met slechte designs en eindeloze rebrands van hetzelfde. Iets wat iedereen de afgelopen jaren overigens intel wel boven het hoofd houd...
Daarnaast was AMD zijn R%D budget van 2012 tot 2015 ook minimaal en toch kwamen ze met Ryzen en daarna RDNA. Je argument van een minder R&D budget gaat dus bij mij niet op.
De verantwoordelijkheid word als het op AMD aan komt nogal makkelijk afgeschoven maar oh wee als het over nvidia of intel gaat.
[ Voor 6% gewijzigd door computerjunky op 13-12-2020 14:58 ]
Het is een van de factoren, een slecht ontwerp is de schuld van AMD zelf.computerjunky schreef op zondag 13 december 2020 @ 14:56:
[...]
Toch grappig dat ik in het P4 tijdperk voor computerwinkels werkte en toch voornamelijk AMD verkocht. Dat argument word steeds gemaakt dus ook nu nog 20 jaar later (10 jaar voordat amd er overigens zelf een zooitje van maakte) Sorry maar die vlieger gaat voor mij niet op.
tot en met de Phenom 2 940+ deden ze het prima en dat was al 9 jaar na je Pentium 4 tijdperk. Ze hebben het gewoon zelf verprutst met slechte designs en eindeloze rebrands van hetzelfde. Iets wat iedereen de afgelopen jaren overigens intel wel boven het hoofd houd... De verantwoordelijkheid word als het op AMD aan komt nogal makkelijk afgeschoven maar oh wee als het over nvidia of intel gaat.
Broodje aap dat het voor jou in de computer winkel waar jij werkte ze wel goed verkochten. Niet meer dan logisch, dat zijn de tweakers en de mensen met wat meer kunde die die dingen kopen.
Waar het met die rechtzaken om gaat is dat OEM's met een veel grotere omzet dan die winkel geld toekregen van Intel. Dell is hierin een groot voorbeeld.
Ik kan me niet voorstellen dat mensen nu geen RTX kaart kopen (als ze verkrijgbaar zijn) om de 'ophef' die dit opgeleverd heeft. Win-Win voor Nvidia.
[ Voor 24% gewijzigd door Derby op 13-12-2020 18:13 ]
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
In dat opzicht... alleen ik weet niet of het slim is om alle grote techkanalen tegen je te hebben als Nvidia zijnde. Dat ze kleinere kanalen hiermee kunnen intimideren geloof ik wel, maar de grotere dus niet.Derby schreef op zondag 13 december 2020 @ 18:11:
Toch een briljante marketing actie van Nvidia door het sturen van dat briefje aan HUB. Zo jammer dat ze dat inzicht missen bij AMD. In elke reactie gaat het vervolgens over RTX en raytracing. Raytracing wordt zo gelijk aan Nvidia RTX.
Ik kan me niet voorstellen dat mensen nu geen RTX kaart kopen (als ze verkrijgbaar zijn) om de 'ophef' die dit opgeleverd heeft. Win-Win voor Nvidia.
Daarnaast heb je de AMD fanboys of Nvidia haters meer ammunitie gegeven naast het GPP debacle.
Ik heb een aantal vrienden het laatste jaar een Nvidia kaart aangeraden omdat ik ondanks mijn afgunst tegen Nvidia ze wel het beste product voor hun usecase wil geven. Als je denkt dat ik dat nu nog ga doen, dan heeft Nvidia dat heel fout.
Kort samengevat: Nvidia maakt echt mooie hardware; maar wat een klote bedrijf is het.
[ Voor 4% gewijzigd door Sp3ci3s8472 op 13-12-2020 18:46 ]
Stel nu eens dat ze daarop gerekend hebben en al wisten dat ze HUB gewoon weer kaarten op zouden sturen. Ze wilde alleen eerst even de buzz creëren. Ik heb geen verstand van marketing, maar ik denk dat dit voor Nvidia heel goed uit gaat pakken.Sp3ci3s8472 schreef op zondag 13 december 2020 @ 18:29:
[...]
In dat opzicht... alleen ik weet niet of het slim is om alle grote techkanalen tegen je te hebben als Nvidia zijnde. Dat ze kleinere kanalen hiermee kunnen intimideren geloof ik wel, maar de grotere dus niet.
Er zullen zeker mensen zijn die dit gedrag niet zullen belonen. Ik denk dat Nvidia erop gokt dat het geheugen van de grote massa niet zo lang is.Daarnaast heb je de AMD fanboys of Nvidia haters meer ammunitie gegeven naast het GPP debacle.
Ik heb een aantal vrienden het laatste jaar een Nvidia kaart aangeraden omdat ik ondanks mijn afgunst tegen Nvidia ze wel het beste product voor hun usecase wil geven. Als je denkt dat ik dat nu nog ga doen, dan heeft Nvidia dat heel fout.
Die youtubers hebben ook boter op hun hoofd of zijn hartstikke hypocriet. Zij maken er een filmpje over, wat ze weer inkomsten oplevert, en noemen daarbij meermalen het raytracing-toverwoord. Precies was Nvidia graag ziet.
Het zou mooi zijn als men zo ook bij AMD gaat denken. Ergens hebben ze dat al gedaan met de melding van het niet werkend maken van de 5000 serie CPU's op 400 serie moederborden, nu weer de eis van SAM alleen met een 5000 serie CPU en 500 serie moederbord. Controverse levert in het huidige markt landschap een hoop aandacht op.
[ Voor 9% gewijzigd door Derby op 13-12-2020 18:58 . Reden: quote tag weg ]
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Maar ik weet het niet bij jou, maar ik ben al jaren en jaren geen ICTer meer, maar ik ken niemand in mijn kennissengroep die me niet bellen/mailen/txten als ze iets nieuws willen kopen, en " wij" als computernerds zijn ondertussen ook niet meer met weinig, ik denk dat bijna elk mens (iig in de westerse wereld), wel iemand kent die goed op de hoogte is van de laatste ontwikkelingen in computerland.... (ik vraag namelijk ook wel eens advies aan dan weer een andere waarvan ik weet dat hij beter is in dat gebied).Derby schreef op zondag 13 december 2020 @ 18:54:
[...]
Stel nu eens dat ze daarop gerekend hebben en al wisten dat ze HUB gewoon weer kaarten op zouden sturen. Ze wilde alleen eerst even de buzz creëren. Ik heb geen verstand van marketing, maar ik denk dat dit voor Nvidia heel goed uit gaat pakken.
[...]
Er zullen zeker mensen zijn die dit gedrag niet zullen belonen. Ik denk dat Nvidia erop gokt dat het geheugen van de grote massa niet zo lang is.
Die youtubers hebben ook boter op hun hoofd of zijn hartstikke hypocriet. Zij maken er een filmpje over, wat ze weer inkomsten oplevert, en noemen daarbij meermalen het raytracing-toverwoord. Precies was Nvidia graag ziet.
Het zou mooi zijn als men zo ook bij AMD gaat denken. Ergens hebben ze dat al gedaan met de melding van het niet werkend maken van de 5000 serie CPU's op 400 serie moederborden, nu weer de eis van SAM alleen met een 5000 serie CPU en 500 serie moederbord. Controverse levert in het huidige markt landschap een hoop aandacht op.
Uiteindelijk probeer ik te zeggen, er zijn nog maar weinig mensen die "blind" iets kopen, ze zijn er wel, maar ik zou dat (zonder feiten of exacte cijfers) rond de 10-15% plaatsen, en dan kunnen zulke grapjes dus veel meer schade kosten dan baten.
Hier meldt zich er een.... Ik heb altijd gezegd dat als nVidia de betere kaart neerzet, ondanks dat ik AMD fanboy ben, ik toch voor een nVidia zou gaan. Nu is het gewoon AMD of niks.Derby schreef op zondag 13 december 2020 @ 18:11:
Ik kan me niet voorstellen dat mensen nu geen RTX kaart kopen (als ze verkrijgbaar zijn) om de 'ophef' die dit opgeleverd heeft. Win-Win voor Nvidia.
[ Voor 10% gewijzigd door zion op 13-12-2020 19:16 ]
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Ik ken dat zeker. Dat gebeurt in mijn kennissen kring ook nog geregeld. Ik zal ook niet snel Nvidia aanraden.zion schreef op zondag 13 december 2020 @ 19:08:
[...]
Maar ik weet het niet bij jou, maar ik ben al jaren en jaren geen ICTer meer, maar ik ken niemand in mijn kennissengroep die me niet bellen/mailen/txten als ze iets nieuws willen kopen, en " wij" als computernerds zijn ondertussen ook niet meer met weinig, ik denk dat bijna elk mens (iig in de westerse wereld), wel iemand kent die goed op de hoogte is van de laatste ontwikkelingen in computerland....
Het is ook jammer dat het niet te achterhalen is wat de impact van deze ophef zal zijn. Kaarten zijn niet beschikbaar, van beide fabrikanten niet. Mensen lijken erg sterk toe te willen geven aan nú willen hebben.
Ik zou het mooi vinden als Nvidia de keerzijde voelt van deze actie. De mensen in dit draadje zullen al snel niet voor Nvidia kiezen. Dat is de enige manier waarmee Jensen gestuurd kan worden.Hier meldt zich er een.... Ik heb altijd gezegd dat als nVidia de betere kaart neerzet, ondanks dat ik AMD fanboy ben, ik toch voor een nVidia zou gaan. Nu is het gewoon AMD of niks.
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Is met SAM van AMD toch niet heel anders? Ze maken er ook een eigen marketing term van icm Zen3 terwijl resizeable bar al sinds de Haswell generatie hardwarematige support heeft in Intel CPU's... Zen2 (toevallig, zeg het maar) niet en komt AMD met iets 'nieuws'.DJvL schreef op zaterdag 12 december 2020 @ 15:49:
[...]
Hier vergis jij je behoorlijk in. Nvidia heeft dit niet bedacht. Ze doen alsof ze het bedacht hebben. Hoe lang denk je al dat AMD met de nieuwe consoles bezig was en ray tracing samen met Microsoft ontwikkeld heeft voor o.a. dx12?
Het maakt mij inmiddels niet zoveel meer uit. Je ziet het gedrag bij alle fabrikanten verschijnen die het grote geld zien of al binnen krijgen. In de Intel geschiedenis, en bij AMD zie je het helaas ook al nu ze in een paar jaar tijd meer en meer marktaandeel kunnen veroveren. Dat is een knappe prestatie en wij hebben er als consument ook de voordelen van gezien op CPU gebied met soms halvering van prijzen. Met de nadruk op gezien. Het is dan ook niet te hopen dat een van deze bedrijven weer een monopoly gaat krijgen in de komen de jaren. Laat de concurrentie maar mooi zo door gaan en dat het niet bijzonder veel uit maakt van welke fabrikanten je een systeem samen stelt. Zolang de autoriteiten er maar op toezien dat er geen prijsafpraken plaats vinden zijn wij beter af als ze allemaal een mooi stukje hardware op de markt blijven brengen.Derby schreef op zondag 13 december 2020 @ 19:58:
[...]
Ik ken dat zeker. Dat gebeurt in mijn kennissen kring ook nog geregeld. Ik zal ook niet snel Nvidia aanraden.
Het is ook jammer dat het niet te achterhalen is wat de impact van deze ophef zal zijn. Kaarten zijn niet beschikbaar, van beide fabrikanten niet. Mensen lijken erg sterk toe te willen geven aan nú willen hebben.
[...]
Ik zou het mooi vinden als Nvidia de keerzijde voelt van deze actie. De mensen in dit draadje zullen al snel niet voor Nvidia kiezen. Dat is de enige manier waarmee Jensen gestuurd kan worden.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
AMD heeft tot nu toe nog geen echt rare trekjes laten zien, zodra ze dat wel gaan doen dan pas ga ik Intel weer overwegen (indien die iets sneller te bieden heeft); gezien Intel in het verleden zoveel shit hebben uitgehaald hebben ze nog een lange weg te gaan voordat ik ze serieus neem.M-spec schreef op zondag 13 december 2020 @ 22:11:
[...]
Is met SAM van AMD toch niet heel anders? Ze maken er ook een eigen marketing term van icm Zen3 terwijl resizeable bar al sinds de Haswell generatie hardwarematige support heeft in Intel CPU's... Zen2 (toevallig, zeg het maar) niet en komt AMD met iets 'nieuws'.
[...]
Het maakt mij inmiddels niet zoveel meer uit. Je ziet het gedrag bij alle fabrikanten verschijnen die het grote geld zien of al binnen krijgen. In de Intel geschiedenis, en bij AMD zie je het helaas ook al nu ze in een paar jaar tijd meer en meer marktaandeel kunnen veroveren. Dat is een knappe prestatie en wij hebben er als consument ook de voordelen van gezien op CPU gebied met soms halvering van prijzen. Met de nadruk op gezien. Het is dan ook niet te hopen dat een van deze bedrijven weer een monopoly gaat krijgen in de komen de jaren. Laat de concurrentie maar mooi zo door gaan en dat het niet bijzonder veel uit maakt van welke fabrikanten je een systeem samen stelt. Zolang de autoriteiten er maar op toezien dat er geen prijsafpraken plaats vinden zijn wij beter af als ze allemaal een mooi stukje hardware op de markt blijven brengen.
Als je kijkt naar de prijzen van CPU's dan zijn we in 3 jaar van een 8c/16t van 1000 euro naar 680-900 euro voor een heel veel snellere 16c/32t gegaan.
Wat SAM betreft, ik vind dat ze met AM4 al genoeg backwards compatibility hebben. Het zou wel mooi zijn als ze op Windows ook SAM voor oudere kaarten toestaan. Er is winst te halen als je de benchmarks van Phoronix ziet.
https://www.phoronix.com/...art-Access-Memory-Initial
[ Voor 8% gewijzigd door Sp3ci3s8472 op 13-12-2020 22:58 . Reden: url ]
Een persbericht eruit gooien om te af te tasten hoe men er tegenover zou staan als Zen3 X570 only zou zijn bijvoorbeeld. Even later na een storm aan kritiek, wat gek, 16MB bios BS(er zijn X570 met 16MB), MSI AM4 future proof claim, en dan alsnog 'overstag' gaan. Dat was geen goodwill actie en hadden ze iedereen kunnen besparen. Al dat gerommel, PCIE4 X470 welles nietes, zelfs werkende te krijgen op X370 maar weer uit de bios etc. X470 Zen3>X370 alpha bios schijn nog ergens in de maak te zijn. Het is allemaal een pot nat met een ander naampje zonder prestatie voordelen, zo bekijk ik het tenminste. Dan hebben we ergens nog B550. Maar oké, bij Intel wist je meteen waar je aan toe was, ook niet in positieve zin.Sp3ci3s8472 schreef op zondag 13 december 2020 @ 22:55:
[...]
AMD heeft tot nu toe nog geen echt rare trekjes laten zien, zodra ze dat wel gaan doen dan pas ga ik Intel weer overwegen (indien die iets sneller te bieden heeft); gezien Intel in het verleden zoveel shit hebben uitgehaald hebben ze nog een lange weg te gaan voordat ik ze serieus neem.
Als je kijkt naar de prijzen van CPU's dan zijn we in 3 jaar van een 8c/16t van 1000 euro naar 680-900 euro voor een heel veel snellere 16c/32t gegaan.
Wat SAM betreft, ik vind dat ze met AM4 al genoeg backwards compatibility hebben. Het zou wel mooi zijn als ze op Windows ook SAM voor oudere kaarten toestaan. Er is winst te halen als je de benchmarks van Phoronix ziet.
https://www.phoronix.com/...art-Access-Memory-Initial
Op naar DDR5, dual channel per dimm (x1,5 effectief), zijn we van het AM4 geneuzel af. Voor de rest werkt het allemaal nog naar tevredenheid.
Wat GPU's betreft is SAM misschien terug te koppelen op oudere kaarten icm Intel CPU's. Pre-Zen3 CPU's hebben zonder hardwarematige support naar het schijnt enorme latencies wat niet gaat helpen. Maar met een wat engineering van de gamedevelopers erbij (ivm shared Vram consoles?) kan het voor nieuwe/andere combinaties misschien een prima voordeelje gaan opleveren op de PC. Alle beetjes helpen.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Dit was misschien niet netjes maar denk ik ook niet goed geplanned. Als je op bepaalde borden dus Zen 3 wilt hebben dan werkt Zen en Zen+ niet meer; een collega van mij had ik mijn oude 1700x even willen lenen zodat hij zijn bord kon testen (hij wachte nog op zijn Zen 3 CPU). Dat was niet mogelijk omdat hij al een bios update had waardoor dat niet meer mogelijk was.M-spec schreef op zondag 13 december 2020 @ 23:46:
[...]
Een persbericht eruit gooien om te af te tasten hoe men er tegenover zou staan als Zen3 X570 only zou zijn bijvoorbeeld. Even later na een storm aan kritiek, wat gek, 16MB bios BS(er zijn X570 met 16MB), MSI AM4 future proof claim, en dan alsnog 'overstag' gaan. Dat was geen goodwill actie en hadden ze iedereen kunnen besparen. Al dat gerommel, PCIE4 X470 welles nietes, zelfs werkende te krijgen op X370 maar weer uit de bios etc. X470 Zen3>X370 alpha bios schijn nog ergens in de maak te zijn. Het is allemaal een pot nat met een ander naampje zonder prestatie voordelen, zo bekijk ik het tenminste. Dan hebben we ergens nog B550. Maar oké, bij Intel wist je meteen waar je aan toe was, ook niet in positieve zin.
Op naar DDR5, dual channel per dimm (x1,5 effectief), zijn we van het AM4 geneuzel af. Voor de rest werkt het allemaal nog naar tevredenheid.
De situatie die je nu hebt is gewoon raar; je moet als klant nu uitkijken dat je niet een bios update hebt die je onbruikbaar maakt voor je huidige CPU als dat een Zen of Zen+ is.
Dus ik snap waarom ze die keuze destijds probeerden.
AMD of de moederbord fabrikanten hadden hier meer rekening kunnen houden met meer opslag voor een bios.
Erger nog, zelfs updates voor X470 bios'en met 32MB nemen ze soms de moeite niet voor en strippen ze van die mogelijkheid.Sp3ci3s8472 schreef op maandag 14 december 2020 @ 00:06:
[...]
Dit was misschien niet netjes maar denk ik ook niet goed geplanned. Als je op bepaalde borden dus Zen 3 wilt hebben dan werkt Zen en Zen+ niet meer; een collega van mij had ik mijn oude 1700x even willen lenen zodat hij zijn bord kon testen (hij wachte nog op zijn Zen 3 CPU). Dat was niet mogelijk omdat hij al een bios update had waardoor dat niet meer mogelijk was.
De situatie die je nu hebt is gewoon raar; je moet als klant nu uitkijken dat je niet een bios update hebt die je onbruikbaar maakt voor je huidige CPU als dat een Zen of Zen+ is.
Dus ik snap waarom ze die keuze destijds probeerden.
AMD of de moederbord fabrikanten hadden hier meer rekening kunnen houden met meer opslag voor een bios.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.