Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Dit gaat steeds meer voelen als een goedkope manier om gamers hoop te laten hebben, dat er meer voorraad gaat komen en ze makkelijker een videokaart kunnen kopen. Dus eigenlijk zijn al de wijzigingen voor niks geweest? Eerst de driver die is gelekt en nu dit.
Nvidia was eventueel van plan om de andere kaarten EOL te laten gaan en opnieuw te lanceren, met de hashratebeperking. Heeft dit dan nog wel zin?
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
[ Voor 25% gewijzigd door Help!!!! op 22-03-2021 10:58 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Dat was het ook altijd.RobinNL schreef op maandag 22 maart 2021 @ 10:20:
[...]
Dit gaat steeds meer voelen als een goedkope manier om gamers hoop te laten hebben, dat er meer voorraad gaat komen en ze makkelijker een videokaart kunnen kopen. Dus eigenlijk zijn al de wijzigingen voor niks geweest? Eerst de driver die is gelekt en nu dit.
Nvidia was eventueel van plan om de andere kaarten EOL te laten gaan en opnieuw te lanceren, met de hashratebeperking. Heeft dit dan nog wel zin?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar toen ik las dat ze ook de chip noemden vermoedde ik meteen al dat het onzin was. Dat had GA106 een heel ander beest gemaakt dan alle andere Ampère chips. Dat zou al in het kern ontwerp van Ampère gezeten moeten hebben. Je hebt het dan over mechanismes als Apple's T-chips of AMD's PSP. Dat doen ze echt niet voor een lullige (sorry
Zoals Steve van GN al zei; wel 'toevallig' zo na de uitspraak over de zaak van aandeelhouders betreffende de inkomsten uit gaming/mining is er ineens 'per ongeluk' een driver uitgebracht die de beperking ongedaan maakt.Help!!!! schreef op maandag 22 maart 2021 @ 10:57:
Denk dat het sowieso altijd al meer een maatregel voor de buhne was dan dat het effect zou hebben.
En toch, ookal was het voor de buhne en is er ook veel vraag tav mining, het is op dit moment de complete chipindustrie die tekorten heeft. Het is helaas een samenhang van.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Het kan toch NIET blijven duren?! Veel te lang wachten, alles is schuld door hebzuchtige miners... Nood nieuwe afdeling bvb:
- Geforce RTX (betaalbaar zoals voordien)
- Geforce Quadro (betaalbaar voordien)
- Geforce Crypto (onbetaalbaar om bestand tegen crypto) 😡
Als Geforce Crypto betaalbaar maakt, zullen we videokaart Geforce RTX niet kunnen kopen se.
Het begint me écht zuur, door dit alles. zucht
Mvg
T
EDIT: kan niet aanpak? bvb weredwijd aanklagen ofzo?
[ Voor 4% gewijzigd door TQMA op 22-03-2021 13:08 ]
Dat is wel een beetje kort door de bocht. Had je dit artikel al gelezen? reviews: Waarom zijn gpu's opeens bizar duur? - Na tekorten nu ook prijsstijg...TQMA schreef op maandag 22 maart 2021 @ 13:06:
Ik was van plan deze week videokaart te bestellen (preorder), helaas niet doorgaan omdat belachelijk/dubbel prijs gevraagd is...
Het kan toch NIET blijven duren?! Veel te lang wachten, alles is schuld door hebzuchtige miners... Nood nieuwe afdeling bvb:
[...]
Het is niet alleen de miners. Er is gewoon een te kort (o.a. door het coronavirus) en dat treft niet alleen Nvidia of AMD. Autofabrikanten hebben hier ook last van. Het zijn verschillende punten wat tot deze 'storm' heeft geleid.
Ik zit zelf ook te wachten tot de videokaarten weer beter leverbaar zijn. Al verwacht ik dat we dan eerder naar 2022 moeten gaan kijken. Tot die tijd moet ik het even blijven doen met mijn GTX 680.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
RobinNL schreef op maandag 22 maart 2021 @ 13:17:
[...]
Dat is wel een beetje kort door de bocht. Had je dit artikel al gelezen? reviews: Waarom zijn gpu's opeens bizar duur? - Na tekorten nu ook prijsstijg...
Het is niet alleen de miners. Er is gewoon een te kort (o.a. door het coronavirus) en dat treft niet alleen Nvidia of AMD. Autofabrikanten hebben hier ook last van. Het zijn verschillende punten wat tot deze 'storm' heeft geleid.
Ik zit zelf ook te wachten tot de videokaarten weer beter leverbaar zijn. Al verwacht ik dat we dan eerder naar 2022 moeten gaan kijken. Tot die tijd moet ik het even blijven doen met mijn GTX 680.
De chip gaf het bij mij ook helemaal weg, maar om een andere reden. GA106 zal ongeveer een jaar geleden al voltooid zijn en daarna productie gereed gemaakt zijn. Ik betwijfelde dus ernstig of Nvidia even een TEE zou gaan ontwerpen, inbouwen en implementeren in een paar weken omdat er opeens wat miners waren.Werelds schreef op maandag 22 maart 2021 @ 12:46:
Niet echt een verrassing. Hun "secure handshake" is ook je reinste onzin. Volgens hen zou het tussen de driver, de chip en de BIOS gaan. De BIOS en de driver zijn in dat verhaal allebei kwetsbaar. Zelfs zonder de leak had er echt wel iemand uitgevogeld hoe ze dat moesten omzeilen in minstens één van de twee. Beide zijn te dumpen en aan te passen of zelfs decompileren. Had het een paar maanden kunnen werken? Vast wel. Eenmaal gevonden zou de pret echter alsnog voorbij zijn.
Maar toen ik las dat ze ook de chip noemden vermoedde ik meteen al dat het onzin was. Dat had GA106 een heel ander beest gemaakt dan alle andere Ampère chips. Dat zou al in het kern ontwerp van Ampère gezeten moeten hebben. Je hebt het dan over mechanismes als Apple's T-chips of AMD's PSP. Dat doen ze echt niet voor een lullige (sorry) chip als GA106.
Het was altijd een cynische cash grab om te proberen miners zover te krijgen om mining kaarten te kopen en tegelijkertijd te doen alsof ze ook maar iets gaven om gamers die gewoon een veel te dure videokaart voor MSRP wenste te kopen. Je moet toch iets doen om de belachelijke prijzen te verantwoorden die beide kampen tegenwoordig durven te vragen. Nvidia is je vriend hoor die dit liever ook niet had gewenst.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://videocardz.com/ne...tx-3070-ti-gets-ga104-400
Wie goed doet, die goed ontmoet.
Met name de DLSS functionaliteit is een mooie toevoeging aan de Switch want die snelheidsboost zonder de GPU zelf te belasten kan heel handig zijn in zwaardere games, zeker ook met accu tijd en warmte in gedachten.
Wat dat betreft, nVidia heeft dedicated hardware voor deze DLSS functie. We wachten al een tijdje op AMD, maar zij moeten het puur op de shaders doen, softwarematig. Is dat niet veel moeilijker om te doen?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Slim inderdaad om het op de Switch te gaan gebruiken. In een low power apparaat kan het best wel wat toevoegen.XanderDrake schreef op dinsdag 23 maart 2021 @ 09:30:
Op de Frontpage: Er komt mogelijk een nieuwe Nintendo Switch met een nVidia RTX Chipset.
Met name de DLSS functionaliteit is een mooie toevoeging aan de Switch want die snelheidsboost zonder de GPU zelf te belasten kan heel handig zijn in zwaardere games, zeker ook met accu tijd en warmte in gedachten.
Wat dat betreft, nVidia heeft dedicated hardware voor deze DLSS functie. We wachten al een tijdje op AMD, maar zij moeten het puur op de shaders doen, softwarematig. Is dat niet veel moeilijker om te doen?
Volgens mij zitten ze nog zelfs te kijken of ze het met ML willen doen. Daar zijn ze nog niet uit; volgens mij was de schatting eind 2021. Zie ook de stream van PCWorld met AMD Scott Herkelman als gast.
Softwarematig, als in via de compute shaders is waarschijnlijk niet heel veel moeilijker. Zie bijvoorbeeld Control waar versie 1.9 de versie is met compute shaders en dat de basis was voor DLSS 2.0 wat weer op Tensor cores draaid. (@Werelds verbeter me maar indien nodig
[ Voor 4% gewijzigd door Sp3ci3s8472 op 23-03-2021 16:19 ]
Ik vermoed dat 1.9 ook gebruik maakte van de tensor cores, het zal eerder het netwerk zijn dat nog niet al te best was. De tensor cores zijn gewoon bij uitstek geschikt voor dat soort werk. Ik denk dat juist 1.0 niet op dezelfde manier gebruik maakte van de tensor cores, in de zin dat het wel sneller loopt op tensor cores maar niet specifiek er voor gebouwd is. Maar weten doe ik het ook niet, is nogal een zwarte doosSp3ci3s8472 schreef op dinsdag 23 maart 2021 @ 16:19:
[...]
Slim inderdaad om het op de Switch te gaan gebruiken. In een low power apparaat kan het best wel wat toevoegen.
Volgens mij zitten ze nog zelfs te kijken of ze het met ML willen doen. Daar zijn ze nog niet uit; volgens mij was de schatting eind 2021. Zie ook de stream van PCWorld met AMD Scott Herkelman als gast.
Softwarematig, als in via de compute shaders is waarschijnlijk niet heel veel moeilijker. Zie bijvoorbeeld Control waar versie 1.9 de versie is met compute shaders en dat de basis was voor DLSS 2.0 wat weer op Tensor cores draaid. (@Werelds verbeter me maar indien nodig).
Wat ik wel vaak lees, zoals ook @XanderDrake hier boven (sorry!
Het is en blijft een semantisch verschil, maar het is wel belangrijk om te begrijpen wat deze technologie doet. DLSS is een ML algoritme dat specifieke inputs van de game krijgt en op basis daarvan het gerenderde frame opschaalt naar een hogere resolutie. Dat kan technisch gezien ook op de CPU, het wordt dan wel heel traag doordat het om een heel groot aantal berekeningen gaat.
Een tensor (wiskundig gezien) beschrijft hoe twee objecten elkaar beïnvloeden in een vector ruimte. Dat klinkt heel vaag en dat is het ook. Ik weet niet wie er hier bekend is met vector-/matrixvermenigvuldiging, maar met twee vectors heb je al een tensor te pakken. Dit klinkt allemaal heel ingewikkeld, maar de meesten hier hebben zoiets echt wel eens gezien, zij het op een iets simpelere wijze. Bij natuurkunde krijg je al geleerd dat er op een bal die je weg gooit twee krachten werken (wrijving tellen we maar even niet mee
Voor diegenen die niet bekend zijn met matrixvermenigvuldiging, dat ziet er zo uit:
1
2
3
| | A1 | | A1B1 | A1B2 | | | x [B1, B2] = | | | | A2 | | A2B1 | A2B2 | |
Op een GPU of CPU vereist dit normaal gesproken dus 4 berekeningen - in het ergste geval dus minstens 4 kloktikken!. De data die er uit komt is ook groter dan beide inputs. Stel je nu voor wat er gebeurt als je in plaats van deze twee simpele "lijntjes", blokken van 3 bij 4 met elkaar gaat vermenigvuldigen? De benaming "tensor core" vind ik persoonlijk dan ook een beetje ongelukkig, want het doet eigenlijk teniet waar die krengen toe in staat zijn. Die doen dat allemaal in slechts één tik. Het is natuurlijk niet zo dat je oneindig grote matrices er in kunt gooien, maar het feit dat ze zoiets binnen één tik doen is waar het om draait.
Terug naar DLSS en consorten. Het ML algoritme achter DLSS heeft toevallig een hoop van dit soort dingen. Het gaat immers om bewegende beelden, dus er zijn tal van vectoren. En laat die vervolgens ook nog eens in 3 dimensies plaats vinden? Matrices zijn dus aan de orde van de dag, waardoor die tensor cores heel erg van pas komen. De inputs voor DLSS en waarschijnlijk AMD's implementatie (vanuit de game) bestaat voor een groot deel uit motion vectors. Daarnaast wordt er ook minstens één oud frame gebruikt (maar volgens mij zijn het er meerdere) om mee te interpoleren.
Om dan in te gaan op de vraag of dat niet moeilijker is op shaders: nee, moeilijker is het an sich niet. Het is wel moeilijker om het te doen zónder daarbij de algemene render performance pijn te doen. Dit is echter waar we ook rekening moeten houden met het feit dat AMD's ALU's niet hetzelfde zijn als die van Nvidia. AMD kan 4 8-bit integers (INT8) in hun 32-bit ALU's stoppen en ze ook met 4xFP32 performance verwerken. De reden dat ik hier INT8 noem is dat dat best veel voor komt bij dit soort netwerken. Het zou zomaar kunnen dat AMD er door hun flexibelere ALU's genoeg performance uit kan halen om het goed te laten lopen. Nvidia's tensor cores blijven natuurlijk efficiënter, omdat je geen shaders op hoeft te offeren, maar het kan best.
Vergeet niet dat je met zoiets als DLSS op bijvoorbeeld 1440p rendert met 2160p als doel. Er zijn tal van GPU's die veel games op 1440p met gemak draaien, maar op 2160p terug zakken naar 50-60% van de performance. Als een game 150 FPS draait op 1440p (6,67ms) en slechts 85 FPS (11,8ms) op 2160p, dan kun je zonder problemen 2-3ms spenderen aan zo'n ML algoritme en alsnog meer frames halen. Even effectief als DLSS? Nee. Maar er is wel ruimte
Edit: ik heb overigens geen flauw benul hoe veel tijd DLSS nodig heeft om z'n ding te doen. Vanavond eens naar Googlen
Top uitleg.Werelds schreef op dinsdag 23 maart 2021 @ 17:48:
[...]
Ik vermoed dat 1.9 ook gebruik maakte van de tensor cores, het zal eerder het netwerk zijn dat nog niet al te best was. De tensor cores zijn gewoon bij uitstek geschikt voor dat soort werk. Ik denk dat juist 1.0 niet op dezelfde manier gebruik maakte van de tensor cores, in de zin dat het wel sneller loopt op tensor cores maar niet specifiek er voor gebouwd is. Maar weten doe ik het ook niet, is nogal een zwarte doos
Wat ik wel vaak lees, zoals ook @XanderDrake hier boven (sorry!) is dat Nvidia "hardware voor DLSS heeft". Het is juist andersom: ze hebben een software algoritme dat uitermate geschikt is voor dat specifiek stukje hardware
Het is en blijft een semantisch verschil, maar het is wel belangrijk om te begrijpen wat deze technologie doet. DLSS is een ML algoritme dat specifieke inputs van de game krijgt en op basis daarvan het gerenderde frame opschaalt naar een hogere resolutie. Dat kan technisch gezien ook op de CPU, het wordt dan wel heel traag doordat het om een heel groot aantal berekeningen gaat.
Een tensor (wiskundig gezien) beschrijft hoe twee objecten elkaar beïnvloeden in een vector ruimte. Dat klinkt heel vaag en dat is het ook. Ik weet niet wie er hier bekend is met vector-/matrixvermenigvuldiging, maar met twee vectors heb je al een tensor te pakken. Dit klinkt allemaal heel ingewikkeld, maar de meesten hier hebben zoiets echt wel eens gezien, zij het op een iets simpelere wijze. Bij natuurkunde krijg je al geleerd dat er op een bal die je weg gooit twee krachten werken (wrijving tellen we maar even niet mee): voorwaarts momentum (jouw worp) en de zwaartekracht. De combinatie van die twee vectoren bepaalt waar de bal de grond raakt.
Voor diegenen die niet bekend zijn met matrixvermenigvuldiging, dat ziet er zo uit:
code:
1 2 3 | A1 | | A1B1 | A1B2 | | | x [B1, B2] = | | | | A2 | | A2B1 | A2B2 |
Op een GPU of CPU vereist dit normaal gesproken dus 4 berekeningen - in het ergste geval dus minstens 4 kloktikken!. De data die er uit komt is ook groter dan beide inputs. Stel je nu voor wat er gebeurt als je in plaats van deze twee simpele "lijntjes", blokken van 3 bij 4 met elkaar gaat vermenigvuldigen? De benaming "tensor core" vind ik persoonlijk dan ook een beetje ongelukkig, want het doet eigenlijk teniet waar die krengen toe in staat zijn. Die doen dat allemaal in slechts één tik. Het is natuurlijk niet zo dat je oneindig grote matrices er in kunt gooien, maar het feit dat ze zoiets binnen één tik doen is waar het om draait.
Terug naar DLSS en consorten. Het ML algoritme achter DLSS heeft toevallig een hoop van dit soort dingen. Het gaat immers om bewegende beelden, dus er zijn tal van vectoren. En laat die vervolgens ook nog eens in 3 dimensies plaats vinden? Matrices zijn dus aan de orde van de dag, waardoor die tensor cores heel erg van pas komen. De inputs voor DLSS en waarschijnlijk AMD's implementatie (vanuit de game) bestaat voor een groot deel uit motion vectors. Daarnaast wordt er ook minstens één oud frame gebruikt (maar volgens mij zijn het er meerdere) om mee te interpoleren.
Om dan in te gaan op de vraag of dat niet moeilijker is op shaders: nee, moeilijker is het an sich niet. Het is wel moeilijker om het te doen zónder daarbij de algemene render performance pijn te doen. Dit is echter waar we ook rekening moeten houden met het feit dat AMD's ALU's niet hetzelfde zijn als die van Nvidia. AMD kan 4 8-bit integers (INT8) in hun 32-bit ALU's stoppen en ze ook met 4xFP32 performance verwerken. De reden dat ik hier INT8 noem is dat dat best veel voor komt bij dit soort netwerken. Het zou zomaar kunnen dat AMD er door hun flexibelere ALU's genoeg performance uit kan halen om het goed te laten lopen. Nvidia's tensor cores blijven natuurlijk efficiënter, omdat je geen shaders op hoeft te offeren, maar het kan best.
Vergeet niet dat je met zoiets als DLSS op bijvoorbeeld 1440p rendert met 2160p als doel. Er zijn tal van GPU's die veel games op 1440p met gemak draaien, maar op 2160p terug zakken naar 50-60% van de performance. Als een game 150 FPS draait op 1440p (6,67ms) en slechts 85 FPS (11,8ms) op 2160p, dan kun je zonder problemen 2-3ms spenderen aan zo'n ML algoritme en alsnog meer frames halen. Even effectief als DLSS? Nee. Maar er is wel ruimte
Edit: ik heb overigens geen flauw benul hoe veel tijd DLSS nodig heeft om z'n ding te doen. Vanavond eens naar Googlen
Wat er gebeurt is dan ook typisch, ik heb een jaar geleden ofzo BFV met raytracing uitgeprobeerd op mijn GTX 1080 Ti. Ging opzich vrij goed (60fps@1080p@Ultra), behalve dan als je snel je muis beweegt en dat er dan ineens allerlei nieuwe rays door je gezichtsveld vliegen. Het hele renderen loopt vervolgens vast omdat de engine eerst moet wachten op de Ray Tracing voordat het een nieuwe frame van pushen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Soortgelijk probleem ja, echter gaat het bij RT om nog wel wat meer dingen. Het rekenwerk achter DLSS is in verhouding vrij simpel. Bij RT moet je berekenen welke straal wat raakt en waar de straal heen kaatst. Dat laatste is in principe eenvoudig (refractie gooit wat roet in het eten, maar over het algemeen vrij simpel). Het probleem vooral in het "wat het raakt". Objecten kunnen overlappen, dus je moet echt tot onder poly niveau uitvogelen welk deel van welk object onder welke hoek zichtbaar is voordat je die berekening kunt doen. Het daadwerkelijke rekenwerk is niet lastig, er is alleen heel veel vanXanderDrake schreef op dinsdag 23 maart 2021 @ 18:31:
[...]
Top uitleg.Doet me denken aan dat Ray Tracing ook werkt op non-RTX kaarten, maar dat je dan kostbare GPU cycles daarvoor moet inzetten om náást het normale renderen de zichtslijnen te berekenen.
Met RT is het nagenoeg onmogelijk een balans te vinden, maar met dit soort supersampling is er iets meer ruimte.
Yep. Dat is waarom je in veel 3D editors bij het bewegen van de camera een super lage resolutie te zien krijgt die dan geleidelijk met meer en meer detail wordt gerenderd als het beeld weer stil staat. Weinig detail, super noisy belichting en dan bij stilstand bij elk frame iets meer detail en denoising toevoegen.Wat er gebeurt is dan ook typisch, ik heb een jaar geleden ofzo BFV met raytracing uitgeprobeerd op mijn GTX 1080 Ti. Ging opzich vrij goed (60fps@1080p@Ultra), behalve dan als je snel je muis beweegt en dat er dan ineens allerlei nieuwe rays door je gezichtsveld vliegen. Het hele renderen loopt vervolgens vast omdat de engine eerst moet wachten op de Ray Tracing voordat het een nieuwe frame van pushen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Bron: https://videocardz.com/ne...to-ga102-300-for-rtx-3090As it turns out, NVIDIA is indeed already remaking GA102-250 GPUs for RTX 3090. HardwareLuxx member ‘iso0’ bought a Founders Edition of the flagship NVIDIA SKU with plans to install a water block. To his surprise the graphics card had laser engraving mentioning GA102-250 GPU later changed to GA102-300:
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Ook wel logisch. Door de tekorten verkopen zelfs 3090's als warme broodjes. Dus het zou zonde zijn om exact dezelfde chip in een goedkopere SKU te zetten.RobinNL schreef op zondag 28 maart 2021 @ 14:38:
De GA102-250 GPU die eigenlijk voor de RTX 3080 Ti zou worden gebruikt, wordt nu gebruikt voor de RTX 3090. Ze hebben blijkbaar gewoon een streep door de GA102-250 gezet en daaronder de naam GA102-300 geplaatst.
[...]
Bron: https://videocardz.com/ne...to-ga102-300-for-rtx-3090
Wie goed doet, die goed ontmoet.
Dit maakt een linux only pc met gaming als optie een stuk makkelijker!
Ik moet zeggen dat sinds Valve vol heeft ingezet op Proton, ik me eigenlijk niet zo druk meer maak rondom gaming op Linux.JulianvDijk schreef op donderdag 1 april 2021 @ 14:16:
NVIDIA Now Allows GeForce GPU Pass-Through For Windows VMs On Linux
Dit maakt een linux only pc met gaming als optie een stuk makkelijker!
Maar deze pass-through is nog steeds vrij handig, want niet alles draait op Steam; EA games heb ik vaak nog op Origin staan.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Deel vd conclusie:
Out of our 22 game test suite, that's 12 titles, which is pretty decent. The gains vary wildly, though—around 20% (!!) in Gears 5 and almost nothing in other titles. On average, we saw a 2–4% performance improvement from Resizable BAR when counting titles with BAR support in the driver. Now, we of course have 10 more titles in our test suite without BAR support, which drags down the overall average, but I feel that looking at "BAR-only" games is the better approach since almost every title will benefit from Resizable BAR, it's just a matter of game support. While "a few percent" doesn't sound like much, it's free extra performance for a minimal investment and no loss in image quality. I wish I had insight into how many man-hours GPU makers spend on BAR support vs. traditional driver game optimizations.
Not all is green in the land of BAR. In our Watch Dogs Legions testing—a title that has NVIDIA's BAR blessings—I found a performance regression at 1080p. Once Resizable BAR is enabled, FPS rates are limited to around 80 FPS no matter the hardware. I repeatedly tested this with the same result. There's also some chatter online about various stutter issues with NVIDIA's FPS limiter, or monitoring software. Considering we're on NVIDIA's first driver, this is not a big deal, they'll get this fixed in no time
I am surprised we have to dig up the required VBIOS update on board partner sites and trust that their updater does the right thing all the time. Hint: It does not, there are quite a few reports about failed flashes.
NVIDIA, with their tight grip on partners, could have certainly devised a centralized solution provided by NVIDIA that verifies and distributes the BIOS updates. AMD just got lucky this time around because their RDNA2 cards were developed with PCIe Resizable BAR support in mind, which meant it didn't have to be added at a later time (remember RX 5600 XT BIOS updates?).
[ Voor 89% gewijzigd door Help!!!! op 02-04-2021 17:10 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Het zou fijn zijn als het ook voor de RTX 20xx Turing series uit zou komen,
vooral omdat de 30xx series voorlopig nog voor het gross onbetaalbaar zijn.
control alt oeps deleted
Hey doe Pascal dan ook even!cazzie schreef op zaterdag 3 april 2021 @ 12:41:
[...]
Het zou fijn zijn als het ook voor de RTX 20xx Turing series uit zou komen,
vooral omdat de 30xx series voorlopig nog voor het gross onbetaalbaar zijn.
Wie goed doet, die goed ontmoet.
[ Voor 4% gewijzigd door 418O2 op 03-04-2021 16:03 ]
Wat is er mis met gratis performance? Als game developers hier in de toekomst een beetje rekening meehouden dan hebben we of meer FPS of meer pracht op het scherm.418O2 schreef op zaterdag 3 april 2021 @ 16:02:
Vind dat hele BAR verhaal een beetje ophef om nika. De winst is verschrikkelijk marginaal. Enige game waar het veel winst oplevert draait toch al 150+ fps
Ik vraag me af of het mogelijk is om het op een per game basis aan of uit te kunnen zetten omdat het nu nog vaak hit/miss is.
Er is niks mis mee, maar het is een complex verhaal met veel afhankelijkheden (drivers, biossen van moederborden en GPU's en dan een paar procent winst. Terwijl ze het brengen alsof het een revolutie is.Sp3ci3s8472 schreef op woensdag 7 april 2021 @ 12:21:
[...]
Wat is er mis met gratis performance? Als game developers hier in de toekomst een beetje rekening meehouden dan hebben we of meer FPS of meer pracht op het scherm.
Ik vraag me af of het mogelijk is om het op een per game basis aan of uit te kunnen zetten omdat het nu nog vaak hit/miss is.
Volgens mij is het aan per default, maar hebben ze nu bewust een aantal titels niet supported omdat er geen winst uit te halen is. Ik wacht eerst even op de usb fix in de x570 chipset voor in het bios ga updaten en de BAR ga testen. Ben benieuwd of die paar extra frames in AC Valhalla uberhaupt op gaat vallen.Sp3ci3s8472 schreef op woensdag 7 april 2021 @ 12:21:
[...]
Ik vraag me af of het mogelijk is om het op een per game basis aan of uit te kunnen zetten omdat het nu nog vaak hit/miss is.
Volgens mij is het bin amd+ amd altijd aan, bij amd + intel altijd aan, bij intel+ nvidia geregeld per profiel van de games en is er dus driver support per game nodig. En bij amd + nvidia verwacht ik hetzelfde aangezien het in drivers geregeld is. Zag dit toevallig voorbij komen bij een techtuber vandeweek weet even niet welke.Sp3ci3s8472 schreef op woensdag 7 april 2021 @ 12:21:
[...]
Wat is er mis met gratis performance? Als game developers hier in de toekomst een beetje rekening meehouden dan hebben we of meer FPS of meer pracht op het scherm.
Ik vraag me af of het mogelijk is om het op een per game basis aan of uit te kunnen zetten omdat het nu nog vaak hit/miss is.
Hoop dat amd dat ook gaat doen want altijd aan is een slecht idee aangezien er games slechter van worden.
Ja vooral de bios update van de gpu vind ik in deze tijd nogal een onacceptabel risico die ik niet zou nemen voor een paar % fps.418O2 schreef op woensdag 7 april 2021 @ 12:22:
[...]
Er is niks mis mee, maar het is een complex verhaal met veel afhankelijkheden (drivers, biossen van moederborden en GPU's en dan een paar procent winst. Terwijl ze het brengen alsof het een revolutie is.
Nvidia had het beter links kunnen laten liggen en bij de 4xxx gewoon alles direct goed regelen.
[ Voor 24% gewijzigd door computerjunky op 07-04-2021 13:34 ]
Voor Nvidia videokaarten buiten de RTX3060 moet je waarschijnlijk de vbios flashen om BAR te activeren.
Maar het resultaat verrast me eigenlijk niet zo. Voor Nvidia is het echt all over the place. Soms winnen ze een paar procent, vaak winnen ze een procent of niks en er zijn ook een aantal games waar ze prestaties verliezen. Hun implementatie lijkt echt een marketingstunt te zijn om maar te claimen dat ze het ook hebben. Want voor de meeste games is het verschil niet goed te onderscheiden.
Bij AMD is er merkbare tot serieuze winst voor bijna elke geteste titel en is er maar een waar het resultaat negatief is. Daar is het overduidelijk wel van meerwaarde.
Tweede is dat er dit jaar geen nieuwe architectuur volgt. De volgende zou "Ampere next" zijn. Nvidia lijkt dus nog op hun tweejarige cyclus te zitten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Fixed that for ya. Voor een paar procent op 4k ga ik me niet wagen aan een vbios flash, zeker nu de prijzen zo hoog zijn en beschikbaarheid zo laag dat een fuckup kan leiden tot een langdurig onbruikbare pcDaniëlWW2 schreef op dinsdag 13 april 2021 @ 14:06:
Zo te zien zat Australische Steve hier stiekem te lezen.
[YouTube: Nvidia Resizable BAR Tested, As Good as AMD SAM?]
Voor Nvidia videokaarten buiten de RTX3060 moet je waarschijnlijk de vbios flashen om BAR te activeren.
Beetje zelfde verhaal als voor RT bij AMD op dit moment. Bij Nvidia is het de overweging waard in sommige gevallen, zeker icm met DLSS. Bij AMD kun je het beter maar helemaal laten zitten tot ze het fatsoenlijk gaan implementeren. Wie weet wat er nog aan verbetering komt voor BAR, die 9% in AC valhalla is veelbelovend maar als het maar winst geeft in een enkele titel en soms een downgrade is, dan is het geen killer feature. LTT is overigens een stuk minder kritisch en vond het wel de moeite waard voor nvidia producten.Maar het resultaat verrast me eigenlijk niet zo. Voor Nvidia is het echt all over the place. Soms winnen ze een paar procent, vaak winnen ze een procent of niks en er zijn ook een aantal games waar ze prestaties verliezen. Hun implementatie lijkt echt een marketingstunt te zijn om maar te claimen dat ze het ook hebben. Want voor de meeste games is het verschil niet goed te onderscheiden.
Bij AMD is er merkbare tot serieuze winst voor bijna elke geteste titel en is er maar een waar het resultaat negatief is. Daar is het overduidelijk wel van meerwaarde.
Ik verwacht echt geen nieuwe architectuur dit jaar voor beide merken om heel eerlijk te zijn. Er is niet voldoende leverbaar geweest om de R&D terug te verdienen. Daarnaast zal het echt nog een tijd duren voordat de leveringsproblemen over zijn en prijzen op nominaal niveau zitten. Dan ga je niet gelijk een nieuwe serie aankondigen om hetzelfde probleem weer van voor af aan te krijgen. LaaTweede is dat er dit jaar geen nieuwe architectuur volgt. De volgende zou "Ampere next" zijn. Nvidia lijkt dus nog op hun tweejarige cyclus te zitten.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Nvidia probeert nu het minen met haar bestaande videokaarten te ontmoedigen.
Zou een andere insteek niet veel verstandiger zijn? Dat ze een kaart maken sec voor de miners. Een kaart die zo efficiënt is deze het minen met 'normale' videokaarten onrendabel maakt?
Of liggen de benodigde hardware voor game-versnelling en minen zo dicht bij elkaar dat dit niet praktisch mogelijk is?
If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel
Er zijn al mining kaarten en daarvoor komen er nog veel meer. Zo uit mn hoofd op de Pascal architectuur..alexbl69 schreef op vrijdag 16 april 2021 @ 16:05:
[...]
Nvidia probeert nu het minen met haar bestaande videokaarten te ontmoedigen.
Zou een andere insteek niet veel verstandiger zijn? Dat ze een kaart maken sec voor de miners. Een kaart die zo efficiënt is deze het minen met 'normale' videokaarten onrendabel maakt?
Of liggen de benodigde hardware voor game-versnelling en minen zo dicht bij elkaar dat dit niet praktisch mogelijk is?
De blokkade op de 3060 komt wellicht ook bij de toekomstige 3070, 3080 en 3090 maar das nog in de wandelgangen
Aan de ene kant is deze launch niet echt te vergelijken met de vorige launches, vooral vanwege corona en de grote chip tekorten.
Bron: https://nl.hardware.info/...rie-was-beste-launch-ooitNvidia heeft op de laatste investeerderspresentatie gezegd dat de lancering van de GeForce 30-serie de beste launch ooit was. Het bedrijf heeft twee keer zoveel kaarten verkocht in vergelijking met de vorige generatie.
De fabrikant laat weten dat de vraag naar de nieuwe gpu’s de eerste 18 weken al gigantisch was en daarna alleen nog maar vele malen groter is geworden. Nvidia zegt dat de rtx-technologie van de nieuwe kaarten een goede reden is voor mensen om te upgraden en noemt het zelfs een nieuwe standaard die een reset van de installed base teweeg heeft gebracht.
Ehm... juist
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Dat is natuurlijk gewoon marketing voor de aandeelhouders. Dat moet je niet direct serieus nemenRobinNL schreef op vrijdag 16 april 2021 @ 18:19:
Nvidia: 'Ampere launch was beste launch ooit'
Aan de ene kant is deze launch niet echt te vergelijken met de vorige launches, vooral vanwege corona en de grote chip tekorten.
[...]
Bron: https://nl.hardware.info/...rie-was-beste-launch-ooit
Ehm... juistEerder door de vraag omdat veel gamers de RTX 2000 serie heeft overgeslagen. RT kan leuk zijn, maar is volgens mij voor veel gamers eerder een extraatje dan iets wat ze echt nodig hebben.
Zijn geen slimme aandeelhouders als ze daar niet doorheen kunnen prikkenDennism schreef op vrijdag 16 april 2021 @ 18:36:
[...]
Dat is natuurlijk gewoon marketing voor de aandeelhouders. Dat moet je niet direct serieus nemen
Edit: En inmiddels is de 3080ti ook (nou de doos dan) gespot.
[ Voor 21% gewijzigd door AtlAntA op 17-04-2021 15:23 ]
Wie goed doet, die goed ontmoet.
Ik had het gelezen ja. Hoe zal dit gaan met de openstaande bestellingen bij webshops? Ik dacht zelf dat dit een v1.1 gaat worden en dat bestellingen blijven staan, dat eerst de v1.0 wordt geleverd en gevolgd door de v1.1 met de beperking. Andere mensen denken dat bestellingen worden geannuleerd door deze SKU wijziging.
De eerste optie zorgt ervoor dat de webshops de videokaarten tegen een hoge inkoopprijs en een lage verkoopprijs moeten uitleveren. De tweede optie zorgt voor minder bestellingen (de klanten die voor €8xx een RTX 3080 hebben gekocht gaan echt niet allemaal een nieuwe bestellen voor €2000+) en natuurlijk duizenden boze klanten.
Wat verwachten jullie eigenlijk?
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Veel webshops hebben bestaande bestellingen geannuleerd. Die klanten hebben helaas 3 tot 6 maanden op niks gewacht en krijgen hun geld terug.RobinNL schreef op maandag 19 april 2021 @ 12:55:
[...]
Ik had het gelezen ja. Hoe zal dit gaan met de openstaande bestellingen bij webshops? Ik dacht zelf dat dit een v1.1 gaat worden en dat bestellingen blijven staan, dat eerst de v1.0 wordt geleverd en gevolgd door de v1.1 met de beperking. Andere mensen denken dat bestellingen worden geannuleerd door deze SKU wijziging.
De eerste optie zorgt ervoor dat de webshops de videokaarten tegen een hoge inkoopprijs en een lage verkoopprijs moeten uitleveren. De tweede optie zorgt voor minder bestellingen (de klanten die voor €8xx een RTX 3080 hebben gekocht gaan echt niet allemaal een nieuwe bestellen voor €2000+) en natuurlijk duizenden boze klanten.
Wat verwachten jullie eigenlijk?
Binnenkort bieden die webshops de nieuwe versies aan van de 3k serie kaarten. Waarbij de 3070 rond de 1k tot 1200 is en de 3080 tussen de 1500 en 1700, ofwel nieuw aanbod maar wel voor veel hogere prijs.
Normaal gesproken zorgt zoiets voor een Sku wijzigiging. Het komt voor zover mij bekend maar weinig voor dat een product als deze aanpassingen krijgt in deze mate dat er weer sprake is van een nieuwe revisie, maar niet van een ander EAN.RobinNL schreef op maandag 19 april 2021 @ 12:55:
[...]
Ik had het gelezen ja. Hoe zal dit gaan met de openstaande bestellingen bij webshops? Ik dacht zelf dat dit een v1.1 gaat worden en dat bestellingen blijven staan, dat eerst de v1.0 wordt geleverd en gevolgd door de v1.1 met de beperking. Andere mensen denken dat bestellingen worden geannuleerd door deze SKU wijziging.
De eerste optie zorgt ervoor dat de webshops de videokaarten tegen een hoge inkoopprijs en een lage verkoopprijs moeten uitleveren. De tweede optie zorgt voor minder bestellingen (de klanten die voor €8xx een RTX 3080 hebben gekocht gaan echt niet allemaal een nieuwe bestellen voor €2000+) en natuurlijk duizenden boze klanten.
Wat verwachten jullie eigenlijk?
Ik zou er dus niet vreemd van opkijken dat wanneer dit nieuws klopt er veel bestaande Sku's op EOL komen te staan en vervangen worden door nieuwe Sku's. Wat mijn inziens in dat geval ook zal betekenen dat er veel orders geannuleerd zullen worden.
Sowieso denk ik dat momenteel al die pre orders niet houdbaar zijn. Voor zover ik het kan inschatten zetten alle fabrikanten in op hun duurste modellen (logisch, waarom goedekopere uitvoeringen produceren wanneer de duurdere uitvoeringen ook de deur uit vliegen, zelfs bij zwaar inflated pricing), waardoor de goedkope modellen, welke vaak de meeste wachtrij hebben, sowieso niet of amper geleverd worden. En van wat ik zie in de markt heb ik ook niet het idee dat deze kaarten er snel wel gaan komen. Wat dat betreft vind ik het EOL zetten door een fabrikant, mochten ze dat meer gaan doen ook niet geheel onlogisch.
Hij biedt producten aan tegen bepaalde voorwaarden (waaronder de prijs), is het dan niet zijn (ondernemers) risico?
Anders zal hij hooguit weg komen met een gelijkwaardig alternatief lijkt me (en dat is dus niet "hetzelfde product voor 50% meer geld, of een gelijk kostend product wat 25% minder goed is).
Of er moet in de (pre-)order voowaarden wat anders staan, maar ik heb iets als ontbinding door de verkoper nog nooit gezien.
Anders lijkt me een rente van 5%/jaar voor het "lenen" van geld wel op zn plaats. Je had het ook kunnen investeren (best case scenario in een paar altcoins, dan had je nu genoeg voor de duurdere versie
Maargoed, ik ben geen jurist.
Blijft denk ik de optie over voor de kopers om een schade vergoeding te vragen, die verwacht ik niet groter kan zijn dan het verschil tussen de prijs bij pre-order en de prijs van een vergelijkbaar model nu (vraag is dan wel wat is vergelijkbaar, de ene 3080 is de andere niet, zo is de Trio X een kaart is een andere categorie dan een Vantus) echter ik vraag me af of je deze schade goed genoeg kan onderbouwen en of een rechter het binnen de grenzen van het redelijke en billijk te vinden om deze schadevergoeding toe te kennen, gezien deze onzekerheid vraag ik me af of bij zo'n rechtszaak de kosten zullen opwegen tegen de baten.
Een rente of wat dan ook voor de vooruit betaling verwacht ik niet dat je daar wettelijk gezien recht op hebt.
Alleen dit: "MSI GTX 1070 Ti Armor 8GB".
Als dat "model" nog gewoon leverbaar is (het zij met andere SKU/EAN), moet er geleverd worden?
Edit: ik zie nu SKU/EAN vaak wel op de bestelpagina, maar of het ook op de order komt?
[ Voor 16% gewijzigd door mitsumark op 19-04-2021 17:06 ]
Nu kunnen ze dus lekker de duurdere modellen verkopen of een iets afwijkend model uitbrengen met een hogere prijs.
2023 zal het wat beter worden ik wens je veel suc6 ik adviseer om wat geld achteruit te zetten en dan voor iets meer geld gewoon 1 kopen.TQMA schreef op maandag 22 maart 2021 @ 13:06:
Ik was van plan deze week videokaart te bestellen (preorder), helaas niet doorgaan omdat belachelijk/dubbel prijs gevraagd is...
Het kan toch NIET blijven duren?! Veel te lang wachten, alles is schuld door hebzuchtige miners... Nood nieuwe afdeling bvb:
- Geforce RTX (betaalbaar zoals voordien)
- Geforce Quadro (betaalbaar voordien)
- Geforce Crypto (onbetaalbaar om bestand tegen crypto) 😡
Als Geforce Crypto betaalbaar maakt, zullen we videokaart Geforce RTX niet kunnen kopen se.
Het begint me écht zuur, door dit alles. zucht
Mvg
T
EDIT: kan niet aanpak? bvb wereldwijd aanklagen ofzo?
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Heb mijn RTX Asus Tuf 3090 OC voorzien van de laatste bios en in mijn Asus Prime 390-A de laatste beta bios
Geladen.
En nu werkt de resizable bar. Ik moest nog wat instellingen in het moederbord bios veranderen.
Zie niet veel vooruitgang ik hoop dat er nog wat aan gewerkt word net zo als ze dat met DLSS hebben gedaan.
Iemand anders hier het al aan de praat gekregen ?
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Ja ik ging spontaan zweten toen ik mijn Asus Tuf 3090 OC bios ging updaten heb er tenslotte 1960€ voor betaaldcomputerjunky schreef op woensdag 7 april 2021 @ 13:31:
[...]
Volgens mij is het bin amd+ amd altijd aan, bij amd + intel altijd aan, bij intel+ nvidia geregeld per profiel van de games en is er dus driver support per game nodig. En bij amd + nvidia verwacht ik hetzelfde aangezien het in drivers geregeld is. Zag dit toevallig voorbij komen bij een techtuber vandeweek weet even niet welke.
Hoop dat amd dat ook gaat doen want altijd aan is een slecht idee aangezien er games slechter van worden.
[...]
Ja vooral de bios update van de gpu vind ik in deze tijd nogal een onacceptabel risico die ik niet zou nemen voor een paar % fps.
Nvidia had het beter links kunnen laten liggen en bij de 4xxx gewoon alles direct goed regelen.
Had meteen in 3D Mark Port Royal 200 punten meer
[ Voor 22% gewijzigd door mmxmmx op 22-04-2021 08:44 ]
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Nou ja wat je ervoor betaald heb vind ik dan minder boeiend je heb immers gewoon garantie. Het grootste probleem is dat je mogelijk weer maanden zonder zit of omruil simpelweg niet mogelijk is en dus geld terug krijgt en je nog meer mag betalen voor een andere kaart.mmxmmx schreef op donderdag 22 april 2021 @ 08:39:
[...]
Ja ik ging spontaan zweten toen ik mijn Asus Tuf 3090 OC bios ging updaten heb er tenslotte 1960€ voor betaaldMaar alles ging goed geen problemen voor en na.
Had meteen in 3D Mark Port Royal 200 punten meer![]()
![]()
Ja man ben blij dat het goed ging want vond op internet legio mensen waar het mis gegaan is.computerjunky schreef op donderdag 22 april 2021 @ 12:03:
[...]
Nou ja wat je ervoor betaald heb vind ik dan minder boeiend je heb immers gewoon garantie. Het grootste probleem is dat je mogelijk weer maanden zonder zit of omruil simpelweg niet mogelijk is en dus geld terug krijgt en je nog meer mag betalen voor een andere kaart.
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Wereldwijd aanklagen.
Zo zie je maar hoe verwend iedereen tegenwoordig is. Een grafische kaart is geen basisbehoefte. Eten en onderdak (en gezondheidszorg) is dat wel. Al de rest moet je aan marktwerking overlaten en moet de overheid zich absoluut niet mee bemoeien. Alsof het hier gaat over strategische graan/melk productie of zo.
Wat zou er dan wel moeten gebeuren volgens jou? Een overheids-gemandateerde minimum productie van 1 grafische kaart per inwoner? Een centraal geplande economie waar de overheid vraag en aanbod op elkaar probeert af te stemmen? Subsidies om foundries te bouwen?
Gamen is een luxe.
En voor je begint over de professionele sector. Als er zoveel vraag is. betekent het ook dat de markt voor geleverde diensten met GPU's (CGI, grafisch design, AI engineering) roodgloeiend staat. Deze professionelen kunnen hun tarieven ook hoger maken waardoor de hardware ook sneller wordt terugverdiend. Voor een gemiddelde goed draaiende gezonde studio/IT-bedrijf/lab/zelfstandige is 1000 of 2000 of 3000 euro ook het verschil niet. Dat zijn kosten in de marge. Macbook pro's a 3000 euro gaan ook vlot over de toonbank.
Dat er nu wat magere jaren aanbreken voor de gamer moet je er maar bijnemen. Het komt allemaal wel terug goed. Ze zullen de foundries opschalen, waarschijnlijk meerdere partijen tegelijk, en zo voorbij de vraag-target schieten, en over 2-3 jaar zit je met overschotten en dalende prijzen. En het is niet alsof er geen kaarten beschikbaar zijn. Ik zie ze bij webshops vaak genoeg op voorraad. Maar de prijzen hebben nu eindelijk de vraag bijgebeend, zodat ze effectief vaker voorradig zijn, maar dan wel duurder. Dus wie deze kaarten wil kan ze prima kopen. Vind je het het niet waard? Dan koop je ze niet en kijk je over 2 of 3 jaar weer verder.
Het biedt ook mogelijkheden aan intel om eventueel met gamer gpu's te komen. Wie weet is het resultaat wel dat er straks 3 aanbieders van grafische kaarten zijn, waarbij intel interne foundries kan gebruiken. Wat dan weer betekent dat er een stabielere en gezondere markt bestaat aan de productiezijde.
En aan de klagers: we hebben jullie het laatste decennium waarschijnlijk ook niet horen klagen over de continue stroom hardware aan absolute bodemprijzen. Ram en SSD spotgoedkoop. Geen marges voor resellers. Zovele pc stores die failliet gingen omdat er nauwelijks een paar cent per item marge te verdienen viel? Zoveel gepassioneerde verkoop medewerkers die een, voor hen, mooie job verloren door de race naar de bodem op alle hardware. 55" 4k tv's voor bodemprijzen. Met uitzondering van grafische kaarten en 'ultrahardware' is hardware nog nooit zo goedkoop geweest.
Ik gun het de pc winkels van harte om nu extra hard te willen cashen op deze heel natuurlijke vraag-aanbod marktwerking. Zo werkt het nu eenmaal. Laat ze maar wat buffer opbouwen na jaren een ongezonde business te hebben moeten draaien. En zoals het er naar uitziet kan de prijs best nog wat hoger, klanten genoeg, de vraag is nog steeds enorm en kopers geven het toch wel uit. En zolang anderen 2, 3 of 4 duizend euro uitgeven voor grafische kaarten doe je er niets aan.
Smerig dan nog wel...Sp3ci3s8472 schreef op woensdag 21 april 2021 @ 13:41:
Ik vind dit maar een smerig trukje wat veel leveranciers uithalen om zo onder een verkoop overeenkomst uit te komen. Met leveranciers in dit geval dus AIB partners.
Nu kunnen ze dus lekker de duurdere modellen verkopen of een iets afwijkend model uitbrengen met een hogere prijs.
Zou je niet exact hetzelfde doen als je aan de aanbod-zijde stond? Iedereen, van bedrijf tot particulier niveau, denkt aan maximalisatie van eigen inkomsten. Denk je ook zo over je loon? Laat je extra inkomsten/loon op tafel liggen voor iemands mooie ogen? In deze onzekere tijden?
Niemand gaat uit altruïstische overwegingen bestaande overeenkomsten uitleveren met verlies, of aan aankoop prijzen, als ze gewoon kunnen cancelen en 100-200-... meer per verkocht product vangen. Niet voor een product zoals grafische kaarten. Hardware verdelers zijn geen soepkeukens voor daklozen.
Dit hele verhaal is gewoon keiharde marktwerking, en zo hoort het ook. Want in andere tijden werkt het in het voordeel van de klant. Nu even niet, maar dat is de keerzijde die je er bij neemt.
Nee, want juist chipmakers verdienen bergen met geld nu. DIe kunnen dat excuus absoluut niet gebruiken. Enige moment dat dit enigzins verantwoord is is als Nvidia de prijzen van hun chips zoveel duurder maakt dat ze wel moeten.Amos_x schreef op zaterdag 24 april 2021 @ 12:09:
Smerig dan nog wel...
Zou je niet exact hetzelfde doen als je aan de aanbod-zijde stond? Iedereen, van bedrijf tot particulier niveau, denkt aan maximalisatie van eigen inkomsten. Denk je ook zo over je loon? Laat je extra inkomsten/loon op tafel liggen voor iemands mooie ogen? In deze onzekere tijden?
Niemand gaat uit altruïstische overwegingen bestaande overeenkomsten uitleveren met verlies, of aan aankoop prijzen, als ze gewoon kunnen cancelen en 100-200-... meer per verkocht product vangen. Niet voor een product zoals grafische kaarten. Hardware verdelers zijn geen soepkeukens voor daklozen.
Dit hele verhaal is gewoon keiharde marktwerking, en zo hoort het ook. Want in andere tijden werkt het in het voordeel van de klant. Nu even niet, maar dat is de keerzijde die je er bij neemt.
Daarnaast moeten ze imho gewoon leveren aan de mensen die hun bestelling hebben geplaatst, zeker als deze al maanden staat.
Zelfs in "goede" tijden ben ik met vieokaarten al een keer tegen dit aangelopen. Order gecancelled want niet meer leverbaar, om op de website van de verkoper exact dezelfde kaart te zien alleen met een ander SKU nummer die ineens 50 euro duurder is. Dat was met een AMD kaart en was een van AMD partners die dit waarschijnlijk deed.
In beide gevallen vind ik het gewoon een rotstreek naar de consument.
Fyi ik heb 2x een 6800 XT en 1x een 6900 XT doorverkocht die ik in bestelling had staan bij een webshop. De enige winst die ik daar op heb gemaakt is de afronding van verzendkosten indien hij niet werd opgehaald. Zei het ik heb een goede baan waardoor het veel makkelijker is om mijn moraal te houden.
Je kan als bedrijf zijnde profiteren van de marktwerking zonder je moralen/normen en waarde te laten vallen. Degene die voor een X bedrag een kaart hadden besteld en maanden staan te wachten erop dienden gewoon voor X bedrag geleverd te krijgen. Hier is een deal gemaakt tussen klant en bedrijf. Als je met iemand een deal maakt moet je je er gewoon aan houden, man op man, woord op woord. Ik heb er een hekel aan als men op marktplaats bod X accepteerd en akkoord gaat, om vervolgens het te weigeren gezien er een hoger bod is gekomen. Dan had je gewoon wat langer moeten wachten en niet zo snel een bod accepteren. De keerzijde zijn de gemiste marges hiervan. Dat gebeurt hier nu ook. Bedrijven komen er achter dat ze er nog veel meer aan kunnen verdienen en steken een dikke middelvinger op naar degene in de wachtrijen. Ik noem het gebruik van de marktwerking zonder moraal. En er zijn wel degelijk bedrijven die op een eerlijke manier hun geld verdienen en niét bij elke mogelijkheid om meer te verdienen al hun standpunten laat vallen.Amos_x schreef op zaterdag 24 april 2021 @ 12:09:
[...]
Smerig dan nog wel...
Zou je niet exact hetzelfde doen als je aan de aanbod-zijde stond? Iedereen, van bedrijf tot particulier niveau, denkt aan maximalisatie van eigen inkomsten. Denk je ook zo over je loon? Laat je extra inkomsten/loon op tafel liggen voor iemands mooie ogen? In deze onzekere tijden?
Niemand gaat uit altruïstische overwegingen bestaande overeenkomsten uitleveren met verlies, of aan aankoop prijzen, als ze gewoon kunnen cancelen en 100-200-... meer per verkocht product vangen. Niet voor een product zoals grafische kaarten. Hardware verdelers zijn geen soepkeukens voor daklozen.
Dit hele verhaal is gewoon keiharde marktwerking, en zo hoort het ook. Want in andere tijden werkt het in het voordeel van de klant. Nu even niet, maar dat is de keerzijde die je er bij neemt.
https://wccftech.com/nvid...18th-may-launch-26th-may/
Wie goed doet, die goed ontmoet.
Voor de 3090 is de tdp 350w en volgens geruchten wordt de tdp van de 3080ti 320w dus je kan het gemakkelijk zelf uitrekenen. Als je gaat overklokken dan wordt het allemaal wel anders natuurlijk.MetalSonic schreef op dinsdag 27 april 2021 @ 09:49:
Ik benieuwd wat voor voeding nodig is. Voor de 3090 adviseren ze 850 of meer en ik heb “slechts “ 750
Wie goed doet, die goed ontmoet.
Sommige kaarten van MSI, bijv de RTX 3080 Gaming Z Trio, gebruiken al 370W. Dan lijkt me 750W wel erg krap.AtlAntA schreef op dinsdag 27 april 2021 @ 09:53:
[...]
Voor de 3090 is de tdp 350w en volgens geruchten wordt de tdp van de 3080ti 320w dus je kan het gemakkelijk zelf uitrekenen. Als je gaat overklokken dan wordt het allemaal wel anders natuurlijk.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Voor twee kaarten bedoel je?RobinNL schreef op dinsdag 27 april 2021 @ 11:40:
[...]
Sommige kaarten van MSI, bijv de RTX 3080 Gaming Z Trio, gebruiken al 370W. Dan lijkt me 750W wel erg krap.
Dan zit je goed. Nvidia adviseert 750W voor een 3090 FE.MetalSonic schreef op dinsdag 27 april 2021 @ 09:49:
Ik benieuwd wat voor voeding nodig is. Voor de 3090 adviseren ze 850 of meer en ik heb “slechts “ 750
:fill(white):strip_exif()/f/image/y1NjFpw3cqOdzQoCD4Tohjb0.png?f=user_large)
Draai zelf ook een 3090 FE en 5950X op een 750W psu, dat gaat prima, zelfs als ik de 3090 400W laat verbruiken.
Just pick a dead end and chill out 'till you die.
En als je de PPT van de 5950x op 250w zet? Dan blijft er niet bijster veel over voor het moederbord en de aangesloten appraten. Tenminste als je een beetje in je efficiency rating wilt blijven. Daar komt afaik ook nog bij dat de pieken bij de GPU veel hoger dan dat kunnen liggen wat bij de wat mindere voedingen die overload protection kan triggeren.Abbadon schreef op dinsdag 27 april 2021 @ 17:18:
[...]
Dan zit je goed. Nvidia adviseert 750W voor een 3090 FE.
[Afbeelding]
Draai zelf ook een 3090 FE en 5950X op een 750W psu, dat gaat prima, zelfs als ik de 3090 400W laat verbruiken.
Wie goed doet, die goed ontmoet.
Natuurlijk kun je extreme scenario's bedenken waarbij een zwaardere psu nodig is, zoals een Threadripper met geactiveerde PBO of een 10980XE overclocked (400-500W) in combinatie met een 400+W 3090. Maar dan vermoed ik dat je wel een beetje een idee hebt waar je mee bezig bent en niet hoeft te vragen of een 750W psu genoeg is.
Overigens trekt mijn 750W psu ook 250W PPT met de GPU @400W, alleen levert het niks op, maar 2~3% extra performance (plus dat onder max belasting het idd minder efficient wordt). Een beetje 750W psu vangt pieken van ruim boven de 900W op voordat de protectie wordt geactiveerd.
Just pick a dead end and chill out 'till you die.
Ik had liever gezien dat ze voor 16GB gingen, gezien dat de enige optie was met de busbreedte.
Goed om te zien dat de RTX 3080 Ti 12GB heeft, meer was beter maar hier kan die kaart tenminste even mee vooruit. Dit is een betere verhouding dan de 10GB van de RTX 3080.
Meer is altijd wenselijk, maar de eerst voorbeelden van bottlenecken door 8GB geheugen op 4K moeten nog gevonden worden (zonder modden). Misschien dat ik iets mis, vandaar nu mijn vraag, waar haal jij het bottlenecken vandaan? We hebben het dan niet over gecachet geheugen, maar ook daadwerkelijk gebruikt.Sp3ci3s8472 schreef op dinsdag 4 mei 2021 @ 16:02:
Jammer om te zien (volgens de geruchten) dat de RTX 3070 Ti maar 8GB geheugen heeft. Dat gaat de kaart bottlenecken, dat is nu al te zien en dat zal alleen maar erger worden.
Ik had liever gezien dat ze voor 16GB gingen, gezien dat de enige optie was met de busbreedte.
Goed om te zien dat de RTX 3080 Ti 12GB heeft, meer was beter maar hier kan die kaart tenminste even mee vooruit. Dit is een betere verhouding dan de 10GB van de RTX 3080.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Ik kan makkelijk een aantal voorbeelden noemen.Koldur schreef op dinsdag 4 mei 2021 @ 16:10:
[...]
Meer is altijd wenselijk, maar de eerst voorbeelden van bottlenecken door 8GB geheugen op 4K moeten nog gevonden worden (zonder modden). Misschien dat ik iets mis, vandaar nu mijn vraag, waar haal jij het bottlenecken vandaan? We hebben het dan niet over gecachet geheugen, maar ook daadwerkelijk gebruikt.
- Resident Evil 2 (Sewers)
- Doom Eternal
- Watch Dog Legions (https://www.techradar.com...dogs-legion-more-smoothly)
Het gaat dus absoluut niet om average FPS hoewel dat wel enigzins zal meespelen maar veel meer in frametimes en microstuttering.
Duidelijk dat het een verschil kan maken, maar het verschil geen echte bottleneck vormt. De conclusie heb je een beetje uit verband getrokken.Sp3ci3s8472 schreef op dinsdag 4 mei 2021 @ 17:08:
[...]
Ik kan makkelijk een aantal voorbeelden noemen.
- Resident Evil 2 (Sewers)
- Doom Eternal
- Watch Dog Legions (https://www.techradar.com...dogs-legion-more-smoothly)
Het gaat dus absoluut niet om average FPS hoewel dat wel enigzins zal meespelen maar veel meer in frametimes en microstuttering.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Microstuttering vind ik een duidelijke bottleneck. Daarnaast een lagere fps dan ik anders had kunnen halen vind ik ook een bottleneck.Koldur schreef op dinsdag 4 mei 2021 @ 17:12:
[...]
Duidelijk dat het een verschil kan maken, maar het verschil geen echte bottleneck vormt. De conclusie heb je een beetje uit verband getrokken.
Natuurlijk is het dus bij het overgrote deel van de spellen nu nog geen probleem. Het gaat op de lange termijn een probleem vormen.
Ik vind 8GB ook te weinig, gezien dat we die hoeveelheid al hadden in 2017 en deze generatie Consoles meer RAM heeft. Dus het is niet future-proof. Maar het zou volgens mij nog geen probleem moeten zijn.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
NVIDIA Reflex Tested with LDAT v2 - Making you a Better Gamer
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
https://videocardz.com/ne...with-cryptomining-limiter
Wie goed doet, die goed ontmoet.
Volgens deze video van Hardware Unboxed ligt de schuld van de prijshoogte op dit moment met name bij de AIB en de distributeurs. Zij kunnen maximaal cashen zonder het risico te dragen van onverkochte voorraad. Distributeurs kunnen ook videokaarten direct verkopen aan miners en op die manier hebben ze een plek waar ze videokaarten voor elke prijzen kwijt kunnen.
Bagger.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Bagger indeed. Nu de bitcoin de afgelopen periode bijna €20k aan waarde heeft verloren en ETH procentueel gezien nog meer ben ik wel benieuwd hoe zich dit gaat ontwikkelen. De retailers hebben immers de kaarten die nu beschikbaar zijn erg duur ingekocht bij de distribiteurs en zullen deze liever voor minder verkopen. Als de vraag van miners af gaat nemen dan zullen de prijzen wel gaan kelderen lijkt mij. Iemand die bij zijn volle verstand is gaat toch geen €3k voor een 3090 betalen? Of €2.2k voor een 3080? En al helemaal niet als je dat bedrag niet via hobbyminen terug kunt verdienen.XanderDrake schreef op zondag 23 mei 2021 @ 17:40:
[YouTube: Is The GPU Situation Getting Worse? CPU and GPU Stock Update [May 2021]]
Volgens deze video van Hardware Unboxed ligt de schuld van de prijshoogte op dit moment met name bij de AIB en de distributeurs. Zij kunnen maximaal cashen zonder het risico te dragen van onverkochte voorraad. Distributeurs kunnen ook videokaarten direct verkopen aan miners en op die manier hebben ze een plek waar ze videokaarten voor elke prijzen kwijt kunnen.
Bagger.
Er zijn er zat hier op tweakers die voor 2x msrp voor een gpu hebben betaalt in de verwachting het verschil binnen zeer korte tijd terug te verdienen. Komen die even van een koude kermis thuis.
[ Voor 0% gewijzigd door AtlAntA op 23-05-2021 18:54 . Reden: typo, tis zondag dus dan mag dat wel. ]
Wie goed doet, die goed ontmoet.
AtlAntA schreef op zondag 23 mei 2021 @ 18:36:
[...]
L
Er zijn er zat hier op tweakers die 2x msrp voor een gpu hebben betaalt in de verwachting het verschil binnen zeer korte tijd terug te verdienen. Komen die even van een koude kermis thuis.
Hopelijk zijn de kaarten die gedumpt worden op V&A niet te veel verkloot door het vervangen van thermal pads en het behalen van een maximale hash reet.
[ Voor 18% gewijzigd door MaXeRs op 23-05-2021 18:52 ]
MaXeRs schreef op zondag 23 mei 2021 @ 18:49:
[...]
![]()
![]()
![]()
Hopelijk zijn de kaarten die gedumpt worden op V&A niet te veel verkloot door het vervangen van thermal pads en het behalen van een maximale hash reet.
Als de thermal pads door goede kwaliteit pads zijn vervangen nog voordat men is begonnen met minen dan kan de kaart er eigenlijk alleen maar op vooruit zijn gegaan. Ik zou gerust *nu* een 2ehands 3090 willen kopen waarop gemined is want in zo'n korte tijd kan je echt niks vernaggelen aan een kaart.
Ik zou advertenties waarin men beweert dat er nooit mee is gemined per definitie niet vertrouwen de aankomende tijd trouwens.
Wie goed doet, die goed ontmoet.
YouTube: Waste of Money: NVIDIA RTX 3080 Ti Review & Benchmarks
Wie goed doet, die goed ontmoet.
Tuurlijk is 10% performance voor 70% meer geld (MSRP) niet netjes, maar in de praktijk is het eerder 2000 vs 2500 euro t.o.v. de 3080. Binnen dat scenario is het op zich allemaal niet zo gek dat je procentueel meer betaald voor procentueel minder performance gain.AtlAntA schreef op woensdag 2 juni 2021 @ 15:51:
Dit is het Nvidia nieuws topic en naar het schijnt is er een nieuwe kaart aangekondigd. Steve doet weer eens extreem negatief maar ik vind de charts altijd zo lekker leesbaar.
YouTube: Waste of Money: NVIDIA RTX 3080 Ti Review & Benchmarks
Waar ik me vooral zorgen over maak met deze kaart is dat de temperaturen echt tegen het randje zitten. Core, mem en junction temperatuur liggen allemaal heel hoog in de 70, 80 en 100+ respectievelijk. Naast de prijs lijkt het qua koeling ook geen verantwoord product te zijn.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Beide Steve's zijn negatiefAtlAntA schreef op woensdag 2 juni 2021 @ 15:51:
Dit is het Nvidia nieuws topic en naar het schijnt is er een nieuwe kaart aangekondigd. Steve doet weer eens extreem negatief maar ik vind de charts altijd zo lekker leesbaar.
YouTube: Waste of Money: NVIDIA RTX 3080 Ti Review & Benchmarks
De kaart heeft gewoon weinig toegevoegde waarde imho.
Gerucht: Nvidia is weer begonnen met GeForce Partner Program door komst AMD RDNA 2-laptops
If true:
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Lijkt me een bewuste reactie op de all AMD laptops onder het AMD advantage program (feitelijk same shit, maar daar zijn we dan weer niet negatief over met zijn allen). Geen goed nieuws, maar wel verklaarbaar aangezien aangezien AMD nu ook deze trucjes gaat toepassen die nvidia onder GPP eerst deed met Advantage.
Je kunt er namelijk rustig vanuit gaan dat fabrikanten ook dmv AMD kortingen richting een volledige AMD based hardware configuratie geduwd worden met die constructie. De fabrikant krijgt korting en de consument krijgen de "voordelen" en kunnen dus niet meer kiezen voor Intel/nvidia als het aan AMD ligt.https://nl.hardware.info/...s-met-rdna-2-architectuur
Verder heeft AMD het Design Framework Initiative aangekondigd, een programma dat laptopfabrikanten rechtstreeks met AMD laat samenwerken bij het ontwerpen van hun producten. Dit houdt in dat AMD samenwerkt met de ontwerpteams van gamingnotebooks bij het kiezen van de juiste cpu, gpu en andere componenten.
Dit soort koppelverkopen zijn natuurlijk alleen maar opgezet om je concurrenten uit te sluiten en zo marktaandeel af te pakken op een vuile manier. Dat is AMD nu dus precies aan het doen. Ik snap wel dat Nvidia zich niet laat naaien en nu gedwongen de strijdbijl pakt.
Bij mijn weten zit het AMD programma totaal anders in elkaar dan in ieder geval het oorspronkelijke GPP. Iets met appels en peren.sjekneck schreef op donderdag 3 juni 2021 @ 17:12:
[...]
Lijkt me een bewuste reactie op de all AMD laptops onder het AMD advantage program (feitelijk same shit, maar daar zijn we dan weer niet negatief over met zijn allen). Geen goed nieuws, maar wel verklaarbaar aangezien aangezien AMD nu ook deze trucjes gaat toepassen die nvidia onder GPP eerst deed met Advantage.
Eén van de GPP onderdelen was bijv. dat nVidia in feite de AIBs dwong om hun gaming brand (Bijv. ROG) exclusief alleen voor nVidia in te gaan zetten. Alle marketinginspanningen en investeringen op dat gebied in het verleden gedaan door de AIBs kwamen zo puur tgv nVidia. Voor AMD moest dan maar een andere brand gebouwd worden door de AIB's.
AMD's Advantage is een design framework waarmee AMD een bepaalde (minimum) kwaliteit probeert te garanderen, beetje vergelijkbaar met Intel's EVO. Want je kunt nog zo'n goede CPU en GPU hebben, als de AIB een crappy omhulsel bouwt krijg je een slechte naam. Daar lijkt mij op zichzelf niks mis mee.
Indien het huidige GPP zich daartoe zou (blijken) te beperken dan lijkt me dat verder prima.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
YouTube: Three RTX 3080 Tis - But Which is the Best?
Echt wel even iets om rekening mee te houden. Dat is namelijk nogal een verhoging t.o.v. de FE of de 3080.
De vraag is of je aan 750W genoeg hebt; het zal net aan passen denk ik.
[ Voor 4% gewijzigd door zzzzz op 04-06-2021 09:49 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Dat doet AMD nu toch feitelijk ook. Ze maken een "naam" die enkel ingezet kan worden voor volledige AMD sku's. Hiermee willen ze de fabrikanten verleiden om volledig AMD te kiezen. Daar zullen uiteraard ook kortingen afgesproken worden bij dat labelHelp!!!! schreef op donderdag 3 juni 2021 @ 17:25:
[...]
Bij mijn weten zit het AMD programma totaal anders in elkaar dan in ieder geval het oorspronkelijke GPP. Iets met appels en peren.
Eén van de GPP onderdelen was bijv. dat nVidia in feite de AIBs dwong om hun gaming brand (Bijv. ROG) exclusief alleen voor nVidia in te gaan zetten. Alle marketinginspanningen en investeringen op dat gebied in het verleden gedaan door de AIBs kwamen zo puur tgv nVidia. Voor AMD moest dan maar een andere brand gebouwd worden door de AIB's.
Nee het is niet verkeerd om kwaliteit te borgen, maar er zit meer achter om dit te doen. Het echte doel is om ervoor te zorgen dat fabrikanten geen Nvidia GPU meer kiezen in hun gaming laptops door all AMD aan te smeren onder dat label.Help!!!! schreef op donderdag 3 juni 2021 @ 17:25:
[...]
AMD's Advantage is een design framework waarmee AMD een bepaalde (minimum) kwaliteit probeert te garanderen, beetje vergelijkbaar met Intel's EVO. Want je kunt nog zo'n goede CPU en GPU hebben, als de AIB een crappy omhulsel bouwt krijg je een slechte naam. Daar lijkt mij op zichzelf niks mis mee.
GPP was ook niet best, maar nvidia maakte het ook mooier met deze claim over GPP:
Deze claim klinkt ook best nobel, maar was een catch:"GPP had a simple goal – ensuring that gamers know what they are buying and can make a clear choice."
En bij AMD zegt dit:"De crux van het hele probleem met het GPP komt neer op één vereiste, namelijk dat de gamemerken van de partners volledig gelieerd moeten zijn aan GeForce." Die eis zou vermeld zijn in documenten die de site ingezien zegt te hebben.
Kunnen componenten buiten AMD in aanmerking komen voor dit label dan? Vast niet. Je gaat mij niet wijsmaken dat AMD dat gaat doen voor configuraties met een intel cpu+mobo en alleen een AMD gpu of een AMD cpu+chipset met Nvidia gpu. Uiteraard is dit alleen van toepassing als alles van AMD komt. Dat is het doel voor AMD. Als je echt denkt dat ze dit in hoofdzaak doen voor de "kwaliteit", dan snap je het niet helemaal volgens mij."During its Computex 2021 event, AMD has announced its new Advantage design framework initiative, a program that will help notebook makers to create the best possible gaming notebooks."
"AMD will work with OEMs in choosing the perfect CPU, discrete GPU, other hardware components, including display, in order to provide the best possible design for a gaming notebook."
Ik zou het ook niet tof vinden als intel en Nvidia samen een dergelijk label zouden maken en AMD proberen eruit te houden. Daarom ben ik ook een beetje sceptisch over de move van AMD en de goodwill.Help!!!! schreef op donderdag 3 juni 2021 @ 17:25:
Indien het huidige GPP zich daartoe zou (blijken) te beperken dan lijkt me dat verder prima.
Het is en blijft koppelverkoop en dit mooier te maken door een belofte eraan te hangen om de intentie te maskeren en de vermarkten als iets goeds. Daarom snap ik Nvidia ergens wel als ze ook weer in actie komen. Dit zou in potentie marktaandeel kunnen gaan kosten op de mobiele markt. Dat ze die niet zomaar gaan weggeven is begrijpelijk.
Dit soort dingen pakken altijd slecht uit als winstgeving het oogmerk is : (.sjekneck schreef op vrijdag 4 juni 2021 @ 12:04:
[...]
Ik zou het ook niet tof vinden als intel en Nvidia samen een dergelijk label zouden maken en AMD proberen eruit te houden. Daarom ben ik ook een beetje sceptisch over de move van AMD en de goodwill.
Het is en blijft koppelverkoop en dit mooier te maken door een belofte eraan te hangen om de intentie te maskeren en de vermarkten als iets goeds. Daarom snap ik Nvidia ergens wel als ze ook weer in actie komen. Dit zou in potentie marktaandeel kunnen gaan kosten op de mobiele markt. Dat ze die niet zomaar gaan weggeven is begrijpelijk.
Ik kan er dus totaal niet enthousiast over worden. Laat het lekker aan de oem bouwers over om de beste componenten bij elkaar te voegen en bied goede service/ondersteuning om te helpen de producten zo goed mogelijk te integreren. Laptop fabrikanten lopen ook een risico een slechte naam te krijgen door het maken van een slecht of ondermaats product.
Het zou wat anders zijn als zo'n programma zich zou beperken tot slechts de (technische) criteria, waaraan een gaming laptop dan zou moeten voldoen om de betreffende naam te mogen dragen.
Maar ik vraag mij af welk 'plan' nu eerder gekomen is, de Nvidia mobile GPP (zoals er nu een beetje sarcastisch over wordt gedaan) of AMD advantage. Zulke ideeën zullen al veel langer in de maak zijn voordat het bekendheid wordt.
Ik acht AMD ook niet heilig, maar het zou mij persoonlijk niet verbazen als deze lucht heeft gekregen van Nvidia's plan en dit als tegenactie heeft opgesteld.
Nividia heeft (als 'dominante marktleider') in het verleden, al meerdere keren laten zien zich niet te schuwen van een zeer arrogante houding en concurrentie ondermijnende / destructieve afspraken.
Daarnaast is er ook verschil in omzet en winst tussen beide merken.
AMD boert de laatste paar jaar goed (eigenlijk alleen door de CPU tak), maar dat is nog steeds weinig in vergelijking met de winst die Nvidia maakt. En daarnaast moet AMD op 2 fronten concurrerend blijven.
M.a.w. het is meer aannemelijk dat alleen Nvidia het zich kan permitteren om oem's financieel te 'stimuleren'.
Het verschil is dat het enkel om een label gaat.sjekneck schreef op vrijdag 4 juni 2021 @ 12:04:
Kunnen componenten buiten AMD in aanmerking komen voor dit label dan? Vast niet. Je gaat mij niet wijsmaken dat AMD dat gaat doen voor configuraties met een intel cpu+mobo en alleen een AMD gpu of een AMD cpu+chipset met Nvidia gpu. Uiteraard is dit alleen van toepassing als alles van AMD komt. Dat is het doel voor AMD. Als je echt denkt dat ze dit in hoofdzaak doen voor de "kwaliteit", dan snap je het niet helemaal volgens mij.
Bij GPP ging het om een hele merknaam. Bulk korting, GeForce stickertje? Dan mag je Aorus/ROG/Alienware/<insert merknaam> helemaal niet meer gebruiken in combinatie met AMD producten.
Labeltjes maken geen reet uit. GeForce/AMD/Intel "Inside" of "optimised" of "advantage" of wat dan ook is allemaal best. Maar een fabrikant dwingen een hele merknaam aan een serie producten te koppelen is gewoon absurd. En dat is wat het oorspronkelijke GPP was. Meerdere fabrikanten brachten ineens AMD producten uit zonder hun gaming merken er op, ook al hadden ze diezelfde producten eerder wél al onder hun gaming merken onder gebracht.
Kijk de video vanaf 3:45.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Tuurlijk maken die labels wel uit, daar zit namelijk een korting aan die de fabrikant erbij krijgt. AMD gaat nu een "AMD approved" label hangen en doet dat alleen als dat product bestaat uit AMD hardware. Als dat label er niet op zit omdat de combinatie niet alleen AMD is, zou dat voor de consument een minder product kunnen zijn. Dat is in mijn optiek gewoon misbruik maken.Werelds schreef op vrijdag 4 juni 2021 @ 14:35:
[...]
Het verschil is dat het enkel om een label gaat.
Bij GPP ging het om een hele merknaam. Bulk korting, GeForce stickertje? Dan mag je Aorus/ROG/Alienware/<insert merknaam> helemaal niet meer gebruiken in combinatie met AMD producten.
Labeltjes maken geen reet uit. GeForce/AMD/Intel "Inside" of "optimised" of "advantage" of wat dan ook is allemaal best. Maar een fabrikant dwingen een hele merknaam aan een serie producten te koppelen is gewoon absurd. En dat is wat het oorspronkelijke GPP was. Meerdere fabrikanten brachten ineens AMD producten uit zonder hun gaming merken er op, ook al hadden ze diezelfde producten eerder wél al onder hun gaming merken onder gebracht.
Die labels komen namelijk met een vereiste voor één merk en juist die vereiste ben ik op tegen. Of dat nou Nvidia is, intel of AMD. Je concurrenten door dit soort pulp het moeilijker maken is gewoon smerig.
Je zegt het zelf ook: Maar een fabrikant dwingen een hele merknaam aan een serie producten te koppelen is gewoon absurd.
Dit is toch van dezelfde orde. Dat label moet garant staat voor een zekere standaard. Als je niet een combo hebt van AMD CPU, Chipset en GPU voldoe je dus sowieso niet aan die standaard, hoe goed die machine ook is. Dus als een fabrikant dat label wil dragen, dan zijn ze toch gedwongen om alleen AMD te gebruiken.
Als het nou Nvidia was zou ik je gelijk geven. Maar helaas, in het geval van Intel of AMD hebben die labels geen enkel effect meer. Sterker nog, in AMD's geval zou dat averechts kunnen werken. Voor de gemiddelde consument zijn Intel en Nvidia nog steeds "het beste" (of beter gezegd: AMD kennen ze nauwelijks). En als Intel een "Games Best On Intel" stickertje uit zou brengen, zou niemand daar waarde aan hechten, want Nvidia is voor games, niet Intel. Bij Nvidia ligt het anders, die hebben zo'n enorme mindshare dat zulke dingen meer invloed hebben.sjekneck schreef op vrijdag 4 juni 2021 @ 14:56:
Tuurlijk maken die labels wel uit, daar zit namelijk een korting aan die de fabrikant erbij krijgt. AMD gaat nu een "AMD approved" label hangen en doet dat alleen als dat product bestaat uit AMD hardware. Als dat label er niet op zit omdat de combinatie niet alleen AMD is, zou dat voor de consument een minder product kunnen zijn. Dat is in mijn optiek gewoon misbruik maken.
Die labels komen namelijk met een vereiste voor één merk en juist die vereiste ben ik op tegen. Of dat nou Nvidia is, intel of AMD. Je concurrenten door dit soort pulp het moeilijker maken is gewoon smerig.
Mijn punt is echter dat dat labeltje een klein dingetje is dat verder geen beperkingen op merknamen aan de kant van de product fabrikant legt. Net zoals Intel en Nvidia voor de gemiddelde consument "het beste" is, hebben sommige merknamen (ROG, Alienware) een soortgelijke naam. Als je zo'n merknaam ineens exclusief aan je bedrijf koppelt is dat enorm schadelijk voor de concurrent.
Dat beide (mogelijk) schadelijk zijn voor de consument ben ik met je eens. Ik bekeek dit echter puur vanuit de bedrijven.
De keuze is dan echter aan de fabrikant. Ze kunnen er voor kiezen dat labeltje er op te plakken en dus voor een AMD setup gaan, of ze doen dat niet en maken gewoon het product dat ze willen maken. Ze kunnen in hun assortiment producten met én zonder label gebruiken. Dat label is enkel gekoppeld aan een product, geen heel merk. Dus ASUS kan best een volledige AMD ROG laptop uit brengen en daar dit stikkertje op plakken, terwijl ze pal er naast gewoon een Intel/Nvidia machine neer zetten. De eerste wordt dan door AMD rond gespamd, maar niets weerhoudt Intel, Nvidia en de fabrikant zelf ervan dat voor het andere product te doen*. De consument heeft nog steeds de keuze. Dat de gemiddelde consument wellicht niet zo thuis is in de daadwerkelijke hardware is een heel ander verhaal en dat stickertje verandert daar niets aan. Nogmaals, dat stickertje zou zomaar averechts kunnen werken.Dit is toch van dezelfde orde. Dat label moet garant staat voor een zekere standaard. Als je niet een combo hebt van AMD CPU, Chipset en GPU voldoe je dus sowieso niet aan die standaard, hoe goed die machine ook is. Dus als een fabrikant dat label wil dragen, dan zijn ze toch gedwongen om alleen AMD te gebruiken.
Bij GPP kreeg je geen marketing partnerschap (want dat is waar het hier om gaat) zonder je hele merk aan Nvidia te koppelen. En ja, dan kon een fabrikant er voor kiezen dat niet te doen (HP en Dell bijvoorbeeld), maar je concurrenten die er dan wel aan mee deden stonden dan ineens overal op de Nvidia website, werden overal aan geraden door Nvidia zelf, enzovoort.
Vind ik al dit gedoe leuk, fijn of een goed idee? Nee. Maar zoals het er nu voor staat is AAP (
* voor zover wij nu weten. Wellicht is AAP net zo'n afgrijselijk programma als GPP was, dat werd toen ook pas 1-2 weken later duidelijk.
Toch raar dat mijn eerste gedachte is of ze geen 1,5m afstand moeten houden.RobinNL schreef op vrijdag 4 juni 2021 @ 14:53:
Zo ging het gisteren er aan toe bij Microcenter in Dallas. Geen idee of het enkel om de RTX 3080 Ti gaat, of ook om andere kaarten. https://www.twitch.tv/videos/1044459510
Kijk de video vanaf 3:45.
Ditmaal met flinke kortingen in ruil voor exclusiviteit. Intel stijl dus.
https://www.notebookcheck...most-models.542518.0.html
En spoilers, maar de RTX3080Ti FE is gewoon precies hetzelfde ontwerp als de RTX3080. Niet echt een verrassing, maar het maakt de cash grap nog overduidelijker om niet het grotere RTX3090 ontwerp te gebruiken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Corrigeer me als ik het verkeerd heb, maar voor zover ik weet gaat het AMD advantage program over een labeltje van AMD zelf, wat een fabrikant alleen onder bepaalde voorwaarden op zijn game-bak mag plakken, terwijl het GPP ging over de namen van de fabrikant zelf die ze niet meer mogen gebruiken als ze er hardware van de concurrent instoppen. Dat lijkt me totaal onvergelijkbaar.sjekneck schreef op vrijdag 4 juni 2021 @ 14:56:
Die labels komen namelijk met een vereiste voor één merk en juist die vereiste ben ik op tegen. Of dat nou Nvidia is, intel of AMD. Je concurrenten door dit soort pulp het moeilijker maken is gewoon smerig.
Je zegt het zelf ook: Maar een fabrikant dwingen een hele merknaam aan een serie producten te koppelen is gewoon absurd.
Dit is toch van dezelfde orde. Dat label moet garant staat voor een zekere standaard.
Dat staat nog los van het "je krijgt korting in ruil voor een boycot van de concurrent".
[ Voor 4% gewijzigd door bwerg op 04-06-2021 21:19 ]
Heeft geen speciale krachten en is daar erg boos over.
Inderdaad, labels zijn ook verkeerd.sjekneck schreef op vrijdag 4 juni 2021 @ 14:56:
[...]
Tuurlijk maken die labels wel uit, daar zit namelijk een korting aan die de fabrikant erbij krijgt. AMD gaat nu een "AMD approved" label hangen en doet dat alleen als dat product bestaat uit AMD hardware. Als dat label er niet op zit omdat de combinatie niet alleen AMD is, zou dat voor de consument een minder product kunnen zijn. Dat is in mijn optiek gewoon misbruik maken.
Die labels komen namelijk met een vereiste voor één merk en juist die vereiste ben ik op tegen. Of dat nou Nvidia is, intel of AMD. Je concurrenten door dit soort pulp het moeilijker maken is gewoon smerig.
Je zegt het zelf ook: Maar een fabrikant dwingen een hele merknaam aan een serie producten te koppelen is gewoon absurd.
Dit is toch van dezelfde orde. Dat label moet garant staat voor een zekere standaard. Als je niet een combo hebt van AMD CPU, Chipset en GPU voldoe je dus sowieso niet aan die standaard, hoe goed die machine ook is. Dus als een fabrikant dat label wil dragen, dan zijn ze toch gedwongen om alleen AMD te gebruiken.
Vertel jij mij wanneer de eerste Freesync schermen zonder G-Sync module de G-Sync premium label krijgen (en mocht dit ondertussen al het geval zijn, bij launch was dit anders)? Als je A zegt dan ook B.
Los daarvan, ook Intel heeft zijn Ultrabook lijn. Ik heb nog geen enkele AMD cpu in een Ultrabook gezien
Ik zie het verschil niet, dit is totaal niet te vergelijken met het GPP programma. Je zit je volgens mij druk te maken om niks.
Kleine edit:
AMD heeft ook met Advantage nu niet ineens een bestaande merknaam gepakt om zo Nvidia of Intel te dwarsbomen. Ik zie het Advantage programma als niets meer dan een extra kwaliteits controle die je ook met een Intel Ultrabook zou krijgen of bij Nvidia G-Sync compatible (op een Freesync scherm).
[ Voor 8% gewijzigd door Sp3ci3s8472 op 05-06-2021 01:36 ]
Had ik ook. En dat er een paar het mondkapje niet goed op hadden. Laten we maar hopen dat deze manier van denken van ons net zo snel slijt als dat het aangeleerd is.mitsumark schreef op vrijdag 4 juni 2021 @ 16:41:
[...]
Toch raar dat mijn eerste gedachte is of ze geen 1,5m afstand moeten houden.
Wie goed doet, die goed ontmoet.
Gebruikt meer dan het 6900 XT systeem en komt in de buurt van een RTX 3080. Niet dat dat uitmaakt gezien iedereen ook altijd voor de GTX 480 ging
YouTube: I'm so sick of this... My salty 3070Ti Review...
Wie goed doet, die goed ontmoet.
Het gerucht gaat al wat langer dat men bij Nvidia de 3090 ziet als Content Creator kaart, zoals de RTX Titan ook was. Daardoor word de 3080Ti de snelste gaming kaart.AtlAntA schreef op woensdag 9 juni 2021 @ 16:49:
Jay heeft geruchten gehoord dat de 3090 EOL is ter faveure van de 3080ti. Zou niet weten waarom.
YouTube: I'm so sick of this... My salty 3070Ti Review...
Overigens ben ik oprecht benieuwd hoe de 3070Ti langzamer, duurder, meer watt vraagt, warmer word en overall een minder goede indruk maakt dan de RX6800. Daar slaat men de plank echt volledig mis en blijft het gat tussen het prestatieniveau van een 3070Ti en RX6800XT/3080 heel groot.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Dat ze er dan toch 1500 euro gaan vragen voor een geen Titan kaart en dan durven te zeggen dit is de generatie die je moet kopen want prijs/performance! Terwijl ze zelf ook dondersgoed weten dat dit nooit een Titan kaart was.zzzzz schreef op woensdag 9 juni 2021 @ 17:00:
[...]
Het gerucht gaat al wat langer dat men bij Nvidia de 3090 ziet als Content Creator kaart, zoals de RTX Titan ook was. Daardoor word de 3080Ti de snelste gaming kaart.
Overigens ben ik oprecht benieuwd hoe de 3070Ti langzamer, duurder, meer watt vraagt, warmer word en overall een minder goede indruk maakt dan de RX6800. Daar slaat men de plank echt volledig mis en blijft het gat tussen het prestatieniveau van een 3070Ti en RX6800XT/3080 heel groot.
Tjah de RTX 3070 TI, het maakt niet uit wat voor troep Nvidia (of AMD) uitbrengt, men wel nú een kaart. Ik heb in het begin 2x een 6800 XT en een 6900 XT voor de prijs dat ik ze heb gekocht ook weer doorverkocht om wat Tweakers er mee blij te maken. Nu zit ik te twijfelen om mijn reserve kaarten (RX 470 8GB en RX 570 8GB) gewoon voor de volle prijs door te verkopen of misschien mijn 6900 XT.
Dan koop ik over een jaar wel weer een extra kaart voor mijn main PC/HTPC....
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
