Hmm benieuwd wat er gebeurd als je de power limiet naar 109% gooit. Lijkt me dat het ergens niet lekker is als je constant op zoek ben naar meer power omdat je tegen de limiet aan loopt. Misschien dat een hogere power limiet beter 1% lows geeft of iets dergelijks.Paprika schreef op zondag 13 september 2020 @ 10:50:
Overclocking NVIDIA GeForce RTX 3080 memory to 20 Gbps is easy
https://videocardz.com/ne...memory-to-20-gbps-is-easy
Staan verder nog wat benchmarks bij die alleen maar wijzen op een heel hoog verbruik en dus slechtere p/w dan Turing.Door een kleine memory overclock blijft de total board power gelijk, maar de GPU zelf verbruikt minder dus hij loopt continue tegen de power limit van 320W aan te duwen.
[Afbeelding]
Ik ben benieuwd of er een nieuwe NVFlash gaat volgen die aan te passen is zodat cross-flashes weer gaan werken, want veel mensen zullen wel gewoon een power limit van 600W willen.
Ik verwacht dat Ampere ook een vast maximum voltage gaat hebben. Voor turing is dit 1.093 volt voor 99% van de 2080ti kaarten. Het verhogen van de power limit heeft uit ervaring weinig impact.Paprika schreef op zondag 13 september 2020 @ 10:50:
Overclocking NVIDIA GeForce RTX 3080 memory to 20 Gbps is easy
https://videocardz.com/ne...memory-to-20-gbps-is-easy
Staan verder nog wat benchmarks bij die alleen maar wijzen op een heel hoog verbruik en dus slechtere p/w dan Turing.Door een kleine memory overclock blijft de total board power gelijk, maar de GPU zelf verbruikt minder dus hij loopt continue tegen de power limit van 320W aan te duwen.
[Afbeelding]
Ik ben benieuwd of er een nieuwe NVFlash gaat volgen die aan te passen is zodat cross-flashes weer gaan werken, want veel mensen zullen wel gewoon een power limit van 600W willen.
Lagere temperaturen zullen wederom de meeste impact hebben op een hoge stabiele core boost clock.
Mijn verwachting is dat de FE deze keer de beste kaart gaat zijn: een hoge power limit én een goede koeler
De 3090 lijkt zo op de eerste data een stuk beter te koelen dan de 3080, ondanks het hogere TDP. Verder verwacht ik fors hogere power limits bij enkele AIB opties. Het interessante aan power limits is dat mensen straks weer volledig in percentages gaan rekenen, waardoor een kaart met zeg een standaard limiet van 350W en de optie deze met 15% te verhogen naar 400W als "minder" wordt gezien dan een andere kaart die standaard een limiet heeft van 320W met een maximale verhoging van 20%. Hiermee zit je effectief op 384W, maar 15% < 20%SpX schreef op zondag 13 september 2020 @ 11:30:
[...]
Mijn verwachting is dat de FE deze keer de beste kaart gaat zijn: een hoge power limit én een goede koeler
Prestatie per watt is toch wel belangrijk want dat speelt uiteindelijk gewoon mee in de totaal prijs van de kaart.Paprika schreef op zondag 13 september 2020 @ 11:50:
[...]
De 3090 lijkt zo op de eerste data een stuk beter te koelen dan de 3080, ondanks het hogere TDP. Verder verwacht ik fors hogere power limits bij enkele AIB opties. Het interessante aan power limits is dat mensen straks weer volledig in percentages gaan rekenen, waardoor een kaart met zeg een standaard limiet van 350W en de optie deze met 15% te verhogen naar 400W als "minder" wordt gezien dan een andere kaart die standaard een limiet heeft van 320W met een maximale verhoging van 20%. Hiermee zit je effectief op 384W, maar 15% < 20%. Helaas weten maar weinig mensen hoe het allemaal echt werkt en de rest roept maar gewoon iets en dat laatste betreft dus de meerderheid.
Ik zit net toevallig even de GA-100 vs de 3080 te vergelijken op specs.
GA-100:
- 65,5 Miljard transistoren
- 826 mm²
- 400 Watt
RTX 3080
- 28 Miljard transistoren
- 628 mm²
- 320 Watt
De GA-100 heeft dus :
134% meer transistoren
31% minder ruimte
25% meer wattage
Dit geeft wel duidelijk aan hoe veel beter het tsmc procede is qua dichtheid. Ik hoop echt dat er een refresh komt van de 30xx serie op TSMC want die samsung node is echt vrij slecht als ik het zo zie.
Tenzij er technische redenen waren om het niet op TSMC 7nm te produceren zoals bijvoorbeeld een te lage frequency maar dat geloof ik niet echt.
Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.
Ach ja Nvidia heeft dus in ieder geval nog makkelijk ruimte om door te groeien met dit design en node shrinks uit te voeren voor nog betere prestaties. Laten we hopen dat AMD ze snel in een nieuwe super versie pushed. Al is dat wat zuur voor de mensen die gepreordered hebben maarja eigen schuld dikke bult dan maar
Pls correct me if wrong, maar ben je nu niet appels met peren aan het vergelijken? Een niche product met dito prijskaart tegen een massa product afzetten kan, maar dan moet je de prijs in de vergelijking ook meenemen. En nou juist die laat je achterwege.computerjunky schreef op zondag 13 september 2020 @ 13:25:
[...]
Prestatie per watt is toch wel belangrijk want dat speelt uiteindelijk gewoon mee in de totaal prijs van de kaart.
Ik zit net toevallig even de GA-100 vs de 3080 te vergelijken op specs.
GA-100:
- 65,5 Miljard transistoren
- 826 mm²
- 400 Watt
RTX 3080
- 28 Miljard transistoren
- 628 mm²
- 320 Watt
De GA-100 heeft dus :
134% meer transistoren
31% minder ruimte
25% meer wattage
Dit geeft wel duidelijk aan hoe veel beter het tsmc procede is qua dichtheid. Ik hoop echt dat er een refresh komt van de 30xx serie op TSMC want die samsung node is echt vrij slecht als ik het zo zie.
Tenzij er technische redenen waren om het niet op TSMC 7nm te produceren zoals bijvoorbeeld een te lage frequency maar dat geloof ik niet echt.
Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.
Ach ja Nvidia heeft dus in ieder geval nog makkelijk ruimte om door te groeien met dit design en node shrinks uit te voeren voor nog betere prestaties. Laten we hopen dat AMD ze snel in een nieuwe super versie pushed. Al is dat wat zuur voor de mensen die gepreordered hebben maarja eigen schuld dikke bult dan maar
En waarschijnlijk een significant duurdere chip oplevert omdat Samsung simpelweg goedkoper is. Net als dat zelfs als je een Nvidia kaart wil kopen het goed is dat er concurrentie is vanuit AMD, is het ook goed dat iemand TSMC laat zien dat ze niet de enige zijn die chips kunnen produceren.computerjunky schreef op zondag 13 september 2020 @ 13:25:
[...]
Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.
Ja de producten vershillen maar een groot deel van de producten hebben hetzelfde design. Het aantal transistoren en de mm2 hebben dus wel degelijk een waarde.onsgeluk schreef op zondag 13 september 2020 @ 13:33:
[...]
Pls correct me if wrong, maar ben je nu niet appels met peren aan het vergelijken? Een niche product met dito prijskaart tegen een massa product afzetten kan, maar dan moet je de prijs in de vergelijking ook meenemen. En nou juist die laat je achterwege.
Er zit wel verschil in want zo heeft de GA-100 geen RT cores maar wel weet meer SFU's maar zelf alle verschillen bij elkaar verklaren in de verste verte geen 134% in transistor density.
In de basis gebruiken ze een zelfde SM model met iets andere verhoudingen.
Dus nee je kan het niet 1 op 1 vergelijken maar de verschillen zijn dermate groot dat je toch wel vast kan stellen dat er behoorlijk wat te winnen is met een TSMC node.
Ja samsung zal goedkoper zijn maar meer beter yields per waffer en meer chips per wafer is ook best wat waard.Sissors schreef op zondag 13 september 2020 @ 13:35:
[...]
En waarschijnlijk een significant duurdere chip oplevert omdat Samsung simpelweg goedkoper is. Net als dat zelfs als je een Nvidia kaart wil kopen het goed is dat er concurrentie is vanuit AMD, is het ook goed dat iemand TSMC laat zien dat ze niet de enige zijn die chips kunnen produceren.
Daarnaast kan je een zuinigere chip verder pushen vanuit de fabriek en daardoor een nog kleinere chip maken met dezelfde power draw en prestaties en dus nog meer uit je investering in een beter procede halen.
En ja concurrentie voor TSMC zou goed zijn. Maar samsung is gewoon een slechter product. En TSMC verkoopt nog steeds al zijn capaciteit manden vooruit dus het zal ze werkelijk een worst wezen wie het gebruikt. als er een gat zou zijn zou intel daar bijvoorbeeld ook wel mee vandoor willen gaan. We kunnen dus alleen maar hopen dat de geld injectie ze beter maakt maar samsung heeft geld zat dus daar geloof ik niet in.
Misschien dat ze wat informatie uit de samenwerking met Nvidia halen maar daar houd het dan ook wel op.
[ Voor 12% gewijzigd door computerjunky op 13-09-2020 13:44 ]
Dit telt helaas niet als nieuws.
[ Voor 69% gewijzigd door Blaat op 13-09-2020 17:42 ]
Nog een vraag: Werkt een kaart met 3x8pin als ik enkel 2x8 pin aansluit? Voor het geval dat.
Met 1440p 60hz vraag ik waarschijnlijk geen 375W, dus dan heb ik nog een dag om eventueel een sleeved 8 pin kabel te kopen.
Met 1440p 60hz vraag ik waarschijnlijk geen 375W, dus dan heb ik nog een dag om eventueel een sleeved 8 pin kabel te kopen.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Nop, je moet ze allemaal aansluiten.
En de vraag is of het echt zinvol is een OC'd kaart te kopen met hoger power limit als je voeding dat niet aan kan.
En de vraag is of het echt zinvol is een OC'd kaart te kopen met hoger power limit als je voeding dat niet aan kan.
Mijn voeding kan het wel aan. Maar als bijvoorbeeld de MSI 3080 Gaming X Trio lekker stil is, en mooie RGB heeft, dan neem ik 'm, ongeacht het aantal aansluitingen.Sissors schreef op zondag 13 september 2020 @ 19:24:
Nop, je moet ze allemaal aansluiten.
En de vraag is of het echt zinvol is een OC'd kaart te kopen met hoger power limit als je voeding dat niet aan kan.
Ik hou puur een slag om de arm als de best presterende kaart (in termen van temperatuur en db) toevallig 3x8pin heeft.
[ Voor 12% gewijzigd door Sander64 op 13-09-2020 19:34 ]
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Zie net dat de Asus ook 3x8 nodig heeft, en uiteraard recent sleeved cables gekocht en heb maar 2x8 liggen. pff.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Wat betreft de geheugengrootte van de 3080: In hoeverre staat de hoeveelheid geheugen in verhouding tot de snelheid van het geheugen? En waar dient het één en het andere voor?
En waarom is er gekozen voor 10GB i.p.v. 11GB van de 2080ti? (ondanks het feit dat het een ander type geheugen is).
En waarom is er gekozen voor 10GB i.p.v. 11GB van de 2080ti? (ondanks het feit dat het een ander type geheugen is).
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
https://www.techpowerup.c...-to-memory-amount.170588/Sander64 schreef op zondag 13 september 2020 @ 21:45:
En waarom is er gekozen voor 10GB i.p.v. 11GB van de 2080ti? (ondanks het feit dat het een ander type geheugen is).
De 3080 heeft een 320-bit bus en de 2080 Ti 352-bit.
320 / 32 = 10, 352 / 32 = 11.
[ Voor 3% gewijzigd door Paprika op 13-09-2020 23:12 ]
Meer in de zin van: Waarom is er gekozen voor minder geheugen.Paprika schreef op zondag 13 september 2020 @ 23:11:
[...]
https://www.techpowerup.c...-to-memory-amount.170588/
De 3080 heeft een 320-bit bus en de 2080 Ti 352-bit.
320 / 32 = 10, 352 / 32 = 11.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Omdat een grote bus en meer geheugen ook meer geld kost.Sander64 schreef op zondag 13 september 2020 @ 23:39:
[...]
Meer in de zin van: Waarom is er gekozen voor minder geheugen.
Het is ook een lager gepositioneerde kaart, de 3080 is de opvolger van de 2080(s), de 3090 is de opvolger van de 2080ti.Sander64 schreef op zondag 13 september 2020 @ 23:39:
[...]
Meer in de zin van: Waarom is er gekozen voor minder geheugen.
De 3090 is de opvolger van de Titan RTX, niet van de 2080Ti.
Desktop: i5-14600K, 32GB DDR5-6000, RTX 5070 Ti; Laptop: MacBook Pro M1 Pro 14" 16/512; Server: R9-7950X, 192GB DDR5-5600
Huh dat bepaal jij niet,dat doet Nvidia wel na het zien waar AMD mee komt.spone schreef op maandag 14 september 2020 @ 00:36:
De 3090 is de opvolger van de Titan RTX, niet van de 2080Ti.
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.
als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
[ Voor 10% gewijzigd door hully op 14-09-2020 06:51 ]
Dat hangt van je eisen af. Als je alles op ultra wil spelen met rtx op max, dan verwacht ik dat er nog genoeg AAA games zijn waar je zelfs met een 3090 niet de hele tijd 120 fps haalt op 3440x1440.hully schreef op maandag 14 september 2020 @ 06:50:
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.
als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.hully schreef op maandag 14 september 2020 @ 06:50:
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.
als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.
Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.
Je kan er vrij zeker van zijn dat er nog een 3080ti komt gezien het gat van $800 tussen de kaarten =)mitsumark schreef op zondag 13 september 2020 @ 23:45:
[...]
Het is ook een lager gepositioneerde kaart, de 3080 is de opvolger van de 2080(s), de 3090 is de opvolger van de 2080ti.
ah thx, 3080 it will be.Waah schreef op maandag 14 september 2020 @ 07:39:
[...]
Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.
En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.
Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.
Naast de nieuwe videokaarten is er ook nog ander nieuws: nieuws: Nvidia bereikt akkoord over overname Arm voor 40 miljard dollar
Hoe groot is de kans dat deze deal doorgaat?
Hoe groot is de kans dat deze deal doorgaat?
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Wat denk je van de 7080 en de 8080 in 2025 Die zijn nog veel sneller. Ik zou wachtenWaah schreef op maandag 14 september 2020 @ 07:39:
[...]
Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.
En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.
Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Redelijk groot imo. Alleen China zou dwars kunnen liggen. Die kans is zeker geen nul, maar ik verwacht het niet. Wel zal het een langdurig proces worden met veel eisen van overheden.RobinNL schreef op maandag 14 september 2020 @ 09:36:
Naast de nieuwe videokaarten is er ook nog ander nieuws: nieuws: Nvidia bereikt akkoord over overname Arm voor 40 miljard dollar
Hoe groot is de kans dat deze deal doorgaat?
Laten we het hopen. Ik zei het gisteren al op de FP, maar dit kan echt rampzalig uitpakken. Uitgerekend Nvidia (en Intel, AMD, Apple, Qualcomm, Samsung) zou ARM van z'n leven niet mogen kopen. ARM is té belangrijk voor de wereld. Je moet moeite doen om een smartphone of tablet te vinden die níet op ARM draait. En Apple gaat nu al hun producten op ARM laten draaien. Dat laatste zou overigens wel een interessante soap kunnen worden als het wél door gaat, gezien de moeizame relatie tussen Apple en Nvidia.Sissors schreef op maandag 14 september 2020 @ 09:47:
Wel zal het een langdurig proces worden met veel eisen van overheden.
Zelfs Intel zou ik meer vertrouwen met ARM. Van alle genoemde bedrijven zijn het Apple en Nvidia die ik het gevaarlijkst acht. De bedrijfsvoering van beide lijkt heel erg op elkaar: koop dingen op, haal ze vrijwel volledig van de markt af in hun bestaande vorm en gebruik ze vervolgens enkel in propriëtaire producten of draai ze volledig de nek om. Geen van beide zijn goed in leuk met anderen spelen.
De belangrijkste voorwaarde moet zijn dat alle bestaande en toekomstige ARM producten beschikbaar moeten blijven, zijn en worden zoals ze dat nu ook zijn, waarbij Nvidia zichzelf geen voordeel mag geven.
Waarom zou Nvidia ooit daar in mee gaan ? Dit geloof je zelf niet tochWerelds schreef op maandag 14 september 2020 @ 09:57:
De belangrijkste voorwaarde moet zijn dat alle bestaande en toekomstige ARM producten beschikbaar moeten blijven, zijn en worden zoals ze dat nu ook zijn, waarbij Nvidia zichzelf geen voordeel mag geven.
@Werelds Dat dus.
Ik ben alleen bang dat het wel door zal gaan en het is niet goed voor iedereen die in het ARM platform zit. Weinig bedrijven in Silicon Valley die potentieel slechter kunnen zijn. Eigenlijk alleen Apple zou erger kunnen zijn. Komt nog eens bij dat Nvidia behoorlijk moeizame relaties heeft met zo ongeveer elke grote speler in de industrie, maar met Apple is het helemaal erg. Dat is helemaal misgegaan met "bump gate" en sindsdien moet Apple geen Nvidia producten meer.
Ik zie Apple dit eigenlijk al aanvechten, maar of ze succesvol gaan zijn is een tweede. Voor Apple zou dit ook wel eens de spreekwoordelijke druppel kunnen zijn. Jim Keller is op de markt en hem uitnodigen om een RISC-V architectuur te ontwikkelen voor Apple is een reële mogelijkheid. Ik zie meer bedrijven die stap gaan overwegen als het alternatief is om met Nvidia te werken. Zelfs als er een periode wordt afgesproken waarin Nvidia niks mag doen met ARM licenties onthouden of zaken voor zichzelf houden, dan nog zie ik aardig wat bezorgdheid en wantrouwen ontstaan bij bedrijven zoals Qualcomm of de ARM SoC tak van Samsung die juist met AMD in zee is gegaan voor de GPU kant. Nvidia zal het leuk vinden dat Samsung samenwerkt met AMD voor RDNA GPU's. Dat zal dus al een zorg zijn of Nvidia op termijn niet hun eigen grafische IP gaat pushen en verplicht stellen.
Intel zal dit zien als een aanval op hun Xeon's. Intel is ook al jaren bezig om Nvidia zoveel mogelijk erbuiten te houden en dat gaat ook hard tegen hard. Rechtszaken over PCI-E verbindingen zijn allang gevoerd. AMD zal ook niet te staan springen als Nvidia opeens CPU+GPU servers kan doen.
Alles bij elkaar, pak je popcorn erbij want dit kunnen wel eens rechtszaken gaan worden.
Ik ben alleen bang dat het wel door zal gaan en het is niet goed voor iedereen die in het ARM platform zit. Weinig bedrijven in Silicon Valley die potentieel slechter kunnen zijn. Eigenlijk alleen Apple zou erger kunnen zijn. Komt nog eens bij dat Nvidia behoorlijk moeizame relaties heeft met zo ongeveer elke grote speler in de industrie, maar met Apple is het helemaal erg. Dat is helemaal misgegaan met "bump gate" en sindsdien moet Apple geen Nvidia producten meer.
Ik zie Apple dit eigenlijk al aanvechten, maar of ze succesvol gaan zijn is een tweede. Voor Apple zou dit ook wel eens de spreekwoordelijke druppel kunnen zijn. Jim Keller is op de markt en hem uitnodigen om een RISC-V architectuur te ontwikkelen voor Apple is een reële mogelijkheid. Ik zie meer bedrijven die stap gaan overwegen als het alternatief is om met Nvidia te werken. Zelfs als er een periode wordt afgesproken waarin Nvidia niks mag doen met ARM licenties onthouden of zaken voor zichzelf houden, dan nog zie ik aardig wat bezorgdheid en wantrouwen ontstaan bij bedrijven zoals Qualcomm of de ARM SoC tak van Samsung die juist met AMD in zee is gegaan voor de GPU kant. Nvidia zal het leuk vinden dat Samsung samenwerkt met AMD voor RDNA GPU's. Dat zal dus al een zorg zijn of Nvidia op termijn niet hun eigen grafische IP gaat pushen en verplicht stellen.
Intel zal dit zien als een aanval op hun Xeon's. Intel is ook al jaren bezig om Nvidia zoveel mogelijk erbuiten te houden en dat gaat ook hard tegen hard. Rechtszaken over PCI-E verbindingen zijn allang gevoerd. AMD zal ook niet te staan springen als Nvidia opeens CPU+GPU servers kan doen.
Alles bij elkaar, pak je popcorn erbij want dit kunnen wel eens rechtszaken gaan worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Elke 2 jaar upgraden is gewoon voordeliger, en je het hardware die krachtig genoeg is en altijd de nieuwste features heeft.winwiz schreef op maandag 14 september 2020 @ 09:37:
[...]
Wat denk je van de 7080 en de 8080 in 2025 Die zijn nog veel sneller. Ik zou wachten
Maar als jij liever 1x per 4 jaar 1500 uitgeeft, voor een jaartje of max 2 lang 10/20% meer performance... En vervolgens véél minder performance geeft als de opvolger... Be my guest!
Top end kaarten zijn enkel zinvol als je geld als water hebt.... Of als je dus, zoals gezegd, een grafische toepassing hebt die er wat mee kan.
Maar er een "grappige" dooddoener tegenaan gooien is natuurlijk lekker makkelijk scoren
En dit is precies de gedachtegang waardoor concurrentie een stille dood sterft. Als Nvidia daar niet mee akkoord wil gaan, doen ze dat toch lekker niet? Dit is een overname die voor belachelijk weinig geld belachelijk veel macht geeft. Voor 40 miljard krijgt Nvidia ineens alle macht over een bedrijf dat pakweg 2 triljoen waard is. Alleen al tussen Apple en Qualcomm hebben ze ineens meer dan 50% van de smartphone markt bij de ballen. Gooi HiSilicon erbij en je zit tegen de 75% aan.Skybullet schreef op maandag 14 september 2020 @ 10:35:
Waarom zou Nvidia ooit daar in mee gaan ? Dit geloof je zelf niet toch, welk voordeel zouden ze dan nog halen uit de overname? Dit is nou eenmaal de wereld zoals het werkt, je koopt een bedrijf op, je behoudt alles wat voor jouw onderneming voordelig is en dumpt de rest. En dat is trouwens Nvidia hun goed recht om te doen.
Nvidia is dan wel een kleine speler in deze markt, dat is echter niet wat ze wíllen zijn. Het doel van Tegra was Qualcomm van de troon te stoten en dat is ze niet gelukt (deels door prestaties, deels door hun vraagprijzen). Dit geeft ze nu de macht om Qualcomm helemaal kapot te maken als niemand daar een stokje voor steekt.
Er wordt vervolgens op veel plekken gescandeerd dat "men" (Apple, Qualcomm) dan maar lekker op alternatieven over moet gaan. Dat is een bijzonder domme opmerking, want deze licenties hebben ook betrekking op producten die al op de markt zitten of ontwikkeld worden. "Even" overstappen op bijvoorbeeld RISC-V gaat niet, dat heeft enkele jaren nodig.
Als laatste, nee, dat is níet hun goed recht. Dat is waar het mededingingsrecht (antitrust) om draait. Niemand hier zou het een goed idee vinden als ARM ineens op de één of andere manier de controle kreeg over MIPS of RISC-V. Of Apple over Nvidia. Zou je het nog steeds een goed idee vinden als Apple besloot Nvidia op te kopen met de gedachte Nvidia's technologie exclusief in Apple producten te gebruiken? Dat zou zelfs minder effect hebben dan deze overname, want het zou enkel PC gamers treffen; er zou dan geen concurrentie meer zijn en bestaande gebruikers zouden de lul zijn, maar dat is in verhouding een peuleschil.
Wees niet bang, ik koop eens in de 2 a 3 jaar een nieuwe GPU, het ligt aan het verschil met de vorige generatie. Refreshes ben ik sowieso niet in geinterreseerd. Kortom minimaal 40% winst en anders blijf ik hangen. En 100% meer betalen om 20% meer snelheid is sowieso al gekkenwerk in mijn ogen.Waah schreef op maandag 14 september 2020 @ 11:07:
[...]
Elke 2 jaar upgraden is gewoon voordeliger, en je het hardware die krachtig genoeg is en altijd de nieuwste features heeft.
Maar als jij liever 1x per 4 jaar 1500 uitgeeft, voor een jaartje of max 2 lang 10/20% meer performance... En vervolgens véél minder performance geeft als de opvolger... Be my guest!
Top end kaarten zijn enkel zinvol als je geld als water hebt.... Of als je dus, zoals gezegd, een grafische toepassing hebt die er wat mee kan.
Maar er een "grappige" dooddoener tegenaan gooien is natuurlijk lekker makkelijk scoren
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Dat zeg ik ook niet. Ik zeg dat zeker Apple het zal overwegen. De geruchten gaan al een tijdje en zeker een bedrijf zoals Apple zal allang hun analyses hebben gemaakt. Apple is met hun gesloten ecosysteem ook de enige die potentieel kan overwegen om zo naar RISC-V te gaan. Het zal ze wat kosten om zelf RISC-V chips te gaan maken en hun ecosysteem voor te bereiden op de overstap. Het kost tijd, ze zullen het niet leuk vinden nu ze net naar ARM begonnen over te stappen, maar Apple laat zich niet overleveren aan een ambitieuze speler, zeker niet aan Nvidia.Werelds schreef op maandag 14 september 2020 @ 11:10:
Er wordt vervolgens op veel plekken gescandeerd dat "men" (Apple, Qualcomm) dan maar lekker op alternatieven over moet gaan. Dat is een bijzonder domme opmerking, want deze licenties hebben ook betrekking op producten die al op de markt zitten of ontwikkeld worden. "Even" overstappen op bijvoorbeeld RISC-V gaat niet, dat heeft enkele jaren nodig.
Nvidia zal deze overname ook juridisch hebben getoetst voordat ze met de deal kwamen aanzetten. Ik heb zelf helaas ook weinig vertrouwen in moderne antitrust autoriteiten omdat ze wel vaker zaken hebben laten lopen waar je vraagtekens bij kan plaatsen. Ook verschilt het per regio. In China was het al een politiek proces, maar nu zeker gezien de Amerikanen die achter de CCP aangaan. Dat gaat niet meer stoppen, ook niet onder Biden. Daar zal de inzet zijn dat HiSilicon nog toegang houdt tot ARM. Als dat door sancties niet kan, tja dan zie ik de CCP de deal misschien proberen te blokkeren op politieke gronden. Dat is denk ik de beste hoop. De VS zie ik het niet blokkeren omdat een Amerikaans bedrijf haar invloed vergroot. De VS is te veel een quasi democratische oligarchie gestoeld op het Nederlands model van de Republiek om echt verwacht te worden te handelen buiten selectief belang. Ik laat me graag verassen, maar ik denk het niet.
De Britten gaan een realiteitscheck krijgen wat er gebeurd als je uit een van de grote blokken stapt en er alleen voor staat, zonder "empire". Die gaan serieuze politieke druk ervaren als de Amerikanen en de CCP wel akkoord gaan als die laatste twee krijgen wat ze eruit willen hebben. Dan de vaak politiek aangestelde technocraten in de EU die ik denk ik het lastigst vind om in te schatten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Leuk verhaal maar als alle mededingingsautoriteiten van de betreffende landen met deze deal instemmen is het dus wel hun goed recht.Werelds schreef op maandag 14 september 2020 @ 11:10:
Als laatste, nee, dat is níet hun goed recht..
Was ook niet op jou gerichtDaniëlWW2 schreef op maandag 14 september 2020 @ 11:42:
Dat zeg ik ook niet.
Meer op reacties die ik op de FP en elders zie.
En dat was mijn punt dus: die zouden hier van z'n leven niet mee akkoord moeten gaan, tenzij er heel strikte voorwaarden aan verbonden zijn. Jij denkt dat Nvidia daar nooit mee akkoord zou gaan, ik denk dat het zelfs dan nog steeds interessant voor Nvidia is.Skybullet schreef op maandag 14 september 2020 @ 11:43:
Leuk verhaal maar als alle mededingingsautoriteiten van de betreffende landen met deze deal instemmen is het dus wel hun goed recht.
Toch verwacht ik dat de mededingingsautoriteiten deze deal gaan goedkeuren.
De voorwaarden die erbij komen zullen vast niet voor onbepaalde tijd gelden...
De voorwaarden die erbij komen zullen vast niet voor onbepaalde tijd gelden...
Dat ging dan even over me heen.Werelds schreef op maandag 14 september 2020 @ 11:46:
[...]
Was ook niet op jou gericht
Meer op reacties die ik op de FP en elders zie.
Ik heb trouwens ook nog een leuke voor jou. GA102 en lager hebben nog steeds 48kb+16kb shader memory per SM, maar wel 2x FP32 en Nvidia haar betere RT claims.
Ik denk dat ik net genoeg begrijp om te snappen dat dit twijfelachtig is. Zo lijkt Ampere steeds meer op een professioneel gerichte GPU die heel goed specifieke zaken kan berekenen, maar niet zo goed is in FP32+INT32+RT onder gaming workloads.
In compute mode, the GA10x SM will support the following configurations:
— Andreas Schilling 🇺🇦 🇮🇱 (@aschilling) 13 september 2020
- 128 KB L1 + 0 KB Shared Memory
- 120 KB L1 + 8 KB Shared Memory
- 112 KB L1 + 16 KB Shared Memory
- 96 KB L1 + 32 KB Shared Memory
- 64 KB L1 + 64 KB Shared Memory
- 28 KB L1 + 100 KB Shared Memory
For graphics workloads and async compute, GA10x will allocate 64 KB L1 data / texture cache (increasing from 32 KB cache allocation on Turing), 48 KB Shared Memory, and 16 KB reserved for various graphics pipeline operations.
— Andreas Schilling 🇺🇦 🇮🇱 (@aschilling) 13 september 2020
Ergens vind ik het jammer dat we tot woensdag moeten wachten. Ik ben namelijk steeds benieuwder wat Ampere nu werkelijk kan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Ik twijfel nog tussen de 3070 en 3080. Op zich wel 'slim' van nVidia dat ze eerst de duurste uitbrengen en een volle maand later de goedkopere. Voor 1440p gaming zal een 3070 wel even volstaan denk ik. Mijn GTX970 heb ik 6 jaar gebruikt, als ik met de 3070 vijf jaar kan doen en met een 3080 zeven jaar, dan komt het financieel wel op hetzelfde neer (100 euro per jaar
) Maar dat maakt de keuze nog niet gemakkelijker.
Dat hangt van je persoonlijke eisen af. Voor 1440p 60hz gaming zal de RTX 3070 wellicht ruim voldoende zijn, maar voor 1440p 144 Hz misschien toch niet toereikend genoeg.Verwijderd schreef op maandag 14 september 2020 @ 12:50:
Ik twijfel nog tussen de 3070 en 3080. Op zich wel 'slim' van nVidia dat ze eerst de duurste uitbrengen en een volle maand later de goedkopere. Voor 1440p gaming zal een 3070 wel even volstaan denk ik.
Verwijderd
Het is voor 75 Hz en voorlopig vooral Flight Simulator, die heeft niet zo'n hoge frame/refreshrate nodig, maar ik speel het wel graag met zo hoog mogelijke settings. Tot voor kort speelde ik ook FPS games op 60 Hz, nu dus op 75 Hz. Ik heb wel nog twijfels bij de hoeveelheid geheugen: FS2020 gebruikt nu al bijna 8GB, maar dat is momenteel wel een uitzondering en met DLSS games zal de noodzaak waarschijnlijk verminderen.XWB schreef op maandag 14 september 2020 @ 12:53:
[...]
Dat hangt van je persoonlijke eisen af. Voor 1440p 60hz gaming zal de RTX 3070 wellicht ruim voldoende zijn, maar voor 1440p 144 Hz misschien toch niet toereikend genoeg.
De hoeveelheid VRAM die wordt gebruikt zegt vrij weinig wanneer deze niet over de limiet van de kaart schiet. Immers is het idee van geheugen dat je pre-buffered, dus bij meer beschikbaarheid ga je ook meer reserveren. Verder scheelt de 3080 wel bovengemiddeld veel t.o.v. de 3070 (meestal is dat gat kleiner), maar het is ook niet gek gezien ze nu van een andere chip gebruikmaken i.p.v. dat de 3070 een down-sized versie is.Verwijderd schreef op maandag 14 september 2020 @ 13:06:
[...]
Het is voor 75 Hz en voorlopig vooral Flight Simulator, die heeft niet zo'n hoge frame/refreshrate nodig, maar ik speel het wel graag met zo hoog mogelijke settings. Tot voor kort speelde ik ook FPS games op 60 Hz, nu dus op 75 Hz. Ik heb wel nog twijfels bij de hoeveelheid geheugen: FS2020 gebruikt nu al bijna 8GB, maar dat is momenteel wel een uitzondering en met DLSS games zal de noodzaak waarschijnlijk verminderen.
Misschien wordt raytracing wel heel groot de komende jaren en is het idee van een 3080 7 jaar gebruiken minder praktisch (ten opzichte van een mindere kaart eerst upgraden). Of misschien blijft het een (te dure) gimmick dat in de meeste spellen gewoon uit kan blijven. Je kunt nu natuurlijk ook al besluiten dat je met RT sowieso niks hebt, dat maakt het makkelijker. Ik vind het iig spannend genoeg dat ik zelf niet alvast het dikste ga kopen met het idee dat ik er weer jaren tegenaan kan. (Nog afgezien van het feit dat ik sowieso ga wachten waar AMD mee komt, al was het maar om te weten hoe erg je NV nodig hebt voor dingen als RT en DLSS.)
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Verwijderd
Ik heb eens de vergelijking gemaakt voor FS2020 op 1440p Ultra, en volgens de (optimistische?) slides van nVidia is de prijs/prestatieverhouding van de 3080 beter dan van de 3070. Normaal gezien is het toch omgekeerd, dan betaal je exponentieel meer voor de snellere kaarten. De vraag is ook hoeveel het op die resolutie nog schaalt met een gemiddelde CPU zoals de Ryzen 5 3600... Ik heb de 2060S ook gemarkeerd omdat ik voor de release van de 3000 reeks van plan was om die te kopen.
[ Voor 93% gewijzigd door Verwijderd op 14-09-2020 13:33 ]
@Verwijderd Bedenk daarbij wel dat de algemene consensus is dat je in FS het niet bepaald hoeft te hebben van 60+ framerates, in tegenstelling tot de meeste spellen, dus de vraag is of de extra frames de meerprijs rechtvaardigen, minder hoeveel elke frame kost. Dit geldt natuurlijk in het algemeen (van 20 naar 60 is nogal merkbaar voor iedereen; van 110 naar 150 waarschijnlijk alleen als je een e-sports FPS gamer bent), maar hier misschien in het bijzonder.
Nou zul je het wel niet alleen voor FS kopen, dus hoe het plaatje eruit gaat zien in andere spellen zal er ook nog toe doen.
Nou zul je het wel niet alleen voor FS kopen, dus hoe het plaatje eruit gaat zien in andere spellen zal er ook nog toe doen.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Sowieso gaat een 3080 die 86 FPS nooit halen. Reken eerder 63-65.
@DaniëlWW2 dat is wat ik eerder al zei, context switchen.
Alle units hebben hun eigen gereedschap, maar moeten vervolgens de werkbank met elkaar delen. Er kan wel veel heel snel doorgeschoven worden naar andere caches/geheugen, maar feit blijft dat er geschakeld moet worden. Het is lastig om er serieuze metaforen voor te bedenken, want de cache structuren in moderne chips zijn vrij complex. Je zit sowieso al met L0$ tot en met minimaal L2$ (vaak nog L3$), gedeeld geheugen her en der, caches die zelf al gesplit zijn (instructies en data gescheiden in L1). L1 is over het algemeen wel de belangrijkste voor performance. Je moet het zien alsof je je gereedschap en schroeven constant van werkbank naar rek naar kist (en weer terug) moet verplaatsen omdat iemand anders even de werkbank nodig heeft. En elke keer moet je de hele handel weer even ordenen voor je gaat werken
Zoals ik al zei, ik denk dat er nogal wat mensen op hun neus zullen kijken met de reviews. Het zal alle kanten op gaan met de cijfers. In eenzijdige workloads zal er een mooie sprong zijn, maar in mixed workloads zal het een flink stuk minder zijn. En zeker een stuk minder dan wat ik her en der zie qua hype.
Ampère lijkt vooralsnog de meest interessante architectuur sinds Maxwell te worden, maar tegelijkertijd lijken er ook een hoop onelegante dingen in te zitten. AMD's oplossing zal op sommige vlakken eleganter zijn, maar dan is het de vraag of dat in de praktijk ook lekker uit pakt.
We zullen het de komende maanden wel zien. Ik ga hoe dan ook smullen
Alle units hebben hun eigen gereedschap, maar moeten vervolgens de werkbank met elkaar delen. Er kan wel veel heel snel doorgeschoven worden naar andere caches/geheugen, maar feit blijft dat er geschakeld moet worden. Het is lastig om er serieuze metaforen voor te bedenken, want de cache structuren in moderne chips zijn vrij complex. Je zit sowieso al met L0$ tot en met minimaal L2$ (vaak nog L3$), gedeeld geheugen her en der, caches die zelf al gesplit zijn (instructies en data gescheiden in L1). L1 is over het algemeen wel de belangrijkste voor performance. Je moet het zien alsof je je gereedschap en schroeven constant van werkbank naar rek naar kist (en weer terug) moet verplaatsen omdat iemand anders even de werkbank nodig heeft. En elke keer moet je de hele handel weer even ordenen voor je gaat werken
Zoals ik al zei, ik denk dat er nogal wat mensen op hun neus zullen kijken met de reviews. Het zal alle kanten op gaan met de cijfers. In eenzijdige workloads zal er een mooie sprong zijn, maar in mixed workloads zal het een flink stuk minder zijn. En zeker een stuk minder dan wat ik her en der zie qua hype.
Ampère lijkt vooralsnog de meest interessante architectuur sinds Maxwell te worden, maar tegelijkertijd lijken er ook een hoop onelegante dingen in te zitten. AMD's oplossing zal op sommige vlakken eleganter zijn, maar dan is het de vraag of dat in de praktijk ook lekker uit pakt.
We zullen het de komende maanden wel zien. Ik ga hoe dan ook smullen
Verwijderd
Het is ook met toekomstige games in gedachten.MneoreJ schreef op maandag 14 september 2020 @ 14:01:
@Verwijderd Bedenk daarbij wel dat de algemene consensus is dat je in FS het niet bepaald hoeft te hebben van 60+ framerates, in tegenstelling tot de meeste spellen, dus de vraag is of de extra frames de meerprijs rechtvaardigen, minder hoeveel elke frame kost. Dit geldt natuurlijk in het algemeen (van 20 naar 60 is nogal merkbaar voor iedereen; van 110 naar 150 waarschijnlijk alleen als je een e-sports FPS gamer bent), maar hier misschien in het bijzonder.
Nou zul je het wel niet alleen voor FS kopen, dus hoe het plaatje eruit gaat zien in andere spellen zal er ook nog toe doen.
Dat denk ik ook, althans voor 1440p. Op 4k + RT zou het wel eens kunnen kloppen (2x sneller dan de 2080). Maar met 65 fps zou de prijs/prestatieverhouding iets in het nadeel van de 3080 zijn, wat ook logisch is. Bij vorige generaties hadden de duurdere kaarten altijd een slechtere prijs/prestatieverhouding, geen idee waarom dat nu anders zou zijn... Maar goed, over enkele dagen weten of de 3080 echt 2x sneller is dan de 2080, ook zonder RT en in 'lagere' resoluties zoals 1440p.Paprika schreef op maandag 14 september 2020 @ 14:03:
Sowieso gaat een 3080 die 86 FPS nooit halen. Reken eerder 63-65.
[ Voor 4% gewijzigd door Verwijderd op 14-09-2020 14:25 ]
Dit,Paprika schreef op maandag 14 september 2020 @ 13:11:
[...]
De hoeveelheid VRAM die wordt gebruikt zegt vrij weinig wanneer deze niet over de limiet van de kaart schiet. Immers is het idee van geheugen dat je pre-buffered, dus bij meer beschikbaarheid ga je ook meer reserveren. Verder scheelt de 3080 wel bovengemiddeld veel t.o.v. de 3070 (meestal is dat gat kleiner), maar het is ook niet gek gezien ze nu van een andere chip gebruikmaken i.p.v. dat de 3070 een down-sized versie is.
Het gaat er niet om want een tool aan geeft dat er gebruikt word maar om wat er daadwerkelijk gebruikt word.
Veel games laden gewoon veel meer in dan dat ze daadwerkelijk gebruiken. Niet alleen games trouwens windows en alle andere software doet hetzelfde.
Als ik alle ram clear dan gaat mijn clean boot windows 10 van 2.4 GB naar 580 MB. De rest is dus allemaal cached 'onzin' die windows niet nodig heeft maar reserveert voor het geval dat.
En android doet exact hetzelfde. Zo kan android draaien op 256 mb ram maar als he 8gb heb vult het gewoon 5gb op sommige toestellen.
Overigens is met de komst van DLSS op alle games (als we de geruchten mogen geloven) ram minder interessant omdat we op lagere resolutie kunnen gaan renderen.
Of die 10 of zelfs 8GB dus een probleem gaat zijn zullen we helaas pas over een aantal jaar zien wanneer de gpu toch wel aan vervanging toe is.
Ik heb echt geen idee of ik voor een 3070 of een 3080 ga. Maar kosten over 4 jaar met 1 gpu met hoog stroom verbruik of 2 gpu's met lagere stroom kosten spelen een grotere rol dan de 8 of 10 gb ram.
Met de 1 heb je veel meer bang voor the buck nu maar met de ander zit je misschien over 2 jaar beter en kan je er misschien wel 5 jaar mee doen.
De reviews gaan het bepalen. Er zijn immers wat aspecten van de 3070 specs die ik twijfelachtig vind qua prestatie claims gebaseerd op het aantal units dat er in zit ten opzichte van de 2080 TI.
Ik denk dat je die berekening over 2 dagen nog een keer moet maken met de echte data. Het valt nog te bezien of die 2x wel ergens gehaald gaat worden zonder DLSS.Verwijderd schreef op maandag 14 september 2020 @ 13:21:
Ik heb eens de vergelijking gemaakt voor FS2020 op 1440p Ultra, en volgens de (optimistische?) slides van nVidia is de prijs/prestatieverhouding van de 3080 beter dan van de 3070. Normaal gezien is het toch omgekeerd, dan betaal je exponentieel meer voor de snellere kaarten. De vraag is ook hoeveel het op die resolutie nog schaalt met een gemiddelde CPU zoals de Ryzen 5 3600... Ik heb de 2060S ook gemarkeerd omdat ik voor de release van de 3000 reeks van plan was om die te kopen.
[Afbeelding]
[ Voor 19% gewijzigd door computerjunky op 14-09-2020 14:54 ]
Verwijderd
Ook iets om rekening mee te houden: als je snel een 3080 wilt zal je op enkele dagen tijd moeten beslissen, anders zal je misschien achter het net vissen (uitverkocht). Veel hardcore gamers tellen af naar de 17e en de miners gaan er ook nog opspringen: https://be.hardware.info/...esse-in-nvidiars-rtx-3080computerjunky schreef op maandag 14 september 2020 @ 14:35:
[...]
Ik heb echt geen idee of ik voor een 3070 of een 3080 ga.
De 3070 zal denk ik niet zo'n stormloop kennen, de 'gemiddelde' gamer weet niet eens dat er een nieuwe generatie is, ik volgde ook geen GPU-nieuws bij de launch van de 2000-reeks (ik was ook niet toe aan een nieuwe GPU).
Dat minen was al debunked, dat verhaal klopt niet.Verwijderd schreef op maandag 14 september 2020 @ 14:50:
[...]
Ook iets om rekening mee te houden: als je snel een 3080 wilt zal je op enkele dagen tijd moeten beslissen, anders zal je misschien achter het net vissen (uitverkocht). Veel hardcore gamers tellen af naar de 17e en de miners gaan er ook nog opspringen: https://be.hardware.info/...esse-in-nvidiars-rtx-3080
De 3070 zal denk ik niet zo'n stormloop kennen, de 'gemiddelde' gamer weet niet eens dat er een nieuwe generatie is, ik volgde ook geen GPU-nieuws bij de launch van de 2000-reeks (ik was ook niet toe aan een nieuwe GPU).
Het zou echt fijn zijn als dit clickbait artikel zou verdwijnen.Verwijderd schreef op maandag 14 september 2020 @ 14:50:
[...]
miners gaan er ook nog opspringen: https://be.hardware.info/...esse-in-nvidiars-rtx-3080
Die rumour is al debunked. Het plaatje met de Inno3D hardware is letterlijk het testlab van Inno3D zelf. Helaas is de clickbait titel behouden voor HW.info belangrijker dan dit feit toevoegen en de clickbait weghalen...
Ik begrijp de analogie, redelijk.Werelds schreef op maandag 14 september 2020 @ 14:17:
@DaniëlWW2 dat is wat ik eerder al zei, context switchen.
Alle units hebben hun eigen gereedschap, maar moeten vervolgens de werkbank met elkaar delen. Er kan wel veel heel snel doorgeschoven worden naar andere caches/geheugen, maar feit blijft dat er geschakeld moet worden. Het is lastig om er serieuze metaforen voor te bedenken, want de cache structuren in moderne chips zijn vrij complex. Je zit sowieso al met L0$ tot en met minimaal L2$ (vaak nog L3$), gedeeld geheugen her en der, caches die zelf al gesplit zijn (instructies en data gescheiden in L1). L1 is over het algemeen wel de belangrijkste voor performance. Je moet het zien alsof je je gereedschap en schroeven constant van werkbank naar rek naar kist (en weer terug) moet verplaatsen omdat iemand anders even de werkbank nodig heeft. En elke keer moet je de hele handel weer even ordenen voor je gaat werken
Het ging me vooral als het zoveelste stukje van de puzzel leggen. Nu duidelijk is dat GA102 en lager dus geen extra cache hebben in hun SM's, weet je eigenlijk al dat je constant met register conflicten gaat zitten en context switching een probleem gaat zijn.
Dat denk ik dus ook. Ik zit eigenlijk al een beetje te wachten op het moment van de reviews. Ik vraag me af wat sommigen ervan gaan maken als de RTX3080 in de ene game nauwelijks sneller blijkt te zijn dan de RTX2080Ti en in de volgende game het opeens wel een stuk sneller is. Het is in ieder geval een mooie lakmoesproef voor de kwaliteit van veel reviewers. Ik vermoed zo dat Ryan Smith van Anandtech het de komende twee dagen heel erg druk gaat krijgen met telefoontjes en e-mails van andere reviewers die er geen ene F meer van begrijpen.Zoals ik al zei, ik denk dat er nogal wat mensen op hun neus zullen kijken met de reviews. Het zal alle kanten op gaan met de cijfers. In eenzijdige workloads zal er een mooie sprong zijn, maar in mixed workloads zal het een flink stuk minder zijn. En zeker een stuk minder dan wat ik her en der zie qua hype.
Ampère lijkt vooralsnog de meest interessante architectuur sinds Maxwell te worden, maar tegelijkertijd lijken er ook een hoop onelegante dingen in te zitten. AMD's oplossing zal op sommige vlakken eleganter zijn, maar dan is het de vraag of dat in de praktijk ook lekker uit pakt.
We zullen het de komende maanden wel zien. Ik ga hoe dan ook smullen
RDNA2, tja dat is op het moment echt een matig bij elkaar geschraapt beeld halve tegenstrijdigheden en waarschijnlijk een aardige dosis onzin. Dat is nu een kwestie van zes weken wachten en kijken waar dat schip strand. Het lijkt eleganter in elkaar te zitten dan Ampere, maar hoe snel het is blijft gewoon afwachten. Ik heb inmiddels ook wel genoeg RDNA2 zaken opgezocht.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ben ook erg benieuwd. Ik verwacht ook dat de stijgingen t.o.v. de 2080ti enorm zullen variëren per game/engine. Stel de 3080 is in sommige gevallen maar marginaal beter, dan kun je ook ervan uitgaan dat de 3070 lang niet altijd de 2080ti voorbij zal streven.
Ergens vind ik het jammer dat we tot woensdag moeten wachten. Ik ben namelijk steeds benieuwder wat Ampere nu werkelijk kan.
Misschien heb ik mijn 2080ti toch iets te vroeg verkocht
Ik hoop dat de nieuwe 3000-kaarten zo enorm slecht zijn voor minen, dat ipv etherium erbij er gewoon etherium af gaat...Paprika schreef op maandag 14 september 2020 @ 14:55:
[...]
Het zou echt fijn zijn als dit clickbait artikel zou verdwijnen.
Die rumour is al debunked. Het plaatje met de Inno3D hardware is letterlijk het testlab van Inno3D zelf. Helaas is de clickbait titel behouden voor HW.info belangrijker dan dit feit toevoegen en de clickbait weghalen...
[Afbeelding]
Het was absurd hoe schaars praktisch elke videokaart was en de enkele die beschikbaar was ging voor veel te hoge bedragen weg. Hopelijk gaat we dat niet nog een keer krijgen.
MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Ik zie online langzaam maar zeker de shine verminderen van de RTX30.
Er is al een kerel die tot 3-5% komt van een 3080 met een powermodded 2080ti (320w+).
Dit plaatje is ook grappig:
:strip_exif()/f/image/kjGxUZ9g1hUUoMUg1lhZSWqd.jpg?f=fotoalbum_large)
Daarmee geeft NVIDIA eigenlijk al aan dat de 3070 simpelweg niet in alle gevallen sneller zal zijn.
Er is al een kerel die tot 3-5% komt van een 3080 met een powermodded 2080ti (320w+).
Dit plaatje is ook grappig:
:strip_exif()/f/image/kjGxUZ9g1hUUoMUg1lhZSWqd.jpg?f=fotoalbum_large)
Daarmee geeft NVIDIA eigenlijk al aan dat de 3070 simpelweg niet in alle gevallen sneller zal zijn.
[ pctje te zien hier ] - Miauw
Als Nv niet de deadline had aangepast, had je nu heel wat meer geweten...Nog 47.5 uur
En als de concurrent dan een uur later iets laat leaken waarbij de rode streepjes ruwweg net zo ver gaan en dan er bij zet.... "why pay that much"
En als de concurrent dan een uur later iets laat leaken waarbij de rode streepjes ruwweg net zo ver gaan en dan er bij zet.... "why pay that much"
[ Voor 47% gewijzigd door winwiz op 14-09-2020 15:39 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
[YouTube: NVIDIA Geforce RTX 3080 (Founders Edition) Thermals]




[ Voor 81% gewijzigd door Paprika op 14-09-2020 15:51 ]
Dat ziet er cool uit.
spoiler:
Ha.ha.ha...
[ pctje te zien hier ] - Miauw
Mij is niet duidelijk hoe hij aan die gegevens is gekomen voor trainen van NN met een ampere gpu.GekkeR schreef op maandag 14 september 2020 @ 15:32:
Ik zie online langzaam maar zeker de shine verminderen van de RTX30.
Er is al een kerel die tot 3-5% komt van een 3080 met een powermodded 2080ti (320w+).
Dit plaatje is ook grappig:
[Afbeelding]
Daarmee geeft NVIDIA eigenlijk al aan dat de 3070 simpelweg niet in alle gevallen sneller zal zijn.
Erg benieuwd hoe de cpu temps zijn. Is dat een beetje uit dit filmpje te halen en met iets te vergelijken?
Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.Fusi0nking schreef op maandag 14 september 2020 @ 15:52:
[...]
Erg benieuwd hoe de cpu temps zijn. Is dat een beetje uit dit filmpje te halen en met iets te vergelijken?
Klopt het zegt niks over de gpu aangezien het de heatsink is. Load is ook niet bekend dat had ik niet helemaal door....naja mijn vraag kan ignored worden voor nuPaprika schreef op maandag 14 september 2020 @ 15:54:
[...]
Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.
Hoewel je er niet feitelijk wat uit kan halen, staat hij aan en is de temp 65c.
Mijn persoonlijke verwachting voor de 3080 FE is eigenlijk dat dat op 30dBa~ is op 320W (full load dus).
Let wel dat met een 65c koelblok, de gpu temp iets van 75-80 zal zijn.
Als je de 3080 FE thermal graph erbij pakt komt ook dat overeen ongeveer.
https://cdn.mos.cms.futur...cuUxuTgQGw23F-1200-80.jpg
Mijn persoonlijke verwachting voor de 3080 FE is eigenlijk dat dat op 30dBa~ is op 320W (full load dus).
Let wel dat met een 65c koelblok, de gpu temp iets van 75-80 zal zijn.
Als je de 3080 FE thermal graph erbij pakt komt ook dat overeen ongeveer.
https://cdn.mos.cms.futur...cuUxuTgQGw23F-1200-80.jpg
[ Voor 3% gewijzigd door GekkeR op 14-09-2020 16:16 ]
[ pctje te zien hier ] - Miauw
Toch lijkt het me best warm voor zo'n grote heatsink.Paprika schreef op maandag 14 september 2020 @ 15:54:
[...]
Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.
Wie goed doet, die goed ontmoet.
Als hij idle staat ja. Als hij furmark draait mwoaAtlAntA schreef op maandag 14 september 2020 @ 16:10:
[...]
Toch lijkt het me best warm voor zo'n grote heatsink.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
320W (default) is ook veel warmte.AtlAntA schreef op maandag 14 september 2020 @ 16:10:
[...]
Toch lijkt het me best warm voor zo'n grote heatsink.
RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10900K
YouTube: RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10...
YouTube: RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10...
-- My Gaming Rig Power -- -- <SG> Diabolic --
70 tot 80 fps maar toch is de game 1 grote slideshow. Ik wacht nog even op de echte benchmarks.Xtr3me4me schreef op maandag 14 september 2020 @ 16:36:
RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10900K
YouTube: RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10...
Wie goed doet, die goed ontmoet.
Anandtech editorial:
It’s Official: NVIDIA To Acquire Arm For $40 Billion
Ben er zelf niet zo happy mee. Al die papieren waarborgen zijn in de praktijk flinterdun.
Hopelijk houden de regulatory agencies e.d. dit tegen maar heb daar weinig vertrouwen in.
It’s Official: NVIDIA To Acquire Arm For $40 Billion
Ben er zelf niet zo happy mee. Al die papieren waarborgen zijn in de praktijk flinterdun.
Hopelijk houden de regulatory agencies e.d. dit tegen maar heb daar weinig vertrouwen in.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Ik denk dat je je vraag beter kan stellen in [Nvidia GeForce RTX 30XX] Ervaringen & DiscussieSander64 schreef op maandag 14 september 2020 @ 16:50:
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?
Wie goed doet, die goed ontmoet.
Dat vertellen we je donderdag om 16:00uur.Sander64 schreef op maandag 14 september 2020 @ 16:50:
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Fijn. Iets om naar uit te kijkenHelp!!!! schreef op maandag 14 september 2020 @ 16:54:
[...]
Dat vertellen we je donderdag om 16:00uur.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
76fps is zeker niet slecht.Xtr3me4me schreef op maandag 14 september 2020 @ 16:36:
RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10900K
YouTube: RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10...
Hoewel ik de settings niet ben nagelopen is een 2080ti volgens mij 50-55fps in 4K?
Laat maar komen die Cyberpunk
[ pctje te zien hier ] - Miauw
https://share.getcloudapp.com/Kour2pnnGekkeR schreef op maandag 14 september 2020 @ 16:57:
[...]
76fps is zeker niet slecht.
Hoewel ik de settings niet ben nagelopen is een 2080ti volgens mij 50-55fps in 4K?
Laat maar komen die Cyberpunk
Iets meer dan 55
Edit: zie nu dat deze knakker de instellingen wel aan heeft gepast. Het spel schaalt bij mijn weten echter niet zo goed, dus ik weet niet hoe veel invloed dat heeft gehad. TPU heeft een 2080 Ti zelfs op 48,7 FPS staan, PCGH op 64,6. Cijfers lopen nogal uit elkaar
[ Voor 29% gewijzigd door Werelds op 14-09-2020 19:15 ]
Het is dan ook een beetje een vreemde titel. Maar ik ga liever naar goede vertrouwde Australische Steve.Werelds schreef op maandag 14 september 2020 @ 19:00:
[...]
https://share.getcloudapp.com/Kour2pnn
Iets meer dan 55
Edit: zie nu dat deze knakker de instellingen wel aan heeft gepast. Het spel schaalt bij mijn weten echter niet zo goed, dus ik weet niet hoe veel invloed dat heeft gehad. TPU heeft een 2080 Ti zelfs op 48,7 FPS staan, PCGH op 64,6. Cijfers lopen nogal uit elkaar
Die verteld ons dat Pascal niet erg happig is op deze game, Vega 10 absoluut verschrikkelijk is, Turing vrij aardig en RDNA1 eigenlijk all over the place.
Het is denk ik primair een geheugenbandbreedte probleem, zie Vega 10 vs. Vega 20 en RTX2080 vs. RTX2080S. Als dat eenmaal goed zit, dan wil deze game wel.
Maar die video is fake of Nvidia heeft denk ik liever niet dat je die game gaat benchmarken.
[ Voor 4% gewijzigd door DaniëlWW2 op 14-09-2020 20:12 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik vind alle data van horizon zero dawn echt compleet waardeloos en het is dan ook een benchmark die ik volkomen negeer.
Er komt zulke rare data uit die game rollen dat je er eigenlijk niets mee kan en dus geen waarde heeft als prestatie benchmark. Er worden allerlei theorieën op losgelaten betreft pci-e 4.0 enz maar als 1 game zo raar doet en geen enkele andere dan zou ik toch zeggen het licht aan de game of the gpu drivers.
Als benchmark heeft die game echt geen meerwaarde tot ze daie game gronding patchen/drivers fixen.
Er komt zulke rare data uit die game rollen dat je er eigenlijk niets mee kan en dus geen waarde heeft als prestatie benchmark. Er worden allerlei theorieën op losgelaten betreft pci-e 4.0 enz maar als 1 game zo raar doet en geen enkele andere dan zou ik toch zeggen het licht aan de game of the gpu drivers.
Als benchmark heeft die game echt geen meerwaarde tot ze daie game gronding patchen/drivers fixen.
Die video hoeft niet fake te zijn, maar Horizon Zero Dawn is een heel slechte console port met een waslijst aan issues. De ontwikkelaar heeft al beloofd om performance verbeteringen door te voeren, dus wellicht is het beter om een tiental patches af te wachtenDaniëlWW2 schreef op maandag 14 september 2020 @ 20:10:
[...]
Het is dan ook een beetje een vreemde titel. Maar ik ga liever naar goede vertrouwde Australische Steve.
[YouTube: Horizon Zero Dawn GPU Benchmark: Navi Crushes, Vega Gets Crushed]
Die verteld ons dat Pascal niet erg happig is op deze game, Vega 10 absoluut verschrikkelijk is, Turing vrij aardig en RDNA1 eigenlijk all over the place.![]()
Het is denk ik primair een geheugenbandbreedte probleem, zie Vega 10 vs. Vega 20 en RTX2080 vs. RTX2080S. Als dat eenmaal goed zit, dan wil deze game wel.
Maar die video is fake of Nvidia heeft denk ik liever niet dat je die game gaat benchmarken.
Dat ben ik ook van plan voordat ik deze koop.XWB schreef op maandag 14 september 2020 @ 20:29:
[...]
Die video hoeft niet fake te zijn, maar Horizon Zero Dawn is een heel slechte console port met een waslijst aan issues. De ontwikkelaar heeft al beloofd om performance verbeteringen door te voeren, dus wellicht is het beter om een tiental patches af te wachten
Maar dat neemt niet weg dat geheugenbandbreedte en PCI-E 4.0 op het moment wel een verschil maken. Wat heeft de RTX3080 nu?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
IIG geen PCIe 4.0 op een Intel testsysteemDaniëlWW2 schreef op maandag 14 september 2020 @ 20:34:
[...]
Dat ben ik ook van plan voordat ik deze koop.
Maar dat neemt niet weg dat geheugenbandbreedte en PCI-E 4.0 op het moment wel een verschil maken. Wat heeft de RTX3080 nu?
Ik ben serieus benieuwd wat de resultaten zijn alles alles opnieuw wordt getest met Zen 3; tenminste als blijkt dat dez sneller is in games en wellicht juist met PCI-e 4.0 sneller is.Sissors schreef op maandag 14 september 2020 @ 21:59:
[...]
IIG geen PCIe 4.0 op een Intel testsysteem
Helaas even geen bron bij de hand, maar PCIE4.0 scheelt 1-3% op de 3090 las ik.Sp3ci3s8472 schreef op maandag 14 september 2020 @ 22:38:
[...]
Ik ben serieus benieuwd wat de resultaten zijn alles alles opnieuw wordt getest met Zen 3; tenminste als blijkt dat dez sneller is in games en wellicht juist met PCI-e 4.0 sneller is.
WEBN & chill (@IBKR)
Zou raar zijn het kan op de 5700xt kan het al meer schelen.DeadKennedy schreef op dinsdag 15 september 2020 @ 08:35:
[...]
Helaas even geen bron bij de hand, maar PCIE4.0 scheelt 1-3% op de 3090 las ik.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Persoonlijk (voeding)advies hoort niet thuis in een nieuws topic, zie het grote rode vak onderaan.
[ Voor 88% gewijzigd door Blaat op 15-09-2020 14:20 ]
System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.winwiz schreef op dinsdag 15 september 2020 @ 09:00:
[...]
Zou raar zijn het kan op de 5700xt kan het al meer schelen.
Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/
WEBN & chill (@IBKR)
https://outervision.com/power-supply-calculatorProtax schreef op dinsdag 15 september 2020 @ 09:05:
Wat is jullie gevoel qua voedingen? Ik heb op dit moment een 650W voeding in mijn systeem, wil uiteraard niet iets slopen (heb de Asus in "pre" order staan).
Mijn setup:
AMD Ryzen 7 2700X
Corsair RM650x PSU / PC voeding
G.Skill DDR4 Trident-Z 2x8GB 3200MHz CL14 RGB
Gigabyte X470 Aorus Gaming 5 WIFI
NZXT H500i - Black Midi Tower Behuizing
NZXT Kraken X62 AM4
Samsung 970 EVO Plus 1TB M.2 SSD
Met daarbij mijn huidige 1080.
Heb mijn eigen PC ingevuld met een 3080 (en 2 HHDs en 2 SSDs etc) en de site zegt 556W peak usage.
Grappig. Dat platform is er gewoon. Don't mention AMDDeadKennedy schreef op dinsdag 15 september 2020 @ 09:15:
[...]
System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.
Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Het ligt volledig aan de toepassing. Bij de ene gaat heel veel data door de PCI Express bus en is er een heel duidelijk verschil waar te nemen en bij een andere toepassing is het weinig data en is er (zo goed als) geen verschil.DeadKennedy schreef op dinsdag 15 september 2020 @ 09:15:
[...]
System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.
Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/
Verwijderd
Geen PSU calculator gebruiken die je volledig op het verkeerde been gaat zetten. Lees gewoon de topic waarschuwing.Leviathius schreef op dinsdag 15 september 2020 @ 09:16:
[...]
https://outervision.com/power-supply-calculator
Heb mijn eigen PC ingevuld met een 3080 (en 2 HHDs en 2 SSDs etc) en de site zegt 556W peak usage.
Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.winwiz schreef op dinsdag 15 september 2020 @ 09:17:
[...]
Grappig. Dat platform is er gewoon. Don't mention AMD
WEBN & chill (@IBKR)
Dat verschil is er alleen in 1080p bij hogere resoluties is er geen of nauwelijks verschilDeadKennedy schreef op dinsdag 15 september 2020 @ 09:23:
[...]
Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Zo kun je natuurlijk niet vergelijken.DeadKennedy schreef op dinsdag 15 september 2020 @ 09:23:
[...]
Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.
Als je gaat vergelijken, dan neem je eenzelfde amd systeem en test je de kaart op een pcie 3 slot en daarna op een pcie 4 slot. Dan pas kun je zien of het uitmaakt.
Dat Intel (soms) sneller is, komt over het algemeen doordat games beter draaien op hogere kloksnelheden en dat is waar intel iets beter in is dan amd. Zouden games beter geoptimaliseerd worden voor meerdere cores, dan zou (bij dezelfde prijs klasse) amd weer een voordeel hebben.
En dat kleine verschil zal dus groter zijn dan het verschil tussen PCI-E 3.0 en 4.0. Maargoed, we zullen het wellicht morgen allemaal in de benchmarkresultaten terugzien.winwiz schreef op dinsdag 15 september 2020 @ 09:25:
[...]
Dat verschil is er alleen in 1080p bij hogere resoluties is er geen of nauwelijks verschil
Ja, dat begrijp ik. En daarbij zegt NVidia dus dat in die situatie er nauwelijks verschil is tussen PCI-E 3.0 en 4.0, en dat andere componenten (CPU) een veel grotere impact hebben.Pirelly schreef op dinsdag 15 september 2020 @ 09:27:
[...]
Zo kun je natuurlijk niet vergelijken.
Als je gaat vergelijken, dan neem je eenzelfde amd systeem en test je de kaart op een pcie 3 slot en daarna op een pcie 4 slot. Dan pas kun je zien of het uitmaakt.
Dat Intel (soms) sneller is, komt over het algemeen doordat games beter draaien op hogere kloksnelheden en dat is waar intel iets beter in us dan amd. Zouden games beter geoptimaliseerd worden voor meerdere cores, dan zou (bij dezelfde prijs klasse) amd weer een voordeel hebben.
[ Voor 50% gewijzigd door DeadKennedy op 15-09-2020 09:30 ]
WEBN & chill (@IBKR)
HardwareUnboxed test sowieso ook met een AMD 3950DeadKennedy schreef op dinsdag 15 september 2020 @ 09:28:
[...]
En dat kleine verschil zal dus groter zijn dan het verschil tussen PCI-E 3.0 en 4.0. Maargoed, we zullen het wellicht morgen allemaal in de benchmarkresultaten terugzien.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Het is afhankelijk van als je de game instellingen. Verlaag je die zo dat de CPU de bottleneck wordt dan zie je dat de snelste Intel CPU meestal nog wel een voordeel heeft door de hogere single thread prestaties. Maar op het moment dat je de game zo instelt dat de videokaart degene is die je voor 100% belast, door de instellingen zo hoog mogelijk te zetten, valt dat voordeel weg.
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?
Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
Verwijderd
Het gaat er vooral om of de CPU snel genoeg is voor de game en instellingen welke je wil draaien. Dit staat los van de videokaart.Kimberly schreef op dinsdag 15 september 2020 @ 10:53:
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?
Met een 6 core 9600K op 5ghz hoef je je geen zorgen te maken. Hij zal snel genoeg zijn om geen (CPU gerelateerde) micro stutters te hebben, ongeacht de resolutie.Kimberly schreef op dinsdag 15 september 2020 @ 10:53:
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?
Ik hoop dat er morgen genoeg reviews online verschijnen die ook frame time analyses doen met verschillende CPU's/platforms. Dat zegt zoveel meer dan de average FPS.
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.