Vaak is er trouwens 1 dominante 8pin geloof ik (kan jij denk ik wel bevestigen of ontkrachten), die geef ik dan zijn losse kabel en gebruik voor de andere twee 8 pins een 2x8 pin op 1 kabel aansluiting. Al denk ik dat de RM750x wel dik genoege kabels gebruikt?Verwijderd schreef op vrijdag 4 september 2020 @ 10:23:
[...]
Seasonic vermelde altijd dat je bij videokaarten van meer dan 225W al twee kabels moest gebruiken. Maar er zijn sowieso genoeg problemen te vinden met zulke kabels en videokaarten met hoog vermogen. Dus je kunt het onwaarschijnlijk vinden, maar toch is het zo.
Gelukkig zitten er in mijn Pro PSU cable kit van Corsair wel genoeg kabels zie ik. DIe set was zo duur in vergelijking met mijn voeding. Was alleen nodig zodat ik mijn videokaart in mijn kast kreeg.Santee schreef op vrijdag 4 september 2020 @ 10:18:
[...]
Oprecht goed punt. Ik heb zelf vorig jaar een cablemod setje gekocht waar 2x8pin bij zat. Straks heb ik 3x8pin nodig en moet ik dus 1 afwijkende kabel gaan gebruiken, zonde!
Ik heb nog een zwart gesleevede van mn oude 980ti liggen dus dat komt half goed
MSI MPG X870E CARBON WIFI, Ryzen 9 9900X, 64GB, Gigabyte AORUS M RTX5080, Samsung 990 Pro 4TB, Samsung 970 EVO 2TB, Samsung OLED G9, LG 48CX, LG 77G5, Xbox Series X, PS4 Pro, Galaxy Z Fold7 512GB, Kia EV6 RWD 77,4 kWh Plus, Weheat Blackbird P80
Andreas Schilling van HardwareLuxx heeft maar een SM block diagram gemaakt van Ampere gebaseerd op die extra informatie. 

Based on the informations NVIDIA gave at the Reddit AMA, I compiled a block diagram of the Ampere Streaming Multiprocessor (SM).
— Andreas Schilling 🇺🇦 🇮🇱 (@aschilling) 3 september 2020
- two datapath
- one with 16 FP32 units
- second one with 16 FP32 and INT32 units each
- 32 FP32 ops or 16/16 FP32/INT32 opshttps://t.co/QtcYthBvBU pic.twitter.com/BRUnstb3TA
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Alle voedingen gebruiken andere modulaire kabels. Zo heeft Corsair bijvoorbeeld dikkere draden naar de eerste PEG connector in de RM550x in vergelijking met de Seasonic Focus Plus 550W. Corsair gebruikt 16AWG draden hier, Seasonic 18AWG. Corsair geeft dan ook aan dat zo'n ~300W wel moet gaan.Sissors schreef op vrijdag 4 september 2020 @ 10:28:
Gaat wel wat offtopic, maar dan vraag je je wel af waarom de RM550x altijd zo'n goede voeding is gevonden als hij schijnbaar nog geen eens in de buurt kan komen van 550W leveren, gezien hij maar een enkele PCIe voedingskabel heeft.
Dominante 8 pins? Geen idee wat je bedoeld.Santee schreef op vrijdag 4 september 2020 @ 10:29:
[...]
Vaak is er trouwens 1 dominante 8pin geloof ik (kan jij denk ik wel bevestigen of ontkrachten), die geef ik dan zijn losse kabel en gebruik voor de andere twee 8 pins een 2x8 pin op 1 kabel aansluiting. Al denk ik dat de RM750x wel dik genoege kabels gebruikt?
Ik wil juist geen discolichtjes. Maar ik zal niet ontkennen dat dat er wel bijzonder uitziet.Paprika schreef op vrijdag 4 september 2020 @ 10:09:
[...]
Dit is toch echt een betere kaart voor jou op basis van je beschrijving.
[Afbeelding]
Het was ook verre van serieus.Phntm schreef op vrijdag 4 september 2020 @ 10:38:
[...]
Ik wil juist geen discolichtjes. Maar ik zal niet ontkennen dat dat er wel bijzonder uitziet.
ROG-STRIX-RTX3090-24G-GAMING pagina leeft inmiddels ook:
https://www.asus.com/Grap...-STRIX-RTX3090-24G-GAMING
2.9 Slots / 12.53 " x 5.51 " x 2.27 " Inch of 31.85 x 14.01 x 5.78 Centimeter




:strip_exif()/f/image/mAB4kixZsvvw1hpmQd3qcLY7.gif?f=fotoalbum_large)
EVGA @ https://www.evga.com/arti...ga-geforce-rtx-30-series/
Currently no pre-order planned. Similarly, no pricing is available at this time.
Like the US store, we cannot generally comment on availability at this time for the EU store. Availability, however, will not be any sooner than the dates NVIDIA mentioned for each GPU.
HYBRID, HC, and KPE cards will come a bit later than the XC3 and FTW3 cards. No ETA to give you, which is probably your next question.
HYBRIDs will be 240mm, except for KPE HYBRID, whch will be 360mm. No plans for a 120mm HYBRID at this time.
HYBRIDs will be 2 Slot.
XC3 cards will all be 2.2 slots. Length is 11.23in. - 285.37mm / Height is 4.38in. - 111.15 mm.
FTW3 cards will be 2.75 slots. Length is 11.81in. - 300mm / Height is 5.38in. - 136.75mm.
There will be an EVGA NVLINK. No ETA at this time.
Since I've seen this mentioned incorrectly, all cards are 3 DisplayPort, 1 HDMI.
PowerLink is expected to work with the XC3 models. For obvious reasons, it will not work with the 3090/3080 FTW3 cards due to the number of PCIe power connectors. Either way, we will have the compatibility list updated when the cards are available on the website.
Step-Up will begin when cards are available. Products will not be listed prior to general availability. I would expect one of the XC3 models will be listed for availability, but we will make that decision prior to general availability.
I'm not sure why people assume bots are buying cards over regular people. It was a popular reason for why 20-Series cards were always out of stock, which completely ignored literal supply and demand issues (lots of people wanted them, but there weren't many initially). Yes, there are per person quantity caps for each card. Yes, we require captcha to login, which is also required to create a profile. This should help to comfort some of you.
[ Voor 66% gewijzigd door Paprika op 04-09-2020 10:56 ]
Kloppen die afmetingen wel? 3080 is precies even groot. Of is dat niet zo raar?Paprika schreef op vrijdag 4 september 2020 @ 10:41:
[...]
Het was ook verre van serieus.
ROG-STRIX-RTX3090-24G-GAMING pagina leeft inmiddels ook:
https://www.asus.com/Grap...-STRIX-RTX3090-24G-GAMING
2.9 Slots / 12.53 " x 5.51 " x 2.27 " Inch of 31.85 x 14.01 x 5.78 Centimeter
MSI MPG X870E CARBON WIFI, Ryzen 9 9900X, 64GB, Gigabyte AORUS M RTX5080, Samsung 990 Pro 4TB, Samsung 970 EVO 2TB, Samsung OLED G9, LG 48CX, LG 77G5, Xbox Series X, PS4 Pro, Galaxy Z Fold7 512GB, Kia EV6 RWD 77,4 kWh Plus, Weheat Blackbird P80
Het is waarschijnlijk goedkoper om 1 variant uit te brengen die voor beide past. De die-size is immers hetzelfde voor de 3080 en 3090. Het grootste verschil is de hoeveelheid memory chips en als je dan toch 900 euro moet betalen voor de 3080 variant (180 euro meer dan een FE...) is degelijke koeling wel belangrijk.MrBlueEyes schreef op vrijdag 4 september 2020 @ 10:47:
[...]
Kloppen die afmetingen wel? 3080 is precies even groot. Of is dat niet zo raar?
[ Voor 13% gewijzigd door Paprika op 04-09-2020 10:50 ]
Ik dacht dat de meeste stroom vaak primair uit 1 8pin komt. Ligt beetje aan de pcb opbouw en welk component vanuit waar gevoed wordt geloof ik?Verwijderd schreef op vrijdag 4 september 2020 @ 10:36:
[...]
Alle voedingen gebruiken andere modulaire kabels. Zo heeft Corsair bijvoorbeeld dikkere draden naar de eerste PEG connector in de RM550x in vergelijking met de Seasonic Focus Plus 550W. Corsair gebruikt 16AWG draden hier, Seasonic 18AWG. Corsair geeft dan ook aan dat zo'n ~300W wel moet gaan.
[...]
Dominante 8 pins? Geen idee wat je bedoeld.
Verwijderd
Je bedoeld dat als de videokaart bijvoorbeeld twee 8 pins PEG connectors heeft. Er door één veel meer stroom gaat dan door de andere? Dit is niet zo, ze verdelen het altijd netjes. Als de videokaart één 8 pins en één 6 pins heeft dan hebben ze de verhouding wel anders ingericht. In dat geval gaat er wel meer stroom door de 8 pins PEG connector.Santee schreef op vrijdag 4 september 2020 @ 10:59:
[...]
Ik dacht dat de meeste stroom vaak primair uit 1 8pin komt. Ligt beetje aan de pcb opbouw en welk component vanuit waar gevoed wordt geloof ik?
Een eerste embargo met betrekking tot de architectuur zou vandaag verlopen.
https://twitter.com/Video.../1301833383954329605?s=19
En Videocardz had nog een tabel dat de 3070 10GB VRAM (8+2GB) zou krijgen. Kan ook een foutje zijn. https://twitter.com/Video.../1301844218768482310?s=19
https://twitter.com/Video.../1301833383954329605?s=19
En Videocardz had nog een tabel dat de 3070 10GB VRAM (8+2GB) zou krijgen. Kan ook een foutje zijn. https://twitter.com/Video.../1301844218768482310?s=19
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
GeForce RXT 3090 on Mini-ITX ... or Mini-ITX on GeForce RTX 3090? pic.twitter.com/GdzpoRBhrm
— 3DCenter.org (@3DCenter_org) 4 september 2020
De TDP van 240W in die tabel klopt volgens mij ook niet, dat zou 220W moeten zijn.RobinNL schreef op vrijdag 4 september 2020 @ 13:33:
En Videocardz had nog een tabel dat de 3070 10GB VRAM (8+2GB) zou krijgen. Kan ook een foutje zijn. https://twitter.com/Video.../1301844218768482310?s=19
Daar zat ik ook al naar te kijken ja.choogen schreef op vrijdag 4 september 2020 @ 13:38:
[...]
De TDP van 240W in die tabel klopt volgens mij ook niet, dat zou 220W moeten zijn.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Foutje acht ik wel groot gezien er letterlijk 8GB in de specs tabel eronder staat en hoe gaan ze 10GB uitbrengen met de 256-bit bus van een 3070.RobinNL schreef op vrijdag 4 september 2020 @ 13:33:
En Videocardz had nog een tabel dat de 3070 10GB VRAM (8+2GB) zou krijgen. Kan ook een foutje zijn. https://twitter.com/Video.../1301844218768482310?s=19
Architecture White Paper zou leuk zijn.
[ Voor 9% gewijzigd door Paprika op 04-09-2020 13:42 ]
Verwijderd
zes 8Gb chips en twee 16Gb chips.Paprika schreef op vrijdag 4 september 2020 @ 13:40:
[...]
Foutje acht ik wel groot gezien er letterlijk 8GB in de specs tabel eronder staat en hoe gaan ze 10GB uitbrengen met de 256-bit bus van een 3070.
Wel jammer dat ze die laatste niet ook bij de 3090 hebben gebruikt. Dat had veel PCB gezeik gescheeld
Ik zat er nog op te wachten, en jawel daar is hij dan:
[YouTube: Nvidia Engineer talks about the RTX 3070 and RTX 2080 Ti]
[YouTube: Nvidia Engineer talks about the RTX 3070 and RTX 2080 Ti]
[ Voor 23% gewijzigd door dion_b op 08-09-2020 09:37 ]
Dat klopt meestal. Sommige voedingen hebben echter meerdere 12V "Rails", stel een voeding heeft er 2, dan levert elke rail de helft van het max vermogen.Sissors schreef op vrijdag 4 september 2020 @ 10:15:
[...]
2. Je hebt een fatsoenlijke voeding, en als ze daar een enkele kabel gebruiken die naar twee 8 pins connectoren gaat, en de voeding heet een rating dat hij 300W kan leveren via zijn PCIe connectoren, dan mag ik toch hopen dat hij dat daadwerkelijk kan.
Verwijderd
En dan het Hitler-filmpje uit het AMD-kamp: "Das war ein befehl!! Die Big Navi sollte schneller sein!!"Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 15:10:
Ik zat er nog op te wachten, en jawel daar is hij dan:
[YouTube: Nvidia Engineer talks about the RTX 3070 and RTX 2080 Ti]
[ Voor 8% gewijzigd door dion_b op 08-09-2020 09:39 ]
Verwijderd schreef op vrijdag 4 september 2020 @ 16:11:
[...]
En dan het Hitler-filmpje uit het AMD-kamp: "Das war ein befehl!! Die Big Navi sollte schneller sein!!"
offtopic:
Plaats hem even in het CJ/AMD topic
.
Plaats hem even in het CJ/AMD topic
Ik heb twee vragen wat betreft de release van de nieuwe RTX 3000 kaarten (sorry als het al eerder gevraagd is, ik heb de pagina's van dit topic nog niet ruim doorgelezen. Ik weet niet of dit het correcte topic hiervoor is.)
1. De nieuwe kaarten gaan de nieuwe 12-pin aansluiting gebruiken. Ik moet mijn voeding nog upgraden.
Voor de RTX 3070 is een 650W voeding aanbevolen. Echter, denken jullie dat ze nieuwe voedingen gaan uitbrengen met de nieuwe 12-pin kabel als industrie standaard in de toekomst? Of kan ik nu gewoon beter een voeding met 2 of 3 8-pins kopen en later de geruchte meegeleverde 2x 8-pin naar 12-pin kabel van de RTX 3xxx kaart gebruiken?
2. De RTX 3070 spreekt mij heel erg aan, maar is wellicht net iets te krachtig en net boven mijn €500 budget (moet daarnaast ook nog een voeding kopen). Is het zeker dat later dit jaar de RTX 3060 (of vergelijkbaar) nog gereleased wordt later dit jaar? Deze zou dan misschien rond de €300-400 range kosten neem ik aan.
1. De nieuwe kaarten gaan de nieuwe 12-pin aansluiting gebruiken. Ik moet mijn voeding nog upgraden.
Voor de RTX 3070 is een 650W voeding aanbevolen. Echter, denken jullie dat ze nieuwe voedingen gaan uitbrengen met de nieuwe 12-pin kabel als industrie standaard in de toekomst? Of kan ik nu gewoon beter een voeding met 2 of 3 8-pins kopen en later de geruchte meegeleverde 2x 8-pin naar 12-pin kabel van de RTX 3xxx kaart gebruiken?
2. De RTX 3070 spreekt mij heel erg aan, maar is wellicht net iets te krachtig en net boven mijn €500 budget (moet daarnaast ook nog een voeding kopen). Is het zeker dat later dit jaar de RTX 3060 (of vergelijkbaar) nog gereleased wordt later dit jaar? Deze zou dan misschien rond de €300-400 range kosten neem ik aan.
[ Voor 8% gewijzigd door F T op 04-09-2020 16:46 ]
@F T De Founders Edition krijgt een 12-pin aansluiting, van fabrikanten een 2 of 3 8-pin aansluiting, ligt eraan welke kaart je neemt. Volgens mij krijg je met de 3070 enkel 2 8-pin aansluiting.
Over de 3060 is eigenlijk nog niet veel bekend.
Over de 3060 is eigenlijk nog niet veel bekend.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
[YouTube: Hitler Reacts to Nvidia Ampere RTX 3000 Series (RTX 3070, RTX 3080, RTX 3090)]Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 15:10:
Ik zat er nog op te wachten, en jawel daar is hij dan:
[YouTube: Nvidia Engineer talks about the RTX 3070 and RTX 2080 Ti]
Mein Fuhrer, what about Minecraft?
Great, dynamic reflections in a fucking game that can't even draw fucking circles.
TGP en total board power zijn niet hetzelfde.choogen schreef op vrijdag 4 september 2020 @ 13:38:
[...]
De TDP van 240W in die tabel klopt volgens mij ook niet, dat zou 220W moeten zijn.
TGP dus die 220 watt is wat de totage kaart zal gebruiker (volgens nvidia reference).
Total board power is hoger maar daar zit dus wat ruimte voor een voerclock in (zij het door boost 3.0 of handmatig).
Die 240 watt kan dus prima kloppen.
Uiteindelijk is het allemaal speculatie en vage sheets en moeten we alles negeren. De 2080 TI was op papier 250 watt maar in de praktijk 270 tot 295 watt door board partner overclocks.
De Founders Edition 3070 heeft 1 enkele 8-pin connector nodig volgens de Nvidia website.F T schreef op vrijdag 4 september 2020 @ 16:45:
1. De nieuwe kaarten gaan de nieuwe 12-pin aansluiting gebruiken. Ik moet mijn voeding nog upgraden.
Voor de RTX 3070 is een 650W voeding aanbevolen. Echter, denken jullie dat ze nieuwe voedingen gaan uitbrengen met de nieuwe 12-pin kabel als industrie standaard in de toekomst? Of kan ik nu gewoon beter een voeding met 2 of 3 8-pins kopen en later de geruchte meegeleverde 2x 8-pin naar 12-pin kabel van de RTX 3xxx kaart gebruiken?
Dat weten we niet.F T schreef op vrijdag 4 september 2020 @ 16:45:
2. De RTX 3070 spreekt mij heel erg aan, maar is wellicht net iets te krachtig en net boven mijn €500 budget (moet daarnaast ook nog een voeding kopen). Is het zeker dat later dit jaar de RTX 3060 (of vergelijkbaar) nog gereleased wordt later dit jaar? Deze zou dan misschien rond de €300-400 range kosten neem ik aan.
Voor een ieder die geen zin heeft in een geperforeerde backplate met luchtkoeling of mensen die geen zin hebben om een nieuwe voeding of zelfs nieuwe custm kabels te halen:
https://www.alzashop.com/...58.htm?layoutAutoChange=1
Solid backplate en maar 2x8 PCI-E er is nog hoop. Nu wachten of het een prestatie/temp impact heeft.
Edit: 1 ding viel me op. De kaart heeft ook een Nvlink bridge in tegenstelling tot de FE 3080 dus het kan zijn dat het hier een 3090 betreft op de foto. Zou dus betekenen dat de 3090 ook gewoon beschikbaar komt met 2x8 ipv 3x vor diegene met diepe zakken.
Edit 2:
https://www.msi.com/Graph...-VENTUS-3X-10G-OC/Gallery
Staat dus ook bij MSI online en daar ontbreekt de NVlink dus was idd een 3090 met 2x 8 pins.
https://www.alzashop.com/...58.htm?layoutAutoChange=1
Solid backplate en maar 2x8 PCI-E er is nog hoop. Nu wachten of het een prestatie/temp impact heeft.
Edit: 1 ding viel me op. De kaart heeft ook een Nvlink bridge in tegenstelling tot de FE 3080 dus het kan zijn dat het hier een 3090 betreft op de foto. Zou dus betekenen dat de 3090 ook gewoon beschikbaar komt met 2x8 ipv 3x vor diegene met diepe zakken.
Edit 2:
https://www.msi.com/Graph...-VENTUS-3X-10G-OC/Gallery
Staat dus ook bij MSI online en daar ontbreekt de NVlink dus was idd een 3090 met 2x 8 pins.
[ Voor 38% gewijzigd door computerjunky op 04-09-2020 17:36 ]
Ben ik de enige die iedere kaart met maar 1 hdmi poort per definitie uitsluit?
Scheelt opzich wel kiezen maar ik snap niet dat zoveel met maar 1 poort komen.
Toekomstige VR?
HT enthousiastelingen?
Daarnaast is de 350w van de 3090 ZO dichtbij het limiet van 375w van de 2x8 pcie kabels (+75w pcie poort) dat voor de 3090 3x 8pins niet een overbodige luxe is (en een _MUST_ als je wil OCn).
Wil je voor die kaart gaan dan is de keuze volgens mij dus ook sterk beperkt.
Het lijkt een bijzondere reeks modellen te worden in ieder geval
Scheelt opzich wel kiezen maar ik snap niet dat zoveel met maar 1 poort komen.
Toekomstige VR?
HT enthousiastelingen?
Daarnaast is de 350w van de 3090 ZO dichtbij het limiet van 375w van de 2x8 pcie kabels (+75w pcie poort) dat voor de 3090 3x 8pins niet een overbodige luxe is (en een _MUST_ als je wil OCn).
Wil je voor die kaart gaan dan is de keuze volgens mij dus ook sterk beperkt.
Het lijkt een bijzondere reeks modellen te worden in ieder geval
[ pctje te zien hier ] - Miauw
Ik heb niet perséé HDMI nodig (je hebt tenslotte verloopstukjes DP>HDMI) maar ik heb met 4 aansluitingen eigenlijk ook niet genoeg.. Heb nu 2 (voorheen 3) schermen op m'n bureau, heb een tv in de woonkamer erop aangesloten en m'n simrig vereist ook 1 aansluiting. Dus ik zit al op 4. Dat betekent dat ik gewoon niet meer kan uitbreiden, wil in de toekomst uitbreiden naar ofwel VR ofwel triples op m'n simrig (of beide, hallo LottoGekkeR schreef op vrijdag 4 september 2020 @ 19:05:
Ben ik de enige die iedere kaart met maar 1 hdmi poort per definitie uitsluit?
Scheelt opzich wel kiezen maar ik snap niet dat zoveel met maar 1 poort komen.
Toekomstige VR?
HT enthousiastelingen?
Daarnaast is de 350w van de 3090 ZO dichtbij het limiet van 375w van de 2x8 pcie kabels (+75w pcie poort) dat voor de 3090 3x 8pins niet een overbodige luxe is (en een _MUST_ als je wil OCn).
Wil je voor die kaart gaan dan is de keuze volgens mij dus ook sterk beperkt.
Het lijkt een bijzondere reeks modellen te worden in ieder geval
Klinkt als een Aorus voor jou?Pyr0_ schreef op vrijdag 4 september 2020 @ 19:13:
[...]
Ik heb niet perséé HDMI nodig (je hebt tenslotte verloopstukjes DP>HDMI) maar ik heb met 4 aansluitingen eigenlijk ook niet genoeg.. Heb nu 2 (voorheen 3) schermen op m'n bureau, heb een tv in de woonkamer erop aangesloten en m'n simrig vereist ook 1 aansluiting. Dus ik zit al op 4. Dat betekent dat ik gewoon niet meer kan uitbreiden, wil in de toekomst uitbreiden naar ofwel VR ofwel triples op m'n simrig (of beide, hallo Lotto), maar dat gaat een lastig verhaal worden op deze manier...
:fill(white):strip_exif()/f/image/bwE2cHR9Km3cXJAfDabIlpNG.png?f=user_large)
Ik twijfel over een "gewone" gigabyte 3080 gaming.
Wil niet teveel uitgeven nu zodat ik het volgend jaar in de "echte" ampere 7nm refresh kan stoppen.
Maar wil ook niet met een kaart zitten die teveel geluid maakt tot die tijd.
1st world problems.
[ Voor 10% gewijzigd door GekkeR op 04-09-2020 19:28 ]
[ pctje te zien hier ] - Miauw
Vergeet niet dat dit een spec limiet is niet meer en niet minder. 200 watt per stekker is ook helemaal geen probleem. Het zal echter door de pcb beperkt worden. Zo zijn ook de shunt mods ontstaan. Om die board power te bypassen. En met shunt mod kan je gewoon 700 watt over 2 stekkers trekken dus 50 watt meer of minder zal niet echt een probleem zijn.GekkeR schreef op vrijdag 4 september 2020 @ 19:05:
Daarnaast is de 350w van de 3090 ZO dichtbij het limiet van 375w van de 2x8 pcie kabels (+75w pcie poort) dat voor de 3090 3x 8pins niet een overbodige luxe is (en een _MUST_ als je wil OCn).
Wil je voor die kaart gaan dan is de keuze volgens mij dus ook sterk beperkt.
Het lijkt een bijzondere reeks modellen te worden in ieder geval
Begin die nvidia kaarten meer en meer aantrekkelijker vinden dan de andere merken. Lijkt in mijn setup met aio cooler vooraan en 2 intake fans en 3 outtake fans ook beste oplossing niet?
Als 1 hdmi je niet dwars ligt lijken het inderdaad meer dan prima modellen.lapino schreef op vrijdag 4 september 2020 @ 20:06:
Begin die nvidia kaarten meer en meer aantrekkelijker vinden dan de andere merken. Lijkt in mijn setup met aio cooler vooraan en 2 intake fans en 3 outtake fans ook beste oplossing niet?
Lekker goedkoop ook dus nooit echt een verkeerde keuze, mocht bij de benches blijken dat hij toch niet echt vooraan de pack loopt dan kan je hem altijd nog wegdoen met de markt krapte straks (if true).
Moet wel zeggen dat die stekker in het midden er niet uit ziet imho.
[ pctje te zien hier ] - Miauw
VR is voor het merendeel op deze planeet een niet relevant fenomeen en voor HT mensen staat de pc dus of naast de receiver en dan heb je maar één HDMI kabel nodig of je verplaatst hem af en toe naar de woonkamer waardoor je er ook maar één nodig hebt. Voor monitoren is DP al jaren superieur en de standaard loopt het merendeel van de tijd ook voor op de HDMI spec. En daarnaast is voor Gsync is DP lang de enige optie geweest.
[ Voor 5% gewijzigd door Paprika op 04-09-2020 20:52 ]
Bij de mensen die zulke kaarten kopen zal het aantal VR gebruikers ook een stuk hoger liggen. Nog steeds een minderheid, maar als je mensen hebt die redelijk wat geld in hun game PC willen steken, en iig zat rekenkracht hebben, ja dan wordt VR een stuk kleinere stap.Paprika schreef op vrijdag 4 september 2020 @ 20:51:
[...]
VR is voor het merendeel op deze planeet een niet relevant fenomeen en voor HT mensen staat de pc dus of naast de receiver en dan heb je maar één HDMI kabel nodig of je verplaatst hem af en toe naar de woonkamer waardoor je er ook maar één nodig hebt. Voor monitoren is DP al jaren superieur en de standaard loopt het merendeel van de tijd ook voor op de HDMI spec. En daarnaast is voor Gsync is DP lang de enige optie geweest.
Momenteel gebruik ik simpelweg DP -> HDMI voor mijn TV, en mijn VR headset zit op de HDMI poort rechtstreeks. Echter dat is omdat ik een oude Rift CV1 nog heb, alle nieuwe VR headsets gaan via DisplayPort, en dus heb je niet meer HDMI nodig.
Een mooi betoog maar als Gigabyte voor 720 euro op de 3080 2 hdmi poorten kan zetten...Paprika schreef op vrijdag 4 september 2020 @ 20:51:
[...]
VR is voor het merendeel op deze planeet een niet relevant fenomeen en voor HT mensen staat de pc dus of naast de receiver en dan heb je maar één HDMI kabel nodig of je verplaatst hem af en toe naar de woonkamer waardoor je er ook maar één nodig hebt. Voor monitoren is DP al jaren superieur en de standaard loopt het merendeel van de tijd ook voor op de HDMI spec. En daarnaast is voor Gsync is DP lang de enige optie geweest.
Dan moeten ze dat allemaal wel kunnen.
Als je dan een 3090 maakt voor 1500+ euro... dan moet het niet eens een vraag zijn.
Maar ieder zo zijn eigen mening.
[ pctje te zien hier ] - Miauw
Ik snap de 3 DP en 1 HDMI wel.
3 DP voor een tripple setup en 1 HDMI voor mensen met een tv als scherm of een oudere monitor zonder DP.
Vrij logische setup. Mensen die meer meer dan 4 poorten nodig hebben zijn echt een niche markt van een niche markt en daar ga je geen kosten voor maken.
3 DP voor een tripple setup en 1 HDMI voor mensen met een tv als scherm of een oudere monitor zonder DP.
Vrij logische setup. Mensen die meer meer dan 4 poorten nodig hebben zijn echt een niche markt van een niche markt en daar ga je geen kosten voor maken.
Onder het motto "flew under the radar" en een mooie duit in NVIDIA's zakje:
Als je dit goed kijkt zie je iets bijzonders (time link: 1:40~ tm 2:00~).
Als je dit goed kijkt zie je iets bijzonders (time link: 1:40~ tm 2:00~).
spoiler:
De fans draaien niet!
[ pctje te zien hier ] - Miauw
NVIDIA GeForce Ampere Architecture, Board Design, Gaming Tech & Software
https://www.techpowerup.c...ign-gaming-tech-software/
@Werelds @DaniëlWW2
Nieuwe informatie
https://www.techpowerup.c...ign-gaming-tech-software/
@Werelds @DaniëlWW2
Nieuwe informatie
Er is dus meer bekend gemaakt.
Zoals een aantal leakers al aangaven lijkt er schaarste te gaan zijn.
Dan mede voor @Werelds en @Paprika Het is iets complexer. Een deel van de ALU's doen dus zowel FP32 als INT32 en daarnaast zijn er nog FP32 ALU's. L1 cache van 96kb naar 128kb en de rest lijkt identiek aan Turing.
/i/2003840726.png?f=imagenormal)
Verder ook dit.
nieuws: Nvidia deelt meer details over interne opbouw Ampere-gpu's in RTX 300...
edit 2:
-GDDR6X lijkt dus Nvidia exclusief te zijn.
-RT core doet 2x ray triangle intersection
-Tensor Core doet 2x math
De RT core heeft nu ook een nieuwe unit, een interpolate tri position. Nvidia claimt dat dit voor Motion Blur is, maar het lijkt er eerder op dat Nvidia zaken van frame naar frame over wil nemen zodat ze niet telkens de RT opnieuw moeten doen. Krijg je alleen wel blur, altijd populair.



edit:
Zoals een aantal leakers al aangaven lijkt er schaarste te gaan zijn.
Dan mede voor @Werelds en @Paprika Het is iets complexer. Een deel van de ALU's doen dus zowel FP32 als INT32 en daarnaast zijn er nog FP32 ALU's. L1 cache van 96kb naar 128kb en de rest lijkt identiek aan Turing.
/i/2003840726.png?f=imagenormal)
Verder ook dit.
In ieder geval vraag ik me nu helemaal af hoe Nvidia hier maar iets van 30% extra uit weet te halen nu ze helemaal geen utilisatie inefficiëntie lijken te hebben en wel 32 ALU's voor waro 32 hebben en niet 48. Verder waarom niet alle ALU's dan FP32 en INT32 en die bottlenecks weghalen? Het tart echt logica om niet door te zetten en echt alles te doen.De helft daarvan dient echter ook beschikbaar dient te zijn voor int32-instructies en bovendien treden er tal van andere bottlenecks op als je plots de fp32-rekenkracht verdubbelt. Gebruikers hoeven dus geen verdubbeling van de prestaties te verwachten, wat het verdubbelde aantal cores zou kunnen doen vermoeden. Hoewel de intensiteit van de diverse typen instructies volgens Nvidia flink varieert van game tot game, liet het zich op vragen van Tweakers toch een uitspraak ontlokken over de gemiddelde prestatiewinst. Die zou 'across the board' ruim 30 procent zijn ten opzichte van een ontwerp waarbij de int32-cores in z'n geheel geen fp32-instructies kunnen verwerken, zoals Turing.
nieuws: Nvidia deelt meer details over interne opbouw Ampere-gpu's in RTX 300...
edit 2:
-GDDR6X lijkt dus Nvidia exclusief te zijn.
-RT core doet 2x ray triangle intersection
-Tensor Core doet 2x math
De RT core heeft nu ook een nieuwe unit, een interpolate tri position. Nvidia claimt dat dit voor Motion Blur is, maar het lijkt er eerder op dat Nvidia zaken van frame naar frame over wil nemen zodat ze niet telkens de RT opnieuw moeten doen. Krijg je alleen wel blur, altijd populair.



edit:
Doe eens niet tien seconden voordat ik mijn reactie plaats.Paprika schreef op vrijdag 4 september 2020 @ 23:14:
NVIDIA GeForce Ampere Architecture, Board Design, Gaming Tech & Software
https://www.techpowerup.c...ign-gaming-tech-software/
@Werelds @DaniëlWW2
Nieuwe informatie
[ Voor 29% gewijzigd door DaniëlWW2 op 11-09-2020 19:12 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
@Paprika @DaniëlWW2 Ben nu niet thuis dus ik zal morgen eens lezen 
Onthoud echter wel dat deze block diagrams schematisch zijn en geen floorplan zijn. Zo beeld Nvidia voor de GeForces al enkele jaren de FP64 units niet af terwijl ze er wel in zitten (hadden ze volgens mij bij Anand eens nagevraagd). Dus ook die INT32/FP32 units zou ik niet te letterlijk nemen.
Onthoud echter wel dat deze block diagrams schematisch zijn en geen floorplan zijn. Zo beeld Nvidia voor de GeForces al enkele jaren de FP64 units niet af terwijl ze er wel in zitten (hadden ze volgens mij bij Anand eens nagevraagd). Dus ook die INT32/FP32 units zou ik niet te letterlijk nemen.
Ik weet van die FP64 unit ja.Werelds schreef op vrijdag 4 september 2020 @ 23:23:
@Paprika @DaniëlWW2 Ben nu niet thuis dus ik zal morgen eens lezen
Onthoud echter wel dat deze block diagrams schematisch zijn en geen floorplan zijn. Zo beeld Nvidia voor de GeForces al enkele jaren de FP64 units niet af terwijl ze er wel in zitten (hadden ze volgens mij bij Anand eens nagevraagd). Dus ook die INT32/FP32 units zou ik niet te letterlijk nemen.
Maar zelfs dan nog. Dit is nog meer een Turing/"Paxwell" hybrid dan we dachten. Het zijn nog steeds 32 ALU's per block, 128 totaal per SM. Alle 128ALU's kunnen FP32 doen zoals in "Paxwell", maar de helft kan parallel ook INT32 instructies per SM doen. Die ALU's zouden ook parallel INT en FP doen. De bottleneck dat dit maar iets van 30% sneller is dan Turing, werkelijk wat Nvidia?
Maar ik hoor het wel. Voel je niet opgejaagd.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat wordt in de rij staan 
Tot slot sorteerde Nvidia vast voor op een matige verkrijgbaarheid van de nieuwe videokaarten, toch op zijn minst in het begin. Pas vorige week zijn de eerste productie-gpu's aan de diverse videokaartfabrikanten geleverd. Nvidia gaf aan dat de productie nu op volle toeren draait, maar het veel vraag verwacht.
Ik vermoed dat tegen de tijd dat de FE en AIB kaarten volop beschikbaar zijn tegen de 'normale' prijzen, we ook al wel wat meer van AMD hebben gehoord.
Laat ik het zo zeggen, als ik tot begin oktober moet wachten voor een RTX3080 wacht ik die extra paar weken ook nog wel op AMD.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dat klopt, al is het ook een gok: de verkrijgbaarheid van AMD kan net zo slecht zijn.Kuusj schreef op zaterdag 5 september 2020 @ 00:36:
[...]
Ik vermoed dat tegen de tijd dat de FE en AIB kaarten volop beschikbaar zijn tegen de 'normale' prijzen, we ook al wel wat meer van AMD hebben gehoord.
Laat ik het zo zeggen, als ik tot begin oktober moet wachten voor een RTX3080 wacht ik die extra paar weken ook nog wel op AMD.
Is het misschien niet wat voor je om even te wachten tot de kaart te koop is? De performance van de 3070 zou rond die van de 2080Ti moeten zitten. Dat zou kunnen betekenen dat de prijs van een gebruikte 2080Ti onder die van de nieuwe 3070 komt te liggen. Dan heb je voor jouw budget misschien een mooie kaart (op marktplaats vind je er nu al enkele voor 500 euro).F T schreef op vrijdag 4 september 2020 @ 16:45:
2. De RTX 3070 spreekt mij heel erg aan, maar is wellicht net iets te krachtig en net boven mijn €500 budget (moet daarnaast ook nog een voeding kopen). Is het zeker dat later dit jaar de RTX 3060 (of vergelijkbaar) nog gereleased wordt later dit jaar? Deze zou dan misschien rond de €300-400 range kosten neem ik aan.
[ Voor 3% gewijzigd door Pirelly op 05-09-2020 09:29 ]
Dit vond ik nog wel een leuke:
Een Reddit gebruiker die heeft lopen priegelen in de dlss config van Control, om te zien wat er gebeurt als je dlss van een super lage resolutie (576p) naar 1440p laat upscalen.
https://www.reddit.com/r/...roid_app&utm_source=share
Een Reddit gebruiker die heeft lopen priegelen in de dlss config van Control, om te zien wat er gebeurt als je dlss van een super lage resolutie (576p) naar 1440p laat upscalen.
https://www.reddit.com/r/...roid_app&utm_source=share
I am more the reader type in this subreddit, so hello people.I a did fun test in control to see what happens if you use a super low DLSS res which could work too as "performance" mode.
With these settings i reached on a RTX 2080 oc +100/+1000 stable 60-80 fps on a really heavy scene. You know the tunnel where you walk to the main room with all the reflection on the windows?
It was just mind blowing and i was like, wtf is this sorcery. I will add later some screens for my nativ res 1440p and this supersampled stuff
Edit: like i said here the comparison:
https://imgsli.com/MTUwMDg/1/2
the image is actually blurrier (i did not notice it till the comparison), but still it is just amazing to see lol and personally i dont see a difference between quality and 576p during standing still and playing the gameon 1440p nativ res
Zeer interessant. Sowieso is kwaliteit altijd lastig te beoordelen. Het verschil tussen een 2mp foto of 8mp foto is enorm. Maar bij bewegend beeld (1080p VS 4K) kun je dat veel lastiger zienTyranium schreef op zaterdag 5 september 2020 @ 09:41:
Dit vond ik nog wel een leuke:
Een Reddit gebruiker die heeft lopen priegelen in de dlss config van Control, om te zien wat er gebeurt als je dlss van een super lage resolutie (576p) naar 1440p laat upscalen.
https://www.reddit.com/r/...roid_app&utm_source=share
[...]
Dat is biologisch bepaald. Daarom vind ik screenshots van een game vaak ook een slechte vergelijking. Je vergelijkt een foto, iets waar we heel goed details uit kunnen halen. Terwijl een game beweging is. En daar kunnen we veel slechter details uithalen.
DLSS2.0 + lage resolutie geeft dus prima games lijkt het. Als elke game DLSS2.0 of iets soortgelijks zou hebben, wat moeten we dan nog met al die rekenkracht?
Tyranium schreef op zaterdag 5 september 2020 @ 09:41:
Dit vond ik nog wel een leuke:
Een Reddit gebruiker die heeft lopen priegelen in de dlss config van Control, om te zien wat er gebeurt als je dlss van een super lage resolutie (576p) naar 1440p laat upscalen.
https://www.reddit.com/r/...roid_app&utm_source=share
[...]
Raytracing, en in zijn algemeenheid dichter naar foto-realistisch.Waah schreef op zaterdag 5 september 2020 @ 09:51:
[...]
Zeer interessant. Sowieso is kwaliteit altijd lastig te beoordelen. Het verschil tussen een 2mp foto of 8mp foto is enorm. Maar bij bewegend beeld (1080p VS 4K) kun je dat veel lastiger zien![]()
Dat is biologisch bepaald. Daarom vind ik screenshots van een game vaak ook een slechte vergelijking. Je vergelijkt een foto, iets waar we heel goed details uit kunnen halen. Terwijl een game beweging is. En daar kunnen we veel slechter details uithalen.
DLSS2.0 + lage resolutie geeft dus prima games lijkt het. Als elke game DLSS2.0 of iets soortgelijks zou hebben, wat moeten we dan nog met al die rekenkracht?(Ja, high refresh rates
)
Eigenlijk niet verrassend toch, hebben we de laatste jaren überhaupt lanceringen gehad waarbij de dag 1 beschikbaarheid op orde was? Ik kan het me in ieder geval niet direct herinneren.
De zwakte bij DLSS zit hem nog in bewegend beeld. Je ziet te veel motion artifacts naar mijn smaak.Tyranium schreef op zaterdag 5 september 2020 @ 09:41:
Dit vond ik nog wel een leuke:
Een Reddit gebruiker die heeft lopen priegelen in de dlss config van Control, om te zien wat er gebeurt als je dlss van een super lage resolutie (576p) naar 1440p laat upscalen.
https://www.reddit.com/r/...roid_app&utm_source=share
[...]
Maar dat is toch het geval bij Dlss 1.x en juist heel erg verbeterd met de 2.0 versie?ion schreef op zaterdag 5 september 2020 @ 12:07:
[...]
De zwakte bij DLSS zit hem nog in bewegend beeld. Je ziet te veel motion artifacts naar mijn smaak.
(Ik zou het zelf niet weten want heb een RX5700XT )
Het softer worden van randen is juist niet het geval met super sampling. Super sampling is mooi scherp en crispTorched schreef op zaterdag 5 september 2020 @ 12:20:
En het blijft super sampling. Dus alle scherpe randen worden softer.
AA methodes zoals FXAA en TAA zorgen juist voor softere randen en een vaseline achtige waas over de textures heen.
[ Voor 36% gewijzigd door Tyranium op 05-09-2020 12:25 ]
Als het kleurverschil groot genoeg is ja. Als je de screenshot pakt.Tyranium schreef op zaterdag 5 september 2020 @ 12:22:
[...]
Maar dat is toch het geval bij Dlss 1.x en juist heel erg verbeterd met de 2.0 versie?
(Ik zou het zelf niet weten want heb een RX5700XT )
[...]
Het softer worden van randen is juist niet het geval met super sampling. Super sampling is mooi scherp en crisp![]()
AA methodes zoals FXAA en TAA zorgen juist voor softere randen en een vaseline achtige waas over de textures heen.
Het wapen is een hoop scherpe details, maar zelfde kleur op kleur dus blur.
In de pijp zie je het ook, er zit een verdikking in maar bij dezelfde kleur op kleur is dlss blurry.
Je ziet het ook in de koelribben op de pijp onder de handen.
In het haar ook btw.
In de cirkel met gaas is het bijna niet te zien, maar daar is het kleurverschil zo groot dat dlss mee kan.
[ Voor 5% gewijzigd door Torched op 05-09-2020 12:31 ]
Dat DLSS is inderdaad een echte gamechanger. Ik denk dat we langzamerhand veel meer AI en deep learning gaan gebruiken om technieken radicaal te optimaliseren.
Misschien kunnen we in de toekomst 1080p opschalen naar 16k zonder kwaliteitsverlies.
Kan ik stellen dat de rekenkracht die de AI vereist efficienter is dan native renderen? Of wordt die rekenkracht van DLSS niet alleen op de kaart berekend, maar ook op een supercomputer van Nvidia?
Misschien kunnen we in de toekomst 1080p opschalen naar 16k zonder kwaliteitsverlies.
Kan ik stellen dat de rekenkracht die de AI vereist efficienter is dan native renderen? Of wordt die rekenkracht van DLSS niet alleen op de kaart berekend, maar ook op een supercomputer van Nvidia?
[ Voor 28% gewijzigd door Sander64 op 05-09-2020 12:34 ]
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Het klopt dat DLSS2.0 beter is, maar ik zie nog steeds motion artifacts bij Control met 2.0.Tyranium schreef op zaterdag 5 september 2020 @ 12:22:
[...]
Maar dat is toch het geval bij Dlss 1.x en juist heel erg verbeterd met de 2.0 versie?
(Ik zou het zelf niet weten want heb een RX5700XT )
[...]
Het softer worden van randen is juist niet het geval met super sampling. Super sampling is mooi scherp en crisp![]()
AA methodes zoals FXAA en TAA zorgen juist voor softere randen en een vaseline achtige waas over de textures heen.
Het model DLSS is inderdaad sneller dan native renderen. Het model moet alleen eerst getraind worden op een bepaalde game en dat kost wel veel rekenkracht.Sander64 schreef op zaterdag 5 september 2020 @ 12:32:
Dat DLSS is inderdaad een echte gamechanger. Ik denk dat we langzamerhand veel meer AI en deep learning gaan gebruiken om technieken radicaal te optimaliseren.
Misschien kunnen we in de toekomst 1080p opschalen naar 16k zonder kwaliteitsverlies.
Kan ik stellen dat de rekenkracht die de AI vereist efficienter is dan native renderen? Of wordt die rekenkracht van DLSS niet alleen op de kaart berekend, maar ook op een supercomputer van Nvidia?
[ Voor 37% gewijzigd door ion op 05-09-2020 12:46 ]
Het screenshot uit mijn post is niet de normale werking van dlss (als je dat screenshot bedoelt).Torched schreef op zaterdag 5 september 2020 @ 12:30:
[...]
Als het kleurverschil groot genoeg is ja. Als je de screenshot pakt.
Het wapen is een hoop scherpe details, maar zelfde kleur op kleur dus blur.
In de pijp zie je het ook, er zit een verdikking in maar bij dezelfde kleur op kleur is dlss blurry.
Je ziet het ook in de koelribben op de pijp onder de handen.
In het haar ook btw.
In de cirkel met gaas is het bijna niet te zien, maar daar is het kleurverschil zo groot dat dlss mee kan.
Dat is een extreem voorbeeld van het upscalen van een belachelijk lage resolutie, 576p (!), naar 1440p. Geen wonder dat je dan wat blur krijgt.
Bij de screenshots en filmpjes van de "normale" dlss 2.0 settings heb ik dit niet teruggezien. Het zag er in sommige gevallen zelfs scherper uit dan de native resolutie.
Maar ik kan het mis hebben hoor. Zoals gezegd heb ik het zelf niet live in actie kunnen zien.
Inderdaad goede suggestie. Ik heb er zelf ook een beetje naar zitten kijken en ze zijn er voor rond de €500, maar alsnog zelden. Veel verkopers willen graag nog eruit halen wat ze kunnen voor de release. Als de 3070 uitkomt zie ik dan wel of de prijzen nog beter zijn tegen die tijd, wellicht dat ik ook al genoegen neem met een 2080 Super voor een redelijke prijs.Pirelly schreef op zaterdag 5 september 2020 @ 07:19:
[...]
Is het misschien niet wat voor je om even te wachten tot de kaart te koop is? De performance van de 3070 zou rond die van de 2080Ti moeten zitten. Dat zou kunnen betekenen dat de prijs van een gebruikte 2080Ti onder die van de nieuwe 3070 komt te liggen. Dan heb je voor jouw budget misschien een mooie kaart (op marktplaats vind je er nu al enkele voor 500 euro).
Nederland is wat duurder 2e hands want iedereen hier is zuinig (/gierig), maar ik zou voor €450-500 idd nog een 2080ti kunnen overwegen. Alles daarboven is mij teveel met de 3070 in het zichtF T schreef op zaterdag 5 september 2020 @ 13:00:
[...]
Inderdaad goede suggestie. Ik heb er zelf ook een beetje naar zitten kijken en ze zijn er voor rond de €500, maar alsnog zelden. Veel verkopers willen graag nog eruit halen wat ze kunnen voor de release. Als de 3070 uitkomt zie ik dan wel of de prijzen nog beter zijn tegen die tijd, wellicht dat ik ook al genoegen neem met een 2080 Super voor een redelijke prijs.
Bizar eigenlijk, 2 maanden geleden kocht je daar nog een 2060 super voor.
Daar heb je gelijk in en dat is helaas de waarheid. Ik overweeg dat bedrag ook wel voor een 2080 Ti, anders gewoon een 3070 en dan heb je gelijk de huidige generatie in bezit.Santee schreef op zaterdag 5 september 2020 @ 13:07:
[...]
Nederland is wat duurder 2e hands want iedereen hier is zuinig (/gierig), maar ik zou voor €450-500 idd nog een 2080ti kunnen overwegen. Alles daarboven is mij teveel met de 3070 in het zicht![]()
Bizar eigenlijk, 2 maanden geleden kocht je daar nog een 2060 super voor.
Ik lees net op sommige tech sites die beweren dat in Europa al 2080 Ti's worden verkocht voor onder de €500 nieuw, maar ik heb daar nog niks van gezien, anders was ik er zeker voor in. We kijken wat de daadwerkelijke release van de 3070 met de prijzen gaat doen.
Als de kaart met alles echt even snel is als de 2080 TI dan nog zou ik hem niet overwegen voor 500 euro (nieuw) om meerdere redenen.Santee schreef op zaterdag 5 september 2020 @ 13:07:
[...]
Nederland is wat duurder 2e hands want iedereen hier is zuinig (/gierig), maar ik zou voor €450-500 idd nog een 2080ti kunnen overwegen. Alles daarboven is mij teveel met de 3070 in het zicht![]()
Bizar eigenlijk, 2 maanden geleden kocht je daar nog een 2060 super voor.
- We weten dat het ray tracing deel van de 3070 sneller zal zijn en.
- De 2080Ti zal met mijn gaming gedrag over 4 jaar 60 euro aan stroom meer kosten.
- Potentie tot het anders gebruiken van de meerdere cores op de 3070 in de toekomst waardoor je in de toekomst mogelijk meer prestatie krijgt.
- En dan is er een lijst nieuwe features zoals HDMI 2.1 codec support en wat andere zaken.
De waarheid is keihard. ALS de 3070 echt een 2080TI en meer is dan is een realistische 2dehands prijs voor een 2080TI gewoon pijnlijk laag (voor de huidige eigenaren) en zou ik er pas bij 300-350 over na gaan denken.
Ik heb vandaag ook nog wat gegoogled en wat op reddit rondgekeken. Mensen zijn opeens bang dat de CPU een bottleneck vormt voor met name de 3080 (waar de meeste gamers geinteresseerd in zijn). Waar is dit eigenlijk op gebaseerd?
De Ryzen 5 3600 vormt toch helemaal geen bottleneck op 1440p en 4k? Op 1080p low/medium in counterstrike kan ik het nog begrijpen.
De Ryzen 5 3600 vormt toch helemaal geen bottleneck op 1440p en 4k? Op 1080p low/medium in counterstrike kan ik het nog begrijpen.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Hoe kom je erbij dat je zo veel stroom bespaart? De TDP's verschillen niet zo veel en we hebben nog geen benchmarks gezien.computerjunky schreef op zaterdag 5 september 2020 @ 13:34:
[...]
Als de kaart met alles echt even snel is als de 2080 TI dan nog zou ik hem niet overwegen voor 500 euro (nieuw) om meerdere redenen.
- We weten dat het ray tracing deel van de 3070 sneller zal zijn en.
- De 2080Ti zal met mijn gaming gedrag over 4 jaar 60 euro aan stroom meer kosten.
- Potentie tot het anders gebruiken van de meerdere cores op de 3070 in de toekomst waardoor je in de toekomst mogelijk meer prestatie krijgt.
- En dan is er een lijst nieuwe features zoals HDMI 2.1 codec support en wat andere zaken.
De waarheid is keihard. ALS de 3070 echt een 2080TI en meer is dan is een realistische 2dehands prijs voor een 2080TI gewoon pijnlijk laag (voor de huidige eigenaren) en zou ik er pas bij 300-350 over na gaan denken.
Daarbuiten heb je nog steeds 3GB meer vRAM op de 2080Ti, dat kan voor bepaalde situaties best voordelig uitpakken. *Stel* dat de 3070 even snel is als de RTX2080ti (gemiddeld gezien) is afhankelijk van de leeftijd van de tweedehands kaart een realistische tweedehandsprijs voor een reference 2080Ti imho rond de 475-500,-, en voor een fatsoenlijke AIB kaart (MSI Gaming X oid) moet 550 ook wel te halen zijn. Of denk jij echt dat je een MSI RTX3070 Gaming X voor 500,- gaat kunnen kopen
Men denkt dat door de 'giant performance gains' ze opeens een grote CPU bottleneck gaan krijgen. Realiteit is dat alles gelijk aan of sneller dan een i7 6700K waarschijnlijk prima meekomt. Zo'n 2080Ti wordt nu ook niet idioot bottlenecked door een dergelijke i7. De RTX3080 is in de praktijk waarschijnlijk maar 30% of iets sneller dan een 2080Ti, En zoals je zegt, niemand gaat een dergelijke kaart kopen om op 1080p mee te spelen. Voor de mensen die dat eventueel toch doen.. Tja, die hebben waarschijnlijk een goede reden daarvoor, en die weten dus als het goed is ook waar ze aan beginnen.Sander64 schreef op zaterdag 5 september 2020 @ 13:43:
Ik heb vandaag ook nog wat gegoogled en wat op reddit rondgekeken. Mensen zijn opeens bang dat de CPU een bottleneck vormt voor met name de 3080 (waar de meeste gamers geinteresseerd in zijn). Waar is dit eigenlijk op gebaseerd?
De Ryzen 5 3600 vormt toch helemaal geen bottleneck op 1440p en 4k? Op 1080p low/medium in counterstrike kan ik het nog begrijpen.
Kijk, het is geen rocket science, waarschijnlijk zal een moderne 8C/16T CPU op basis van Zen2 en 4.4Ghz over het algemeen een hogere framerate met dezelfde GPU geven dan een 6 jaar oude 4C/8T i7 op 4Ghz.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Je hebt zeker gelijk over het lijstje nieuwe features! Enige voordeel is 11GB vram ipv 8GB (beide gddr6 non x) en de deftige AIBs gaan, zeker vlak na launch, denk ik wel €600-650 kosten voor de 3070. Founders is €519 maar door de grote vraag zie ik dit ook nog wel naar €550 gaan bij andere webshops.computerjunky schreef op zaterdag 5 september 2020 @ 13:34:
[...]
Als de kaart met alles echt even snel is als de 2080 TI dan nog zou ik hem niet overwegen voor 500 euro (nieuw) om meerdere redenen.
- We weten dat het ray tracing deel van de 3070 sneller zal zijn en.
- De 2080Ti zal met mijn gaming gedrag over 4 jaar 60 euro aan stroom meer kosten.
- Potentie tot het anders gebruiken van de meerdere cores op de 3070 in de toekomst waardoor je in de toekomst mogelijk meer prestatie krijgt.
- En dan is er een lijst nieuwe features zoals HDMI 2.1 codec support en wat andere zaken.
De waarheid is keihard. ALS de 3070 echt een 2080TI en meer is dan is een realistische 2dehands prijs voor een 2080TI gewoon pijnlijk laag (voor de huidige eigenaren) en zou ik er pas bij 300-350 over na gaan denken.
Als je dan nu lekker wil gamen en niet 6-9 maanden wachten tot AIB partner hun kaarten goed beschikbaar zijn...
Simpel 4 uur per dag zo goed als dagelijks x4 jaar die ik normaliter met een gpu doe x stroomprijs die verwacht zijn over 4 jaar gemiddeld. De stock 2080ti specs mogen dan wel 250 watt zijn maar als je naar de daadwerkelijke getallen van board partners kijkt kom je al snel aan 295 watt gemiddeld met zelfs kaarten van 305 watt.Kuusj schreef op zaterdag 5 september 2020 @ 13:55:
[...]
Hoe kom je erbij dat je zo veel stroom bespaart? De TDP's verschillen niet zo veel en we hebben nog geen benchmarks gezien.
Daarbuiten heb je nog steeds 3GB meer vRAM op de 2080Ti, dat kan voor bepaalde situaties best voordelig uitpakken. *Stel* dat de 3070 even snel is als de RTX2080ti (gemiddeld gezien) is afhankelijk van de leeftijd van de tweedehands kaart een realistische tweedehandsprijs voor een reference 2080Ti imho rond de 475-500,-, en voor een fatsoenlijke AIB kaart (MSI Gaming X oid) moet 550 ook wel te halen zijn. Of denk jij echt dat je een MSI RTX3070 Gaming X voor 500,- gaat kunnen kopen![]()
![]()
Stel dat de board partners van die 220 watt voor de 3070 dus ook 250 watt maken dan is dat nog 45-55 watt meer voor de 2080TI. Ga uit van best case, 45 watt x 4 uur gamen (lage schatting voor mij) x365x4 jaar is 262 kwh.
Nu betaal ik 22 cent per kwh maar ik verwacht dat de trend van hogere stroomprijs door zal zetten zoals de afgelopen 4 jaar (betaalde in 2016 maar 18.9 cent per kwh ondanks dat de kale stroom prijs nog steeds 5 cent is) en dus is een berekening met gemiddeld 23 cent veel realistischer (en zelfs nog laag) over 4 jaar en tada daar is je 60 euro berekening.
En dan negeer ik voor het gemak nog even de idle waarvan we niet weten wat dit gaat worden. De pc staat immers veel langer aan als dat er gegamed word. Dit kan positief of negatief uitvallen, maar met informatie die ik niet heb kan ik niets.
Natuurlijk niet relevant voor het gros van de tweakers die blijkbaar niet zelf hun stroomrekening lijken te betalen of denken dat 262 kwh via zonnepanelen niets kost ondanks dat je dat anders gewoon terug krijgt maar ik betaal het wel
Wat betreft ram dat is maar net of de DLSS 3.0 geruchten waar zijn. Als renderen op lagere resolutie een serieus ding word in iedere game dan is ram ineens minder relevant zo niet dan kan er wel een punt zijn dat het uit maakt., maar dathangt natuurlijk ook van de daadwerkelijke prestatie af.
En wat betreft launch prijs. ik heb gister wat 2080 release prijzen bekeken en ja er waren er fors wat durder bij de launch maar ook snel aardig wat goedkoper als de nvidia aangegeven retail prijs. Dat kan dus alle kanten op. de zogenaamde luxe top modellen zullen inderdaad duur zijn. Denk aan de rog strix onzin kaarten waar je voor de naam betaald. maar een msi gaming ventus x3 verwacht ik toch wel onderaan qua prijs en op papier binnen een paar % van de rest.
Overclockbaarheid zal lager zijn maar dat boeit me toch niet echt.
Een overgeklokte i7-7700k is volgens mij nog steeds sneller dan een 3600x en 3700x.Kuusj schreef op zaterdag 5 september 2020 @ 13:55:
[...]
Hoe kom je erbij dat je zo veel stroom bespaart? De TDP's verschillen niet zo veel en we hebben nog geen benchmarks gezien.
Daarbuiten heb je nog steeds 3GB meer vRAM op de 2080Ti, dat kan voor bepaalde situaties best voordelig uitpakken. *Stel* dat de 3070 even snel is als de RTX2080ti (gemiddeld gezien) is afhankelijk van de leeftijd van de tweedehands kaart een realistische tweedehandsprijs voor een reference 2080Ti imho rond de 475-500,-, en voor een fatsoenlijke AIB kaart (MSI Gaming X oid) moet 550 ook wel te halen zijn. Of denk jij echt dat je een MSI RTX3070 Gaming X voor 500,- gaat kunnen kopen![]()
![]()
[...]
Men denkt dat door de 'giant performance gains' ze opeens een grote CPU bottleneck gaan krijgen. Realiteit is dat alles gelijk aan of sneller dan een i7 6700K waarschijnlijk prima meekomt. Zo'n 2080Ti wordt nu ook niet idioot bottlenecked door een dergelijke i7. De RTX3080 is in de praktijk waarschijnlijk maar 30% of iets sneller dan een 2080Ti, En zoals je zegt, niemand gaat een dergelijke kaart kopen om op 1080p mee te spelen. Voor de mensen die dat eventueel toch doen.. Tja, die hebben waarschijnlijk een goede reden daarvoor, en die weten dus als het goed is ook waar ze aan beginnen.
Kijk, het is geen rocket science, waarschijnlijk zal een moderne 8C/16T CPU op basis van Zen2 en 4.4Ghz over het algemeen een hogere framerate met dezelfde GPU geven dan een 6 jaar oude 4C/8T i7 op 4Ghz.
In wat voor workload, dat zal namelijk in de meeste workloads vies tegenvallen.ion schreef op zaterdag 5 september 2020 @ 16:16:
[...]
Een overgeklokte i7-7700k is volgens mij nog steeds sneller dan een 3600x en 3700x.
Gamen natuurlijk.Dennism schreef op zaterdag 5 september 2020 @ 16:28:
[...]
In wat voor workload, dat zal namelijk in de meeste workloads vies tegenvallen.
Ook dat zal per game verschillen mogelijk, Stock v.s .stock zijn de 7700k en de Ryzen 3300x aan elkaar gewaagd en doen vooral stuivertje wisselen in gaming. Een goed overklokbare 7700K zal daar zeker wat kunnen winnen, maar echt veel zal het niet zijn verwacht ik de meeste games.
Die units kunnen niet volledig vrij aangestuurd worden. Er gaat óf een wave INT32 in, óf een wave FP32. Maar niet mixed. TPU heeft het ook over concurrent INT32/FP32 - dat is niet parallel. Jaren geleden was dit een dingetje met Go, waar concurrency heel makkelijk in is, maar tegelijkertijd werd dat toen ook verkeerd begrepen en toen kwam er deze talk.DaniëlWW2 schreef op vrijdag 4 september 2020 @ 23:15:
Er is dus meer bekend gemaakt.![]()
Zoals een aantal leakers al aangaven lijkt er schaarste te gaan zijn.
Dan mede voor @Werelds en @Paprika Het is iets complexer. Een deel van de ALU's doen dus zowel FP32 als INT32 en daarnaast zijn er nog FP32 ALU's. L1 cache van 96kb naar 128kb en de rest lijkt identiek aan Turing.
[Afbeelding]
Verder ook dit.
(verhaaltje over +30% "across the board")
Die ALU's moeten dus context switchen en blijkbaar is er in de meeste games 70% van de tijd genoeg INT32 om de boel te vertragen, precies wat ik al zei: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Als ze allemaal mixed zouden zijn, zou het helemaal een rotzooi wordenVerder waarom niet alle ALU's dan FP32 en INT32 en die bottlenecks weghalen?
Zoals gezegd is het concurrency, niet parallelism. Vandaar de bottleneck. Ik heb al jaren niet gekeken naar synthetische benchmarks dus ik weet niet of dit al ergens gedaan wordt, maar dit is een klassiek voorbeeld voor een situatie waar een synthetische benchmark wél boeiend kan zijn. Kijken hoeveel <Type><Precisie> (Type = FP / INT, Precisie is 8-64 in machten van 2DaniëlWW2 schreef op vrijdag 4 september 2020 @ 23:48:
Ik weet van die FP64 unit ja.![]()
Maar zelfs dan nog. Dit is nog meer een Turing/"Paxwell" hybrid dan we dachten. Het zijn nog steeds 32 ALU's per block, 128 totaal per SM. Alle 128ALU's kunnen FP32 doen zoals in "Paxwell", maar de helft kan parallel ook INT32 instructies per SM doen. Die ALU's zouden ook parallel INT en FP doen. De bottleneck dat dit maar iets van 30% sneller is dan Turing, werkelijk wat Nvidia?
Maar ik hoor het wel. Voel je niet opgejaagd.
Ik zou er op rekenen dat het beeld dat je nu bij de 1080p grafieken ziet bij een site als gamer nexus straks zichtbaar op 1440p wordt wanneer ze hun test rig uitrusten met een snellere gpu in de vorm van een 3090 Snelste kaart is 173 vs 126=37%. Dus als dat gat is te dichten met de 3xxx serie, en daar lijkt het wel op, dan schuift de boel door. Mogelijk al met een 3080 (+80% in borderlands 3 4k zonder dlss als we de preview benchmarks mogen geloven).Sander64 schreef op zaterdag 5 september 2020 @ 13:43:
Ik heb vandaag ook nog wat gegoogled en wat op reddit rondgekeken. Mensen zijn opeens bang dat de CPU een bottleneck vormt voor met name de 3080 (waar de meeste gamers geinteresseerd in zijn). Waar is dit eigenlijk op gebaseerd?
De Ryzen 5 3600 vormt toch helemaal geen bottleneck op 1440p en 4k? Op 1080p low/medium in counterstrike kan ik het nog begrijpen.
[ Voor 6% gewijzigd door sdk1985 op 05-09-2020 17:04 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ja dat heb ik dus helemaal gemist. Maar mentale aantekening gemaakt en weer wat geleerd.Werelds schreef op zaterdag 5 september 2020 @ 16:50:
[...]
Die units kunnen niet volledig vrij aangestuurd worden. Er gaat óf een wave INT32 in, óf een wave FP32. Maar niet mixed. TPU heeft het ook over concurrent INT32/FP32 - dat is niet parallel. Jaren geleden was dit een dingetje met Go, waar concurrency heel makkelijk in is, maar tegelijkertijd werd dat toen ook verkeerd begrepen en toen kwam er deze talk.
Die ALU's moeten dus context switchen en blijkbaar is er in de meeste games 70% van de tijd genoeg INT32 om de boel te vertragen, precies wat ik al zei: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Implicerend is het dan ook dat games zelden meer dan 16 INT32 threads per warp zullen hebben.
Weet je, daar hebben we kantoormensen voor.[...]
Als ze allemaal mixed zouden zijn, zou het helemaal een rotzooi worden
[...]
Zoals gezegd is het concurrency, niet parallelism. Vandaar de bottleneck. Ik heb al jaren niet gekeken naar synthetische benchmarks dus ik weet niet of dit al ergens gedaan wordt, maar dit is een klassiek voorbeeld voor een situatie waar een synthetische benchmark wél boeiend kan zijn. Kijken hoeveel <Type><Precisie> (Type = FP / INT, Precisie is 8-64 in machten van 2) een GPU aan kan in pure en mixed waves. Fuck theoretische TF, kijk maar wat er in de praktijk kan
@Intergalactic doe er eens wat mee zou ik zeggen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Daarom ook een overgeklokte 7700k, maar sneller is dan ook 1% ofzo hoorDennism schreef op zaterdag 5 september 2020 @ 16:50:
[...]
Ook dat zal per game verschillen mogelijk, Stock v.s .stock zijn de 7700k en de Ryzen 3300x aan elkaar gewaagd en doen vooral stuivertje wisselen in gaming. Een goed overklokbare 7700K zal daar zeker wat kunnen winnen, maar echt veel zal het niet zijn verwacht ik de meeste games.
We kunnen op 14 september de eerste reviews verwachten van Ampere!
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
250-220W is 30W, en dus 9,20€ per jaar, 36,80€ over 4 jaar gezien als je 4 uur per dag doet gamen.. Maar goed, ik snap je punt, t is alleen niet zo relevant voor de gemiddelde gamer. 4 uur per dag is niet gemiddeld.computerjunky schreef op zaterdag 5 september 2020 @ 14:58:
[...]
Simpel 4 uur per dag zo goed als dagelijks x4 jaar die ik normaliter met een gpu doe x stroomprijs die verwacht zijn over 4 jaar gemiddeld. De stock 2080ti specs mogen dan wel 250 watt zijn maar als je naar de daadwerkelijke getallen van board partners kijkt kom je al snel aan 295 watt gemiddeld met zelfs kaarten van 305 watt.
Stel dat de board partners van die 220 watt voor de 3070 dus ook 250 watt maken dan is dat nog 45-55 watt meer voor de 2080TI. Ga uit van best case, 45 watt x 4 uur gamen (lage schatting voor mij) x365x4 jaar is 262 kwh.
Nu betaal ik 22 cent per kwh maar ik verwacht dat de trend van hogere stroomprijs door zal zetten zoals de afgelopen 4 jaar (betaalde in 2016 maar 18.9 cent per kwh ondanks dat de kale stroom prijs nog steeds 5 cent is) en dus is een berekening met gemiddeld 23 cent veel realistischer (en zelfs nog laag) over 4 jaar en tada daar is je 60 euro berekening.
En dan negeer ik voor het gemak nog even de idle waarvan we niet weten wat dit gaat worden. De pc staat immers veel langer aan als dat er gegamed word. Dit kan positief of negatief uitvallen, maar met informatie die ik niet heb kan ik niets.
Natuurlijk niet relevant voor het gros van de tweakers die blijkbaar niet zelf hun stroomrekening lijken te betalen of denken dat 262 kwh via zonnepanelen niets kost ondanks dat je dat anders gewoon terug krijgt maar ik betaal het wel
Wat betreft ram dat is maar net of de DLSS 3.0 geruchten waar zijn. Als renderen op lagere resolutie een serieus ding word in iedere game dan is ram ineens minder relevant zo niet dan kan er wel een punt zijn dat het uit maakt., maar dathangt natuurlijk ook van de daadwerkelijke prestatie af.
En wat betreft launch prijs. ik heb gister wat 2080 release prijzen bekeken en ja er waren er fors wat durder bij de launch maar ook snel aardig wat goedkoper als de nvidia aangegeven retail prijs. Dat kan dus alle kanten op. de zogenaamde luxe top modellen zullen inderdaad duur zijn. Denk aan de rog strix onzin kaarten waar je voor de naam betaald. maar een msi gaming ventus x3 verwacht ik toch wel onderaan qua prijs en op papier binnen een paar % van de rest.
Overclockbaarheid zal lager zijn maar dat boeit me toch niet echt.
Het is overigens de vraag of een MSI Ventus mee kan met de nieuwe referencekoelers.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Je berekening klopt niet. Je neemt het 220-250 watt verschil en dat is stock FE 3070 vs potentiele board partners 3070 (Board partners gebruiken altijd iets meer omdat tgp/tbp hoger is net als de clocks). Niet 3070 board partners vs 2080 ti board partners die gebruiken zo goed als zeker meer zoals aangegeven is die namelijk rond de 300 watt.Kuusj schreef op zaterdag 5 september 2020 @ 18:42:
[...]
250-220W is 30W, en dus 9,20€ per jaar, 36,80€ over 4 jaar gezien als je 4 uur per dag doet gamen.. Maar goed, ik snap je punt, t is alleen niet zo relevant voor de gemiddelde gamer. 4 uur per dag is niet gemiddeld.
Het is overigens de vraag of een MSI Ventus mee kan met de nieuwe referencekoelers.
Daarnaast klopt je stroom tarief niet.
En ja of het nou 25 of mijn 60 euro is het moet doorberekend worden. Je betaald het immers. En dat maakt die kaart minder waard. Iedereen die vind van niet kan niet met geld om gaan. Bij je salaris zeg je toch ook niet laat maar zitten het is maar 60 euro. Geld is geld en in je leven 200x geld besparen op deze manier loopt in de vele duizenden als dan niet tienduizenden euro's. Als zoveel geld je niet boeit tja dan heb je het dus erg goed en moet je ook bij andere zaken niet klagen.
Een 6700k niet? Dan ben ik verkeerd geïnformeerd. Ik sta op het punt om mijn 6700k te vervangen ivm bottleneck met de 3080. Dit is dan helemaal niet nodig?Kuusj schreef op zaterdag 5 september 2020 @ 13:55:
[...]
Hoe kom je erbij dat je zo veel stroom bespaart? De TDP's verschillen niet zo veel en we hebben nog geen benchmarks gezien.
Daarbuiten heb je nog steeds 3GB meer vRAM op de 2080Ti, dat kan voor bepaalde situaties best voordelig uitpakken. *Stel* dat de 3070 even snel is als de RTX2080ti (gemiddeld gezien) is afhankelijk van de leeftijd van de tweedehands kaart een realistische tweedehandsprijs voor een reference 2080Ti imho rond de 475-500,-, en voor een fatsoenlijke AIB kaart (MSI Gaming X oid) moet 550 ook wel te halen zijn. Of denk jij echt dat je een MSI RTX3070 Gaming X voor 500,- gaat kunnen kopen![]()
![]()
[...]
Men denkt dat door de 'giant performance gains' ze opeens een grote CPU bottleneck gaan krijgen. Realiteit is dat alles gelijk aan of sneller dan een i7 6700K waarschijnlijk prima meekomt. Zo'n 2080Ti wordt nu ook niet idioot bottlenecked door een dergelijke i7. De RTX3080 is in de praktijk waarschijnlijk maar 30% of iets sneller dan een 2080Ti, En zoals je zegt, niemand gaat een dergelijke kaart kopen om op 1080p mee te spelen. Voor de mensen die dat eventueel toch doen.. Tja, die hebben waarschijnlijk een goede reden daarvoor, en die weten dus als het goed is ook waar ze aan beginnen.
Kijk, het is geen rocket science, waarschijnlijk zal een moderne 8C/16T CPU op basis van Zen2 en 4.4Ghz over het algemeen een hogere framerate met dezelfde GPU geven dan een 6 jaar oude 4C/8T i7 op 4Ghz.
Enige manier om het te weten is wachten op de benchmarks. Zal zeer waarschijnlijk wel een 'bottleneck-benchmark' komen.Matthias87 schreef op zaterdag 5 september 2020 @ 19:14:
[...]
Een 6700k niet? Dan ben ik verkeerd geïnformeerd. Ik sta op het punt om mijn 6700k te vervangen ivm bottleneck met de 3080. Dit is dan helemaal niet nodig?
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Het boeit niet zo veel wat AIB's verbruiken, puur het TDP verschil van de FE reken ik mee. Dat daar vervolgens nog 40/45W bij komt bij een AIB is niet relevant want dat is voor beide kaarten waarschijnlijk het geval. 220W+40W is 260W, 250W+40W is 290W.. verschil blijft 30W. Het TDP van de 2080Ti FE is 250W hé, het TDP van de 3070 FE is 220W. Da's een 30W verschil.computerjunky schreef op zaterdag 5 september 2020 @ 19:09:
[...]
Je berekening klopt niet. Je neemt het 220-250 watt verschil en dat is stock FE 3070 vs potentiele board partners 3070 (Board partners gebruiken altijd iets meer omdat tgp/tbp hoger is net als de clocks). Niet 3070 board partners vs 2080 ti board partners die gebruiken zo goed als zeker meer zoals aangegeven is die namelijk rond de 300 watt.
Daarnaast klopt je stroom tarief niet.
En ja of het nou 25 of mijn 60 euro is het moet doorberekend worden. Je betaald het immers. En dat maakt die kaart minder waard. Iedereen die vind van niet kan niet met geld om gaan. Bij je salaris zeg je toch ook niet laat maar zitten het is maar 60 euro. Geld is geld en in je leven 200x geld besparen op deze manier loopt in de vele duizenden als dan niet tienduizenden euro's. Als zoveel geld je niet boeit tja dan heb je het dus erg goed en moet je ook bij andere zaken niet klagen.
En ja een FE kaart vergelijken met een AIB kaart is niet echt eerlijk natuurlijk. Maar goed een RTX2080Ti Gaming X van MSI en een RTX3070 Gaming X van MSI zullen alletwee meer verbruiken dan wat een FE kaart doet. Maar als je doe vergelijkt kom je dus als het goed is (waarschijnlijk) weer ongeveer terecht op die 30W delta.. Dus ik begrijp even niet wat je bedoeld.
Stroomtarief van 21 cent is verder vrij gebruikelijk? En dan nog raakt je verhaal kant noch wal imho, een 3070FE voor 519€ kopen of een willekeurige variant van de 2080TI voor 450-475€ (want ja vooral nu komt men ze aan de straatstenen niet kwijt). Moet je dus 4 jaar 4 uur per dag gamen om dat verschil terug te winnen
En wie weet meet de RTX3070 FE wel 50W meer onder load dan dan de 20W delta van de RTX2080Ti FE. Of juist minder.. dat is de crux, je weet namelijk gewoon nog niks tot je benchmark in handen hebt..
Eenieder die dergelijke kaart kan betalen moet wat mij betreft niet liggen mopperen over 20W stroomverbruik extra, en zeker niet als je ook nog eens een extra onzuinige AIB factory OC RGB 4 slots triple fan ding met OLED scherm wil, maar goed dat is mijn persoonlijke mening.
Zeker waar, maar je weet toch hoe een RTX2080Ti performed. Daar heeft zo'n CPU geen idiote moeite mee.thijsco19 schreef op zaterdag 5 september 2020 @ 19:18:
[...]
Enige manier om het te weten is wachten op de benchmarks. Zal zeer waarschijnlijk wel een 'bottleneck-benchmark' komen.
Ik zou daar fijn even mee wachten, upgraden kan altijd nog. Als het daadwerkelijk bottlenecked kom je daar snel genoeg achter, ligt ook voor een groot deel aan welke games op welke resolutie je speelt. Hoe hoger de resolutie hoe minder je CPU speelt. Dus ja dat is ook iets om rekening mee te houden.Matthias87 schreef op zaterdag 5 september 2020 @ 19:14:
[...]
Een 6700k niet? Dan ben ik verkeerd geïnformeerd. Ik sta op het punt om mijn 6700k te vervangen ivm bottleneck met de 3080. Dit is dan helemaal niet nodig?
[ Voor 14% gewijzigd door Kuusj op 05-09-2020 19:35 ]
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Verschilt nogal per game natuurlijk maar er zijn voorbeelden waar de 6700k zelfs al een 1080ti kan bottlenecken. Natuurlijk zal dat high refresh 1080p gaming zijn maar in anno 1800 bijvoorbeeld is de 6700k ook een bottleneck voor de 1080ti. https://old.reddit.com/r/...no_1800_performance_with/Matthias87 schreef op zaterdag 5 september 2020 @ 19:14:
[...]
Een 6700k niet? Dan ben ik verkeerd geïnformeerd. Ik sta op het punt om mijn 6700k te vervangen ivm bottleneck met de 3080. Dit is dan helemaal niet nodig?
Vraag is natuurlijk of je de verschillen echt gaat merken. Ik heb zelf een 6700k met een 1080ti en zou ik mijn gpu upgraden naar een 30 serie dan denk ik dat ik mijn hele systeem maar ga upgraden omdat het bij mij toch gaat knagen dat ik aan de gpu zijde performance laat liggen. Hoeveel performance dat zou zijn moet nog uitgezocht worden natuurlijk.
Wie goed doet, die goed ontmoet.
Ik ben van een 7700k (non-OC) naar een 3700X gegaan icm een 5700XT. Bij bijvoorbeeld een BF5 heb ik een behoorlijk significante FPS upgrade gekregen op 1440p (niet op maxed settings). Dat verbaasde me, en heb geen harde nummers, maar dat was dus wel het effect. Nu is BF5 performance sowieso altijd nogal hit and miss.
Bij benchmarks moet je rekening ermee houden dat ze allemaal heel netjes een schone PC gebruiken. Nu stream ik niet (dan zal een 3700X helemaal rondjes rennen rond een 7700k), maar als je al wat chrome tabbladen open heb inclusief een Youtube die speelt bijvoorbeeld, dan zal je met meer cores daar minder last van hebben.
Bij benchmarks moet je rekening ermee houden dat ze allemaal heel netjes een schone PC gebruiken. Nu stream ik niet (dan zal een 3700X helemaal rondjes rennen rond een 7700k), maar als je al wat chrome tabbladen open heb inclusief een Youtube die speelt bijvoorbeeld, dan zal je met meer cores daar minder last van hebben.
PCAT (Power Capture Analysis Tool)
— VideoCardz.com (@VideoCardz) 5 september 2020
"[NVIDA] PCAT are being made available to select tech reviewers around the globe"
Who was selected? 😃 pic.twitter.com/SrszTFg43a
Ik moet het Nvidia nageven dat reviewers een relatief accurate manier geven om verbruik te meten voor Ampere, lef toont.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat is gelijk ook het punt met benchmarks, ze vertellen een gedeelte van het hele verhaal. Ze worden express op schone systemen uitgevoerd waar niks op de achtergrond draait. De gemiddelde persoon heeft altijd wel iets op de achtergrond draaien. In benchmarks zal een 4c/8t nog prima mee komen, maar dat zal niet voor iedereen zo zijn.Sissors schreef op zaterdag 5 september 2020 @ 20:56:
Ik ben van een 7700k (non-OC) naar een 3700X gegaan icm een 5700XT. Bij bijvoorbeeld een BF5 heb ik een behoorlijk significante FPS upgrade gekregen op 1440p (niet op maxed settings). Dat verbaasde me, en heb geen harde nummers, maar dat was dus wel het effect. Nu is BF5 performance sowieso altijd nogal hit and miss.
Bij benchmarks moet je rekening ermee houden dat ze allemaal heel netjes een schone PC gebruiken. Nu stream ik niet (dan zal een 3700X helemaal rondjes rennen rond een 7700k), maar als je al wat chrome tabbladen open heb inclusief een Youtube die speelt bijvoorbeeld, dan zal je met meer cores daar minder last van hebben.
Zelf heb ik bijv altijd Logitech Gaming Software (Muis en tobo) draaien, Flux, Foobar en nog een browser (Vivaldi) met meer tabs dan ik kwijt wil
Nu is dat nog redelijk licht, maar er zijn er genoeg die allerlei toolbars en moederbord fabrikant kerst verlichting spul hebben draaien met de standaard zogenaamde cleaning tools.
dang ik vind jouw lichte setup nog extreem. Bij mij draait op zijn meest rivatuner (eerste keer dat ik een game start om te kijken hoe de settings het doen) en heel af en toe teamspeak als ik met iemand aan het ouwehoeren ben. Zelfs de nvidia control panel word bij mij gekild.Sp3ci3s8472 schreef op zaterdag 5 september 2020 @ 21:49:
[...]
Dat is gelijk ook het punt met benchmarks. Ze worden express op schone systemen uitgevoerd waar niks op de achtergrond draait. De gemiddelde persoon heeft altijd wel iets op de achtergrond draaien. In benchmarks zal een 4c/8t nog prima mee komen, maar dat zal niet voor iedereen zo zijn.
Zelf heb ik bijv altijd Logitech Gaming Software (Muis en tobo) draaien, Flux, Foobar en nog een browser (Vivaldi) met meer tabs dan ik kwijt wil.
Nu is dat nog redelijk licht, maar er zijn er genoeg die allerlei toolbars en moederbord fabrikant kerst verlichting spul hebben draaien met de standaard zogenaamde cleaning tools.
Mijn windows process state voordat ik de game opstart is 39 processen. Waarvan er 2 zijn om van die start blokkendoos af te komen (classicstart) en een roccat tool voor keyboard en muis profielen.
Teamspeak en roccat moet je trouwens cappen op 1 core handmatig net als bepaalde rgb tools omdat die de boost van je cpu kunnen verzieken en dat kost prestatie.
Browsen tijdens gamen doe ik op een tablet die ik altikd bij me heb.
Met zware games gaan Foobar en Vivaldi uitcomputerjunky schreef op zaterdag 5 september 2020 @ 21:59:
[...]
dang ik vind jouw lichte setup nog extreem. Bij mij draait op zijn meest rivatuner (eerste keer dat ik een game start om te kijken hoe de settings het doen) en heel af en toe teamspeak als ik met iemand aan het ouwehoeren ben. Zelfs de nvidia control panel word bij mij gekild.
Mijn windows process state voordat ik de game opstart is 39 processen. Waarvan er 2 zijn om van die start blokkendoos af te komen (classicstart) en een roccat tool voor keyboard en muis profielen.
Teamspeak en roccat moet je trouwens cappen op 1 core handmatig net als bepaalde rgb tools omdat die de boost van je cpu kunnen verzieken en dat kost prestatie.
Browsen tijdens gamen doe ik op een tablet die ik altikd bij me heb.
Hoofd reden dat bij mij alles uit gaat is dat ik sinds de overstap naar windows 10 last heb van random microstutters. Met een barebone windows 10 is dat stukken minder geworden. Helemaal weg is het niet maar ik verdenk het onboard geluid van die laatste stutters. Helaas mocht de xfi elite pro niet mee door het uitsterven van pci.Sp3ci3s8472 schreef op zaterdag 5 september 2020 @ 22:03:
[...]
Met zware games gaan Foobar en Vivaldi uit. Aan de andere kant zal het mij een worst wezen of ze 8 cores volleidg belasten ik heb een 3950x omdat ik vrij weinig game maar andere dingen daarmee doe (VM's, compilen etc).
Indien het de laatste update van Windows 10 betreft, Hyper-V heeft behoorlijk wat veranderingen ondergaan zodat het nu compatible is met VMWare. Een groot nadeel hiervan is dat het systeem last heeft van microstutters in audio (wat erger wordt als je VM's start) en de VM erg traag wordt (ik heb verhalen gelezen van mensen met tragere systemen dat het niet meer werkbaar is).computerjunky schreef op zaterdag 5 september 2020 @ 22:07:
[...]
Hoofd reden dat bij mij alles uit gaat is dat ik sinds de overstap naar windows 10 last heb van random microstutters. Met een barebone windows 10 is dat stukken minder geworden. Helemaal weg is het niet maar ik verdenk het onboard geluid van die laatste stutters. Helaas mocht de xfi elite pro niet mee door het uitsterven van pci.
Sinds ik Hyper-V weer uit heb geschakeld... (ik wilde dit graag aan ivm Docker) is alles over.
https://compubench.com/co...2=NVIDIA+GeForce+RTX+2080
[ Voor 22% gewijzigd door Paprika op 06-09-2020 10:08 ]
Bij het hoofdartikel aangaande de 3080 staat bij Tom's hardware Guide:Matthias87 schreef op zaterdag 5 september 2020 @ 19:14:
[...]
Een 6700k niet? Dan ben ik verkeerd geïnformeerd. Ik sta op het punt om mijn 6700k te vervangen ivm bottleneck met de 3080. Dit is dan helemaal niet nodig?
"but if you're eyeing the RTX 3080 you should probably have at least a Core i7-9700K or better CPU first"
Ik heb in mei mijn oude setup verkocht en even verder gegaan op mijn laptop. Ik wil graag 3080 kopen met een Ryzen 5 3600, en deze later eventueel vervangen door iets uit de 4000 reeks (had liever gelijk 4000 reeks gekocht, maar beetje angstvallig stil bij AMD.
Door de opmerking van Tom's Guide begin ik nu te twijfelen of tussenstand met de 3600 wel verstandig is....
Waarom niet? 3600 is een prima CPU. Op welke resolutie speel je? Als het 1080p is, tja, dan zou het weleens je FPS kunnen gaan beperken, maar dan kom je al snel op de vraag waarom je in hemelsnaam een 3080 zou kopen voor 1080p.Vinnie84 schreef op zondag 6 september 2020 @ 10:00:
[...]
Bij het hoofdartikel aangaande de 3080 staat bij Tom's hardware Guide:
"but if you're eyeing the RTX 3080 you should probably have at least a Core i7-9700K or better CPU first"
Ik heb in mei mijn oude setup verkocht en even verder gegaan op mijn laptop. Ik wil graag 3080 kopen met een Ryzen 5 3600, en deze later eventueel vervangen door iets uit de 4000 reeks (had liever gelijk 4000 reeks gekocht, maar beetje angstvallig stil bij AMD.
Door de opmerking van Tom's Guide begin ik nu te twijfelen of tussenstand met de 3600 wel verstandig is....
Alles is relatief. Zelfs op 1080p kun je de game op een hogere resolutie laten renderen, zeg 4K.
Oké, en dan is de CPU weer niet de bottleneck. Maar serieus, als je op 1080p zit zou ik toch eerder een 1440p scherm kopen dan een GPU om op 4k te renderen en dan weer te downscalen naar 1080pPaprika schreef op zondag 6 september 2020 @ 10:09:
Alles is relatief. Zelfs op 1080p kun je de game op een hogere resolutie laten renderen, zeg 4K.
Maar zo kunnen we dan ook meteen de discussie starten dat ik vind dat je GPU niet duurder mag zijn dan je monitor. Je monitor gaat langer mee en je kunt nog zoveel vermogen ertegenaan gooien. Een 4k scherm van 199 euro koppelen aan een 3090 bijvoorbeeld...Sissors schreef op zondag 6 september 2020 @ 10:17:
[...]
Oké, en dan is de CPU weer niet de bottleneck. Maar serieus, als je op 1080p zit zou ik toch eerder een 1440p scherm kopen dan een GPU om op 4k te renderen en dan weer te downscalen naar 1080p.
Heeft weinig te maken met duurder zijn, maar met wat zin heeft. Je kan ook wel een PC met een i9 processor en een 3090 in elkaar zetten omdat je oma graag Facebook wil checken. Van mij mag het hoor, maar of het wat oplevert?Paprika schreef op zondag 6 september 2020 @ 10:20:
[...]
Maar zo kunnen we dan ook meteen de discussie starten dat ik vind dat je GPU niet duurder mag zijn dan je monitor. Je monitor gaat langer mee en je kunt nog zoveel vermogen ertegenaan gooien. Een 4k scherm van 199 euro koppelen aan een 3090 bijvoorbeeld...
Als je doel is mooier beeld, dan ben je een stuk beter af om een 1440p monitor te kopen, dan om een dure GPU te kopen zodat je kan renderen op 4k en dan downscalen naar je 1080p scherm.
Cpu ligt ook behoorlijk aan de usecase als je bf5 speelt bvb is een 6700k al een bottleneck met een 1070 fhd low settings.
Maar iemand die sp games op 4k max details speelt zal zelfs een 3090 de bottleneck zijn icm een 6700k.
Maar ik kwam richting dit topic vanwege alle vraag advertenties in v&a waarbij mensen verwachten een 2080ti te kunnen bemachtigen voor minder de 500 euro en zelfs gtx1080 gevraagd word voor €150,-.
Dit is toch niet realistisch?
Ik wil eerst de benchmarks zien ik geloof best dat er 50% gains zijn met rtx en dlss vanwege de tensor core upgrade.
Maar ik verwacht niet van 160fps in bf5 naar 250 te gaan met een 3080 ten opzichte van een 2080ti.
Maar iemand die sp games op 4k max details speelt zal zelfs een 3090 de bottleneck zijn icm een 6700k.
Maar ik kwam richting dit topic vanwege alle vraag advertenties in v&a waarbij mensen verwachten een 2080ti te kunnen bemachtigen voor minder de 500 euro en zelfs gtx1080 gevraagd word voor €150,-.
Dit is toch niet realistisch?
Ik wil eerst de benchmarks zien ik geloof best dat er 50% gains zijn met rtx en dlss vanwege de tensor core upgrade.
Maar ik verwacht niet van 160fps in bf5 naar 250 te gaan met een 3080 ten opzichte van een 2080ti.
Dat zou ik ook niet verwachten nee. Je gaat bij zulke frame rates wel CPU limited zijn. Maar ik vind die vraag advertenties realistische prijzen. En de enige reden waarom een 2080Ti nog €500 kan opbrengen, is omdat de 3070 er nog niet is, en er nog iets onzekerheid over benchmarks is. Maar als de beloftes van Nvidia juist zijn, en de 3070 beschikbaar is, dan is er echt heel weinig reden om uberhaupt nog €500 voor een 2080Ti te betalen.
Of ze ze daadwerkelijk voor die prijzen gaan krijgen? Ik denk dat de 2080Ti eigenaren nog een tijdje in denial gaan blijven voor ze zakken naar die prijzen (en redelijke kans dat ze hem alsnog kunnen verkopen voor meer dan €500, maar voor mij persoonlijk zou €500 met huidige informatie ook de absolute max zijn wat ik nog redelijk vind).
Of ze ze daadwerkelijk voor die prijzen gaan krijgen? Ik denk dat de 2080Ti eigenaren nog een tijdje in denial gaan blijven voor ze zakken naar die prijzen (en redelijke kans dat ze hem alsnog kunnen verkopen voor meer dan €500, maar voor mij persoonlijk zou €500 met huidige informatie ook de absolute max zijn wat ik nog redelijk vind).
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
:strip_exif()/f/image/RUsGaeBHn2k25NhgBCHYO6YB.jpg?f=fotoalbum_large)