Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
CMT schreef op zaterdag 25 januari 2025 @ 15:19:
[...]

Op HWluxx hebben ze de stroming gemodelleerd. Dit zal wel met een redelijke sterke kaststroming gedaan zijn (fans op volle toeren). Cyaan = 3.6km/h. Er staat ook bij vermeld dat het effect van een grote koeler nabij niet goed gesimuleerd kan worden. Een deel van de gesimuleerde stroming word namelijk geblokkeerd. Vandaar dat ze ook een test gedaan hebben met een NH-D15 en warmtebeelden.

[Afbeelding]

[Afbeelding]

Aangezien de koelribben aan de bovenkant van de 5090FE 60°C zijn (dat is het echt heet), kan de lucht best 40°C + zijn. Met CPU waterkoeling is er nog steeds het probleem dat de SSD boven de GPU niet gekoeld kan worden. En het werkgeheugen zal het ook erg zwaar krijgen. Ik denk niet dat er velen zijn die een hotbox test doen (werkgeheugen testen in een thermisch extreem scenario).

@HugoBoss1985
Eigenlijk moet de hele ATX form factor op de schop.
De GPU een kwartslag kantelen + PCB weghalen dat nu in de weg zit, zou veel mogelijkheden bieden.
Met bijv. een quasi DTX board dat naar achteren groeit.
Dan zijn er dual-chamber of fanduct ontwerpen mogelijk.
[Afbeelding]

Eigenlijk het idee wat met custom waterkoeling en de Caselabs SMa8 al gedaan is, maar dan niet zo lomp.
https://www.xtremerigs.net/2014/06/01/caselabs-sma8-review/
[Afbeelding]
Dual Chamber is natuurlijk ook een goede (wellicht nog betere) oplossing dan wat ik aangaf.
CPU en Videokaart (warmte/airflow) van elkaar gescheiden.

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 09:48

MazeWing

The plot thickens...

Sissors schreef op zaterdag 25 januari 2025 @ 15:06:
Ze zouden mogelijk een punt kunnen hebben, als ze dat niet maakte bij één van de duurste versies van de duurste GPU. Dat je GPUs in zijn algemeenheid wel duur vindt worden: Prima, kunnen we het over hebben, maar ik snap iig waarom mensen dat vinden. Maar dat een dure versie van de meest high-end GPU die er bestaat voor consumenten niet toegankelijk is voor iedereen? Tja.
Je hebt smart watches van €3k+. Racefietsen van €10k+. Om het nog niet te hebben over hoe duur een handtasje kan zijn. Allemaal dingen die nul impact hebben op de grote groep gebruikers van die dingen, want die kopen sowieso niet de duurste opties.
Natuurlijk niet helemaal een eerlijk vergelijk want in je voorbeelden heb je natuurlijk veel goedkopere exemplaren die 90-95% van dezelfde performance en/of ervaring bieden of enkel afhankelijk zijn van het merk.

Bij de 5090 betaal je een “standaard” bedrag van $2000 om überhaupt toegang te krijgen tot die ervaring en nog meer als je een betere uitvoering wil. Wil je minder uitgeven dan heb je een aanzienlijk mindere ervaring met flink mindere performance.

Stel je een racefiets voor. Dat als je geen €2500 gaat uitgeven je alleen een fiets (voor €1300) kan kopen die gelimiteerd is tot 5 versnellingen, geen voorvering heeft en kleinere banden en je niet eens een mogelijkheid hebt om toch voorvering, etc te kiezen maar van een minder merk maar gewoon niet. Wil je het wel dan mag je het dubbele gaan uitgeven….

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Sowieso zitten de forse prijsstijgingen ook in het segment eronder. Lijkt mij niet gezond voor nieuwe aanwas van PC Desktop (Gaming).

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 16-06 13:06
Voor wie interesse heeft in multi frame generation zou ik deze video eens bekijken 🙂MFG lijkt mij helemaal niet indrukwekkend in de staat dat het zich nu bevind.

YouTube: Is DLSS 4 Multi Frame Generation Worth It?

Acties:
  • 0 Henk 'm!

  • Jaïr.exe
  • Registratie: Mei 2009
  • Laatst online: 07-07 23:14
Zal wel strijden worden komende week voor überhaupt een rtx 5000-serie kaart. AIB idem ditto. Ebay vertoont al prijzen van 2x MSRP. Zou 400 euro meerprijs op Founders Edition (dus 2770 euro voor RTX 5090) een acceptabele prijs zijn? Heb die 32GB VRAM wel nodig.

Acties:
  • +3 Henk 'm!
MazeWing schreef op zaterdag 25 januari 2025 @ 17:30:
[...]

Natuurlijk niet helemaal een eerlijk vergelijk want in je voorbeelden heb je natuurlijk veel goedkopere exemplaren die 90-95% van dezelfde performance en/of ervaring bieden of enkel afhankelijk zijn van het merk.

Bij de 5090 betaal je een “standaard” bedrag van $2000 om überhaupt toegang te krijgen tot die ervaring en nog meer als je een betere uitvoering wil. Wil je minder uitgeven dan heb je een aanzienlijk mindere ervaring met flink mindere performance.

Stel je een racefiets voor. Dat als je geen €2500 gaat uitgeven je alleen een fiets (voor €1300) kan kopen die gelimiteerd is tot 5 versnellingen, geen voorvering heeft en kleinere banden en je niet eens een mogelijkheid hebt om toch voorvering, etc te kiezen maar van een minder merk maar gewoon niet. Wil je het wel dan mag je het dubbele gaan uitgeven….
Bij de duurste fietsen betaal je natuurlijk heel veel extra voor incrementele verbeteringen (klinkt bekend?). Maar als jij een elektrische Dura Ace DI2 groep op je racefiets wil hebben, ga je die ook niet krijgen op een fiets van €2000. En je hebt echt geen RTX5090 nodig om leuk je hobby van gaming te kunnen doen. Net als dat je geen peperdure racefiets nodig hebt voor je hobby van fietsen.

Acties:
  • +3 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • +1 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 11:02

DeNachtwacht

youtube.com/@hisrep

Sissors schreef op zaterdag 25 januari 2025 @ 17:56:
[...]

Bij de duurste fietsen betaal je natuurlijk heel veel extra voor incrementele verbeteringen (klinkt bekend?). Maar als jij een elektrische Dura Ace DI2 groep op je racefiets wil hebben, ga je die ook niet krijgen op een fiets van €2000. En je hebt echt geen RTX5090 nodig om leuk je hobby van gaming te kunnen doen. Net als dat je geen peperdure racefiets nodig hebt voor je hobby van fietsen.
Precies dit. Op een 27 inch scherm durf ik wel te zeggen dat 1440P voor gaming echt voldoende is. Met mijn 3080 kon ik daarmee al (vrijwel) alles op ultra/high doen, die kaart gaat nu voor zo rond de €400-500 tweedehands. Sowieso denk ik dat juist in het segment tot en met de 5080 er juist door de nieuwe kaarten de prijzen hopelijk wat gaan dalen. Natuurlijk even onder het voorbehoud van beschikbaarheid, maar de dagen dat miners vol op deze kaarten jaagden liggen achter ons. Kortom, ik ben benieuwd hoe de komende maanden zal verlopen maar het kan best voor heel veel mensen een leuke pricedrop betekenen. Ik denk inderdaad alleen niet dat je die bij de 4090/5090 gaat zien op basis van de reviews die we tot nu toe voorbij zien komen.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 09-07 20:43
Mensen, wat is de mening over voedings voor de RTX5090, gezien Igor Labs, zag dat de 5090 wilt pieken naar 900 watt voor een aantal mili seconden ?

(Hb zelf een HX1000i en zit er toch over te denken een HX1200i er in te zetten voor de zekerheid)

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +2 Henk 'm!

  • Kunati
  • Registratie: November 2020
  • Laatst online: 30-05 16:34
Ik hoor toch vooral teleurstelling wat die 50XX kaarten betreft. Zelf was ik in de markt voor een 5080 maar daarvoor haak ik af.
De 5090 nog even overwogen maar de prijs (alsook het stroomverbruik) is er echt over.

4090 tweedehands leek me nog iets maar die prijzen zitten ook weer in de lift. Ik heb een placeholder 7900 XTX gekocht, die ik nog kan terugsturen. Maar ik denk het niet te doen, en deze video geeft me eerder gelijk:
YouTube: RTX 5090 vs RX 7900 XTX- The Ultimate Comparison!!! DLSS 4 vs FSR, F...

Ik speel vooral Call of Duty, daar performt de XTX wel heel goed tov de 5090 ondanks de enorme verschillen in specs.

Acties:
  • +2 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 16-06 13:06
dierkx36 schreef op zaterdag 25 januari 2025 @ 19:40:
Mensen, wat is de mening over voedings voor de RTX5090, gezien Igor Labs, zag dat de 5090 wilt pieken naar 900 watt voor een aantal mili seconden ?

(Hb zelf een HX1000i en zit er toch over te denken een HX1200i er in te zetten voor de zekerheid)
1000watt lijkt mij wat krap maar zou in principe wel nog net moeten lukken.
Maar als je dan toch een nieuwe voeding koopt, beter safe spelen en een 1200watt nemen.

Acties:
  • +1 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 09-07 20:43
jody2k schreef op zaterdag 25 januari 2025 @ 20:13:
[...]

1000watt lijkt mij wat krap maar zou in principe wel nog net moeten lukken.
Maar als je dan toch een nieuwe voeding koopt, beter safe spelen en een 1200watt nemen.
Zit ik idd aan te denken.
Ga ook een 2de systeem maken voor op m'n werk, dan kan de 1000 mee naar daar met de 4090, en een 1200 met 5090 voor het systeem thuis.

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +3 Henk 'm!

  • jmk
  • Registratie: Mei 2004
  • Laatst online: 09-07 23:05

jmk

jody2k schreef op zaterdag 25 januari 2025 @ 17:44:
Voor wie interesse heeft in multi frame generation zou ik deze video eens bekijken 🙂MFG lijkt mij helemaal niet indrukwekkend in de staat dat het zich nu bevind.

YouTube: Is DLSS 4 Multi Frame Generation Worth It?
Een zeer informerende video.

Komt er op neer dat als je x2 framegen gebruikt je artifacts hebt.
Komt er op neer dat als je x3 framegen gebruikt je nog meer artifacts hebt.
Komt er op neer dat als je x4 framegen gebruikt je nog meer artifacts hebt dan x3.

Als je framegen gebruikt op basis van 60 fps heb je niet zo heel veel latancy en heb je alleen last van artifacts.
Als je framegen gebruikt op basis van 30 fps heb je enorm heel veel latancy en zie je artifacts.

Ik zie framegen alleen als iets handigs in game situaties dat je net iets betere smoothness wil in actiescenes. Ze zouden dit bijvoorbeeld dynamisch in moeten zetten. In alle andere situaties is het eigenlijk degradatie van de game ervaring. Je settings iets lager zetten (optimale instellingen) is dan een beter oplossing dan het gebruik van framegen.

framegen is vooral door de artifacts een zeer onvolwassen technologie en voor de puristen geen goede optie.

Yippie kayak, other buckets!


Acties:
  • 0 Henk 'm!

  • Richard P
  • Registratie: Oktober 2010
  • Laatst online: 09:51
jmk schreef op zaterdag 25 januari 2025 @ 22:18:
[...]

Een zeer informerende video.

Komt er op neer dat als je x2 framegen gebruikt je artifacts hebt.
Komt er op neer dat als je x3 framegen gebruikt je nog meer artifacts hebt.
Komt er op neer dat als je x4 framegen gebruikt je nog meer artifacts hebt dan x3.

Als je framegen gebruikt op basis van 60 fps heb je niet zo heel veel latancy en heb je alleen last van artifacts.
Als je framegen gebruikt op basis van 30 fps heb je enorm heel veel latancy en zie je artifacts.

Ik zie framegen alleen als iets handigs in game situaties dat je net iets betere smoothness wil in actiescenes. Ze zouden dit bijvoorbeeld dynamisch in moeten zetten. In alle andere situaties is het eigenlijk degradatie van de game ervaring. Je settings iets lager zetten (optimale instellingen) is dan een beter oplossing dan het gebruik van framegen.

framegen is vooral door de artifacts een zeer onvolwassen technologie en voor de puristen geen goede optie.
Zou het nog nuttig kunnen zijn als je bijvoorbeeld een 240Hz monitor hebt en op 120 fps native ergens blijft steken?

Acties:
  • 0 Henk 'm!

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Het eerste waar ik benieuwd naar ben is undervolting. Als je de 5090 op 300 of 400 watt hebt lopen; hoeveel prestatie verlies je dan? Als dit lukt heb je én een mooie videokaart én een stille(re) computer. Mijn rtx4080 is ook undervolted en ik verlies 6% prestatie met 100 watt minder hitte.

Zo'n 5090 is geweldig, maar ik wil nog wel eens zien hoe erg de hitteproblemen gaan worden en met name in de zomer. Wellicht lever ik iets op prestaties in, maar het is minimaal en mijn systeem is onder full load muisstil.

Ook maak ik me zorgen over hoe de 12vhpwr connector zich gaat houden. Undervolting zal dit probleem decimeren.

Acties:
  • +2 Henk 'm!

  • jmk
  • Registratie: Mei 2004
  • Laatst online: 09-07 23:05

jmk

Richard P schreef op zaterdag 25 januari 2025 @ 22:24:
[...]


Zou het nog nuttig kunnen zijn als je bijvoorbeeld een 240Hz monitor hebt en op 120 fps native ergens blijft steken?
Je latancy is in dat geval goed en laag denk ik maar je ziet dan wel enkele artifacts, die de game ervaring en een algemene overtuigende ervaring kunnen verslechteren.

Ik denk dat al je je framerate een cap geeft op 120fps je geen last hebt van het feit dat je geen 240fps haalt, omdat alles stabiel op 120fps blijft zitten. Een stabiele framerate in een spel, daar wennen je hersens snel aan.

Anders kan je ook de instellingen iets lager zetten waardoor je een betere framerate haalt.

Framegen aanzetten is mogelijk een slechtere optie dan 1 of 2. Kan natuurlijk verschillen van mens tot met maar een waas rondom bewegende objecten zou ik zelf heel vervelend vinden, zelfs op 100fps.

Yippie kayak, other buckets!


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

jmk schreef op zaterdag 25 januari 2025 @ 22:18:
[...]

Een zeer informerende video.

Komt er op neer dat als je x2 framegen gebruikt je artifacts hebt.
Komt er op neer dat als je x3 framegen gebruikt je nog meer artifacts hebt.
Komt er op neer dat als je x4 framegen gebruikt je nog meer artifacts hebt dan x3.

Als je framegen gebruikt op basis van 60 fps heb je niet zo heel veel latancy en heb je alleen last van artifacts.
Als je framegen gebruikt op basis van 30 fps heb je enorm heel veel latancy en zie je artifacts.

Ik zie framegen alleen als iets handigs in game situaties dat je net iets betere smoothness wil in actiescenes. Ze zouden dit bijvoorbeeld dynamisch in moeten zetten. In alle andere situaties is het eigenlijk degradatie van de game ervaring. Je settings iets lager zetten (optimale instellingen) is dan een beter oplossing dan het gebruik van framegen.

framegen is vooral door de artifacts een zeer onvolwassen technologie en voor de puristen geen goede optie.
Met de 4000 serie bleek al dat zo’n 60fps al wel nodig is om FG bovenop te gooien. Ik denk dat MFG dan ook vooral prettig is als je een monitor hebt met echt een heel hoge refreshrate; denk aan een game als FS2024 waar je al 100fps op haalt zonder FG en dat zo naar 200+ lanceert met MFG.

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 16-06 13:06
jmk schreef op zaterdag 25 januari 2025 @ 22:18:
[...]

Een zeer informerende video.

Komt er op neer dat als je x2 framegen gebruikt je artifacts hebt.
Komt er op neer dat als je x3 framegen gebruikt je nog meer artifacts hebt.
Komt er op neer dat als je x4 framegen gebruikt je nog meer artifacts hebt dan x3.

Als je framegen gebruikt op basis van 60 fps heb je niet zo heel veel latancy en heb je alleen last van artifacts.
Als je framegen gebruikt op basis van 30 fps heb je enorm heel veel latancy en zie je artifacts.

Ik zie framegen alleen als iets handigs in game situaties dat je net iets betere smoothness wil in actiescenes. Ze zouden dit bijvoorbeeld dynamisch in moeten zetten. In alle andere situaties is het eigenlijk degradatie van de game ervaring. Je settings iets lager zetten (optimale instellingen) is dan een beter oplossing dan het gebruik van framegen.

framegen is vooral door de artifacts een zeer onvolwassen technologie en voor de puristen geen goede optie.
Precies mijn reactie en bedenkingen
Wat betreft de glitches en artifacts zie ik mss wel nog goedkomen met updates. De latency op lagere base framrate das wel lastiger...valt mss nog te verbeteren met de nieuwe reflex 2.

Acties:
  • +1 Henk 'm!

  • DrMacabr3
  • Registratie: Oktober 2002
  • Laatst online: 26-06 08:25
jimh307 schreef op zaterdag 25 januari 2025 @ 23:05:
Het eerste waar ik benieuwd naar ben is undervolting. Als je de 5090 op 300 of 400 watt hebt lopen; hoeveel prestatie verlies je dan? Als dit lukt heb je én een mooie videokaart én een stille(re) computer. Mijn rtx4080 is ook undervolted en ik verlies 6% prestatie met 100 watt minder hitte.

Zo'n 5090 is geweldig, maar ik wil nog wel eens zien hoe erg de hitteproblemen gaan worden en met name in de zomer. Wellicht lever ik iets op prestaties in, maar het is minimaal en mijn systeem is onder full load muisstil.

Ook maak ik me zorgen over hoe de 12vhpwr connector zich gaat houden. Undervolting zal dit probleem decimeren.
YouTube: 20% Efficiency Boost by RTX 5090 Power Target Tweaking

Acties:
  • +1 Henk 'm!

  • stfnz
  • Registratie: Februari 2010
  • Laatst online: 09:44
YouTube: Nvidia RTX 5090 Full Review (Comparison Vs. RTX 4090, RX 7900 XTX).

Hier ook goed materiaal wbt undervolting.

Edit: Is het waar dat de resultaten in undervolts zeer kunnen verschillen per kaarten? (bedoel niet verschillende AIB maar individueel dus). "GPU Lottery" ?

[ Voor 30% gewijzigd door stfnz op 26-01-2025 01:35 ]


Acties:
  • +1 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • Cartman!
  • Registratie: April 2000
  • Niet online
Kunati schreef op zaterdag 25 januari 2025 @ 19:56:
Ik hoor toch vooral teleurstelling wat die 50XX kaarten betreft. Zelf was ik in de markt voor een 5080 maar daarvoor haak ik af.
Er zijn nog geen reviews van de 5080 dus waar precies baseer je op geen 5080 te willen?

Acties:
  • +1 Henk 'm!
Richard P schreef op zaterdag 25 januari 2025 @ 22:24:
[...]


Zou het nog nuttig kunnen zijn als je bijvoorbeeld een 240Hz monitor hebt en op 120 fps native ergens blijft steken?
Dat lijkt mij het primaire nut. Ik verwacht iig ook minder artifacts bij hogere base fps (simpelweg omdat er minder bewegingen zijn tussen frames die hij moet interpoleren). Punt is natuurlijk dat je dat al kan met 2x framegen. Ik heb een 144Hz scherm, en als je 60 FPS als minimum base rate voor de framegen zet, heb ik dus heel weinig aan meer dan 2x framegen.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
stfnz schreef op zondag 26 januari 2025 @ 00:00:
YouTube: Nvidia RTX 5090 Full Review (Comparison Vs. RTX 4090, RX 7900 XTX).

Hier ook goed materiaal wbt undervolting.

Edit: Is het waar dat de resultaten in undervolts zeer kunnen verschillen per kaarten? (bedoel niet verschillende AIB maar individueel dus). "GPU Lottery" ?
Ja, dat is waar.
Silicon lottery.
Er kan nog veel meer spelen zoals het contact tussen gpu en heatsink.
Sommige gpu's staan bol, dan kun je ook hoge(re) hotspot temperaturen zien.
Voor undervolt + overklokken belangrijk. Anders zie ook wel temperatuur en dus fan rpm verschillen tussen "dezelfde" videokaarten.

[ Voor 22% gewijzigd door HugoBoss1985 op 26-01-2025 09:51 ]


Acties:
  • 0 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22
jody2k schreef op zaterdag 25 januari 2025 @ 20:13:
[...]

1000watt lijkt mij wat krap maar zou in principe wel nog net moeten lukken.
Maar als je dan toch een nieuwe voeding koopt, beter safe spelen en een 1200watt nemen.
1000W dus ook prima. ;)
Igor's Lab schrijft dat een moderne ATX 3.1-voeding van 1000W of meer voldoende headroom biedt voor de RTX 5090.

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • Kunati
  • Registratie: November 2020
  • Laatst online: 30-05 16:34
Cartman! schreef op zondag 26 januari 2025 @ 08:27:
[...]

Er zijn nog geen reviews van de 5080 dus waar precies baseer je op geen 5080 te willen?
Officiele benchmarks zijn er nog niet, dat is waar. Maar wel leaks: https://www.tomshardware....igher-than-rtx-4080-super

En ze zeggen allemaal hetzelfde, de 5080 is zwakker dan de 4090 en amper sneller dan de 4080.

Acties:
  • +1 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Sissors schreef op zaterdag 25 januari 2025 @ 17:56:
[...]

Bij de duurste fietsen betaal je natuurlijk heel veel extra voor incrementele verbeteringen (klinkt bekend?). Maar als jij een elektrische Dura Ace DI2 groep op je racefiets wil hebben, ga je die ook niet krijgen op een fiets van €2000. En je hebt echt geen RTX5090 nodig om leuk je hobby van gaming te kunnen doen. Net als dat je geen peperdure racefiets nodig hebt voor je hobby van fietsen.
Ik vind dat de vergelijking niet opgaat. Je Dura Ace Di2 groepssetje presteert precies even goed als een 105 Di2 voor dubbel de prijs. Je betaalt zodat je groepsset een kilootje minder weegt.

Met een GPU is het een ander verhaal, daar betaal je echt voor de prestaties. Mijn vorige PC stamde uit de periode 2009. Ik weet nog dat je toen een high-end gpu kocht voor 350 euro. Voor het beste van het beste betaalde je 700 euro voor een SLI/CFX opstelling. Dat zou nu zo’n 500 of 1000 euro zijn met inflatiecorrectie. Dat je nu voor het neusje van de zalm maarliefst 2500 euro neer moet leggen en een “high-end” 5080 1200+ kost is wel een dingetje. Een beetje redelijke PC kost al gauw 1500-2000 euro. In 2009 kon ik dat als tiener met een hobby absoluut niet neerleggen.

Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 09-07 10:21

OruBLMsFrl

Silence Promo Crew

Op 70% power target een verbruik van 400W en dan is de 5090 toch nog 15-25% sneller dan een 4090. NVidia zoekt dus heel erg het overclocken zelf al op met de 5090 standaard instellingen. Daar was ik even naar op zoek, dank!
En ben benieuwd of we in de toekomst dan ook nog lager mogen naar 50 of 60% power target, met deze nu makkelijk beschikbare tools kon dat in ieder geval nog niet.

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • stfnz
  • Registratie: Februari 2010
  • Laatst online: 09:44
HugoBoss1985 schreef op zondag 26 januari 2025 @ 09:47:
[...]


Ja, dat is waar.
Silicon lottery.
Er kan nog veel meer spelen zoals het contact tussen gpu en heatsink.
Sommige gpu's staan bol, dan kun je ook hoge(re) hotspot temperaturen zien.
Voor undervolt + overklokken belangrijk. Anders zie ook wel temperatuur en dus fan rpm verschillen tussen "dezelfde" videokaarten.
Dat is jammer, want de prestaties in de video spraken me aan op een uv. Maar dan is het dus maar de vraag of dat bij mij ook zo gaat lukken? Heeft een AIB hier dan nog aandeel in daar die soms voor OC getuned zijn, maar heeft dit andersom effect tijdens een uv?

Acties:
  • +1 Henk 'm!
Kunati schreef op zaterdag 25 januari 2025 @ 19:56:


Ik speel vooral Call of Duty, daar performt de XTX wel heel goed tov de 5090 ondanks de enorme verschillen in specs.
CoD is inderdaad een zeer goede titel voor AMD kaarten, misschien wel hun beste titel, hou er echter wel rekening mee dat in die review de 1080P en 1440P resultaten CPU limited zijn met de 5090 en blijkbaar niet met de 7900XTX en dus niet het ware verschil tussen de kaarten toont.

[ Voor 4% gewijzigd door Dennism op 26-01-2025 11:39 ]


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
stfnz schreef op zondag 26 januari 2025 @ 11:23:
[...]

Dat is jammer, want de prestaties in de video spraken me aan op een uv. Maar dan is het dus maar de vraag of dat bij mij ook zo gaat lukken? Heeft een AIB hier dan nog aandeel in daar die soms voor OC getuned zijn, maar heeft dit andersom effect tijdens een uv?
Je weet nooit vantevoren hoe een uv kan uitpakken.
Sommige gpu's (op videokaarten) draaien onderin zeer efficiënt met UV (zegmaar lagere kloks, maar nog snel genoeg; 5-10 fps verlies en tegen zeer laag voltage en dus verbruik), andere overklokken/boosten weer extreem goed met flink minder dan stock voltage.
Sommige gpu's doen beide zeer goed.
AIB kaarten hebben vaak/meestal ook een betere stroomtoevoer en/of beter pcb (VRM + extra connector).
Men zegt over "OC" kaarten vaak "dat kan ik zelf ook wel behalen, die OC"... maar je hebt kans dat die OC variant kaarten gpu's hebben die beter gebinned zijn.

(Ik noem videokaarten nog steeds videokaarten of grafische kaarten en een gpu een gpu dus wat duidelijkheid, het zijn echt twee verschillende zaken die mensen in het taalgebruik samenvoegen)

Vince Lucido (KingPin) heeft leuke video's waar ze zelfs GPU's oversolderen van het ene pcb op het andere omdat die GPU beter overklokt.

[ Voor 20% gewijzigd door HugoBoss1985 op 26-01-2025 11:57 ]


Acties:
  • 0 Henk 'm!

  • Kunati
  • Registratie: November 2020
  • Laatst online: 30-05 16:34
Dennism schreef op zondag 26 januari 2025 @ 11:36:
[...]


CoD is inderdaad een zeer goede titel voor AMD kaarten, misschien wel hun beste titel, hou er echter wel rekening mee dat in die review de 1080P en 1440P resultaten CPU limited zijn met de 5090 en blijkbaar niet met de 7900XTX en dus niet het ware verschil tussen de kaarten toont.
Hoe dan ook, de benchmarks die ik intussen gedraaid heb met de XTX zien er heel goed uit:
Afbeeldingslocatie: https://tweakers.net/i/R88u9Ht161O1uT4NZM_XlbD8Jj0=/800x/filters:strip_exif()/f/image/pgqncpQ9ZcPcYr0GKRF57p55.png?f=fotoalbum_large

Ik speel op 3440x1440 165Hz en wou 1% lows van 165 fps of meer in COD. Doelstelling bereikt, voor een fractie van de prijs! d:)b
Modbreak:Mooie resultaten, maar je zit hier in een RTX50xx-topic - niet [AMD Radeon RX7000 series] Ervaringen & Discussie

[ Voor 7% gewijzigd door dion_b op 27-01-2025 00:48 ]


Acties:
  • +1 Henk 'm!

  • DrMacabr3
  • Registratie: Oktober 2002
  • Laatst online: 26-06 08:25
Kunati schreef op zondag 26 januari 2025 @ 13:07:
[...]


Hoe dan ook, de benchmarks die ik intussen gedraaid heb met de XTX zien er heel goed uit:
[Afbeelding]

Ik speel op 3440x1440 165Hz en wou 1% lows van 165 fps of meer in COD. Doelstelling bereikt, voor een fractie van de prijs! d:)b
Voor de concurrentie en ieders portemonnee etc hoop ik echt dat AMD, en Intel ook dan, de markt wat kunnen opschudden volgende generaties, of mss zefls deze, met de 9070XT, en wie weet een 9080 bvb..
Nvidia doet gewoon zijn zin en wegens gebrek aan concurrentie.. mja.. je ziet het resultaat.

Acties:
  • +2 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22

Modbreak:Dit is een ervaringen en discussietopic. Een linkdrop als deze zonder enige toelichting deelt geen eigen ervaring en voegt ook niets toe aan de discussie. Graag daadwerkelijk iets erover zeggen als je denkt dat een filmpje bij zou moeten dragen.

[ Voor 56% gewijzigd door dion_b op 27-01-2025 00:46 ]

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • +4 Henk 'm!

  • AltTabKeys
  • Registratie: December 2015
  • Laatst online: 09-07 15:33

AltTabKeys

press Ctrl + Z please

Kunati schreef op zondag 26 januari 2025 @ 10:46:
[...]


Officiele benchmarks zijn er nog niet, dat is waar. Maar wel leaks: https://www.tomshardware....igher-than-rtx-4080-super

En ze zeggen allemaal hetzelfde, de 5080 is zwakker dan de 4090 en amper sneller dan de 4080.
Mijn ex zegt ook altijd tegen haar vriendinnen dat ik een kleine penis heb.

Maar niemand weet wat het in de praktijk is.

Ditzelfde is ook van toepassing op GPU’s.

What a terrible day to have eyes!


Acties:
  • +3 Henk 'm!

  • Kunati
  • Registratie: November 2020
  • Laatst online: 30-05 16:34
AltTabKeys schreef op zondag 26 januari 2025 @ 18:29:
[...]


Mijn ex zegt ook altijd tegen haar vriendinnen dat ik een kleine penis heb.

Maar niemand weet wat het in de praktijk is.

Ditzelfde is ook van toepassing op GPU’s.
Een fenomeen ook gekend als Schrödinger's penis.

Acties:
  • +1 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 11:02

DeNachtwacht

youtube.com/@hisrep

AltTabKeys schreef op zondag 26 januari 2025 @ 18:29:
[...]


Mijn ex zegt ook altijd tegen haar vriendinnen dat ik een kleine penis heb.

Maar niemand weet wat het in de praktijk is.

Ditzelfde is ook van toepassing op GPU’s.
Mja, er staan inmiddels in die Blender Benchmark wel elf 5080 GPU metingen. Bovendien ook tien 5090's, waarvan er vorige week al 5 online stonden en die behoorlijk overeenkomen met de reviews die daarna van deze kaart online kwamen. Sterker, de kans is groot dat dit de tests van de influencers / reviewsites zijn die toen de kaarten aan het testen waren en nu dus de 5080's.
https://opendata.blender.....3.0&group_by=device_name

Vooralsnog lijkt het er toch op dat dit vrij accurate metingen gaan zijn.

[ Voor 11% gewijzigd door DeNachtwacht op 26-01-2025 20:21 ]

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • AltTabKeys
  • Registratie: December 2015
  • Laatst online: 09-07 15:33

AltTabKeys

press Ctrl + Z please

Kunati schreef op zondag 26 januari 2025 @ 20:14:
[...]


Een fenomeen ook gekend als Schrödinger's penis.
*Vind ik leuk 👍*

What a terrible day to have eyes!


Acties:
  • 0 Henk 'm!

  • bownbreaker
  • Registratie: September 2014
  • Laatst online: 09:47
Kunati schreef op zaterdag 25 januari 2025 @ 19:56:
Ik hoor toch vooral teleurstelling wat die 50XX kaarten betreft. Zelf was ik in de markt voor een 5080 maar daarvoor haak ik af.
De 5090 nog even overwogen maar de prijs (alsook het stroomverbruik) is er echt over.

4090 tweedehands leek me nog iets maar die prijzen zitten ook weer in de lift. Ik heb een placeholder 7900 XTX gekocht, die ik nog kan terugsturen. Maar ik denk het niet te doen, en deze video geeft me eerder gelijk:
YouTube: RTX 5090 vs RX 7900 XTX- The Ultimate Comparison!!! DLSS 4 vs FSR, F...

Ik speel vooral Call of Duty, daar performt de XTX wel heel goed tov de 5090 ondanks de enorme verschillen in specs.
Heb ook gekeken naar een 2e hands 4090, maar dat wordt een duur grapje. M’n plan was in eerste instantie om een 5080 te halen, maar die gaat hoogstwaarschijnlijk tegenvallen. De consensus online is rondom de 5090 niet heel erg denderend en spec wise is de sprong tussen 4080 Super en 5080 nog kleiner.

Weet nu even niet helemaal meer wat ik moet kopen als vervanging voor m’n 3080. Misschien maar een 5070 of 5070 Ti en die dan voor 1 generatie aanhouden tot de xx80 hopelijk wel weer interessant is. Andere optie is wachten op een eventuele 5080 Ti, maar of die gaat komen is maar de vraag.

Acties:
  • +1 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 08-07 17:57
Ik heb me toch maar een 4080Super gekocht, nu ze nog verkrijgbaar zijn. Ik verwacht echt wel prijzen van 1.500 euro en meer voor de AIB's 5080's, en dan zal een 4080 voor pakweg 1.150 nog ferm goeie deal blijken. Afin, kan fout zijn want zou ook graag een RTX5080 hebben maar denk het gewoon niet te doen zal zijn, noch qua leverbaarheid, noch qua prijs.

Acties:
  • +1 Henk 'm!

  • JWFpeters
  • Registratie: Mei 2020
  • Laatst online: 03-07 22:04
bownbreaker schreef op zondag 26 januari 2025 @ 21:33:
[...]


Heb ook gekeken naar een 2e hands 4090, maar dat wordt een duur grapje. M’n plan was in eerste instantie om een 5080 te halen, maar die gaat hoogstwaarschijnlijk tegenvallen. De consensus online is rondom de 5090 niet heel erg denderend en spec wise is de sprong tussen 4080 Super en 5080 nog kleiner.

Weet nu even niet helemaal meer wat ik moet kopen als vervanging voor m’n 3080. Misschien maar een 5070 of 5070 Ti en die dan voor 1 generatie aanhouden tot de xx80 hopelijk wel weer interessant is. Andere optie is wachten op een eventuele 5080 Ti, maar of die gaat komen is maar de vraag.
Het is heel simpel, als je niet om de extra AI mogelijkheden geeft kan je gerust een 4080 Super kopen als je dat een paar 100 scheelt.

AIB van de 5080 gaan niet minder dan 1400 kosten ( misschien de goedkoopste modellen wat minder) als je een 4080 Super voor 1100 of minder gebruikt kan kopen gewoon lekker doen. 15% is geen 3 a 400 waard. Tenzeinje dus echt die AI meuk persee wil.

En mocht je wel een 5080 willen maar geen haast hebben wacht paar maanden, want uiteindelijk zal de prijs wel wat gaan zakken als ze niet verkopen als een dolle. Wat ze niet gaan doen omdat de 4080 eigenaren nu niet massaal gaan upgraden waar dat normaal nog wel vaak het geval was.

En mocht je de centen hebben en gewoon het nieuwste willen moet je hem gewoon kopen. Heb ook een 4080 Super Noctua gekocht wat niet persee de beste koop is zeg maar, maar ik wou hem dus betaal ik extra.....

[ Voor 16% gewijzigd door JWFpeters op 26-01-2025 21:55 ]


Acties:
  • +1 Henk 'm!

  • AltTabKeys
  • Registratie: December 2015
  • Laatst online: 09-07 15:33

AltTabKeys

press Ctrl + Z please

DeNachtwacht schreef op zondag 26 januari 2025 @ 20:19:
[...]

Mja, er staan inmiddels in die Blender Benchmark wel elf 5080 GPU metingen. Bovendien ook tien 5090's, waarvan er vorige week al 5 online stonden en die behoorlijk overeenkomen met de reviews die daarna van deze kaart online kwamen. Sterker, de kans is groot dat dit de tests van de influencers / reviewsites zijn die toen de kaarten aan het testen waren en nu dus de 5080's.

Vooralsnog lijkt het er toch op dat dit vrij accurate metingen gaan zijn. <——
Not going to lie: Ik heb ChatGPT even laten meerekenen en mijn reactie beter laten formuleren, maar het zijn solide argumenten:

Het klopt dat officiële benchmarks nog niet beschikbaar zijn, laten we de cijfers die we wel hebben uit Blender Open Data eens bekijken.

De RTX 5090 scoort gemiddeld 14904,41 op basis van máár 10 benchmarks, terwijl de RTX 4090 een score van 10994,47 heeft op basis van maar liefst 429 benchmarks.

Dit zou de RTX 5090 zo’n 35,5% sneller maken dan de 4090, en 80% sneller dan de 4080.

Dit klinkt indrukwekkend, maar er is wel een belangrijk punt om in gedachten te houden: de 10 benchmarks voor de RTX 5090 zijn een kleine steekproef. Verschillende configuraties van computers waarop het is getest kunnen de resultaten beïnvloeden, waardoor de betrouwbaarheid van deze cijfers beperkt is.

10 benchmarks is niet genoeg om echt een definitief beeld te krijgen van de prestaties van de kaart in verschillende situaties. De kans is groot dat de metingen afkomstig zijn van tests door influencers of reviewers die onder verschillende omstandigheden hebben getest, wat kan zorgen voor variaties in de resultaten.

Dus, hoewel de cijfers indicaties geven van de kracht van de RTX 5090, is het belangrijk om te wachten op meer uitgebreide en consistente benchmarks voordat we definitieve conclusies trekken. Deze 10 benchmarks zijn een eerste indicatie, maar ze kunnen niet als volledig representatief voor de prestaties van de kaart worden beschouwd.

Vergelijkingen in percentages


De RTX 4080 scoort +56,7% sneller dan de RTX 3080 Ti.

De RTX 4080 SUPER scoort +58,2% sneller dan de RTX 3080 Ti.

De RTX 5090 scoort +35,5% sneller dan de RTX 4090.

De RTX 5090 scoort +77,9% sneller dan de RTX 4080 (SUPER)

De RTX 5090 scoort +79,9% sneller dan de RTX 4080.

In conclusie kun je toch wel zeggen dat de kaarten wel het tegenovergestelde zijn van “niet veel sneller”

What a terrible day to have eyes!


Acties:
  • +1 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 08-07 17:57
*knip* offtopic

[ Voor 91% gewijzigd door br00ky op 28-01-2025 16:07 ]


Acties:
  • 0 Henk 'm!

  • bownbreaker
  • Registratie: September 2014
  • Laatst online: 09:47
JWFpeters schreef op zondag 26 januari 2025 @ 21:52:
[...]


Het is heel simpel, als je niet om de extra AI mogelijkheden geeft kan je gerust een 4080 Super kopen als je dat een paar 100 scheelt.

AIB van de 5080 gaan niet minder dan 1400 kosten ( misschien de goedkoopste modellen wat minder) als je een 4080 Super voor 1100 of minder gebruikt kan kopen gewoon lekker doen. 15% is geen 3 a 400 waard. Tenzeinje dus echt die AI meuk persee wil.

En mocht je wel een 5080 willen maar geen haast hebben wacht paar maanden, want uiteindelijk zal de prijs wel wat gaan zakken als ze niet verkopen als een dolle. Wat ze niet gaan doen omdat de 4080 eigenaren nu niet massaal gaan upgraden waar dat normaal nog wel vaak het geval was.

En mocht je de centen hebben en gewoon het nieuwste willen moet je hem gewoon kopen. Heb ook een 4080 Super Noctua gekocht wat niet persee de beste koop is zeg maar, maar ik wou hem dus betaal ik extra.....
Eigenlijk heb ik ook helemaal geen haast. Die 3080 draait vrijwel alles nog meer dan prima op 1440p. Heb gewoon erg veel zin om weer eens wat nieuws te bouwen :) Wel benieuwd naar de daadwerkelijke prijzen straks bij release in NL.

Wil aan het eind van het jaar upgraden naar een van die 5k2k OLED monitoren die LG heeft onthuld tijdens CES. Tegen die tijd moet er dus wel weer een hele dikke bak staan.

Acties:
  • +1 Henk 'm!

  • FireBladeX
  • Registratie: Juni 2006
  • Laatst online: 05:50
bownbreaker schreef op zondag 26 januari 2025 @ 22:14:
[...]

Eigenlijk heb ik ook helemaal geen haast. Die 3080 draait vrijwel alles nog meer dan prima op 1440p. Heb gewoon erg veel zin om weer eens wat nieuws te bouwen :) Wel benieuwd naar de daadwerkelijke prijzen straks bij release in NL.

Wil aan het eind van het jaar upgraden naar een van die 5k2k OLED monitoren die LG heeft onthuld tijdens CES. Tegen die tijd moet er dus wel weer een hele dikke bak staan.
Kijk dan ook ff of je dan niet beter uit met dp 2.1.
Zoals bijv. de 57 inch van Samsung, is dp 2.1 wel noodzaak om alle features te gebruiken van het scherm. Afhankelijk van hoeveel hz die 5k2k schermen draaien, kan dat daar ook zomaar t geval zijn. Dan ben je toch echt beter uit met een 50x0 serie.

Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 09-07 10:21

OruBLMsFrl

Silence Promo Crew

Kunati schreef op zondag 26 januari 2025 @ 13:07:
[...]


Hoe dan ook, de benchmarks die ik intussen gedraaid heb met de XTX zien er heel goed uit:
[Afbeelding]

Ik speel op 3440x1440 165Hz en wou 1% lows van 165 fps of meer in COD. Doelstelling bereikt, voor een fractie van de prijs! d:)b
Ik vind het persoonlijk meer dan snel genoeg hoor, maar in je screenshot bovenaan staat 1% low = 161 FPS, niet 165 FPS. Enkel de GPU specifieke test en de CPU specifieke test scoren hoger dan die 165 FPS als ik zo zie, maar is dan die bovenste regel die groter gedrukt staat niet de werkelijke benchmark score als combinatie van CPU+GPU?

Ergens logisch dat als beiden tegelijk volop werk moeten doen, dat je in de combinatie van een echte game net iets lagere FPS zult zien dan in testjes waar ze steeds de ene of de andere ontlasten, om zo goed mogelijk inzichtelijk te maken waar eventuele bottleneck zit.

Aangzien jouw CPU nipt de lagere van de twee subscores geeft met 169 FPS vs GPU 172FPS en je zogezegd op zoek bent naar 4 FPS extra in het totaal, is het precies de vraag of bijvoorbeeld een 9800X3D CPU het precies op die 165 FPS zou brengen 1% low, of dat er meer nodig is. Persoonlijk zou ik er nogmaals heel blij mee zijn deze scores, maar dat laat ik verder aan jou wat het je waard is.

[ Voor 14% gewijzigd door OruBLMsFrl op 26-01-2025 23:18 ]

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • +1 Henk 'm!

  • ffaccountje
  • Registratie: Maart 2011
  • Laatst online: 01-05 06:54
Wat gaan we verwachten van multi frame gen?

Ik heb zelf een 3060ti dus geen frame gen, toevallig gisteren Cyberpunk nog eens geïnstalleerd en zijn allerlei goodies toegevoegd zag ik.

Daar zag ik dus MFG van AMD, dus denk zal het een proberen, dik 100 fps met een 3060ti 3440x1440p niet slecht. Maar mijn god ziet het er slecht uit, veel artifacts en erg onscherp allemaal. En daarnaast voelt het als 30 FPS.

Dus denk weg met die zooi, tot mijn verbazing de zware settings uitgezet de rest max, geen RTX natuurlijk. Nog steeds 80-100FPS en wat ziet er mooi en smooth uit. Cyberpunk heeft flink wat geoptimaliseerd de laatste jaren.

Maar goed, MFG van Nividia gaat toch ook gewoon niet net zo goed zijn als native? Als je al 100 fps hebt om daar dan 300 van te maken gaat geen verschil geven en als je van 30 fps 90 fps maakt voelt het nog steeds als 30 fps.

We gaan het zien maar toen DLSS uit kwam dacht ik ook gaaf, ik heb graag veel FPS maar de compromis is veel groot ten opzichte van native.

Acties:
  • +1 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 08-07 17:57
Lekiame schreef op zondag 26 januari 2025 @ 22:09:
[...]


Hoezo is dit een goede deal? 8)7
Je kunt volgende week donderdag een 5080FE of een 5080 AIB halen rond de 1200-1250 euro.
Daar ben ik absoluut nog niet zo zeker van, geruchten zijn dat de 5080's rond de 1.500 euro gaan kosten. Zou uiteraard liever een 5080 hebben, maar niet voor zotte meerprijs. De FE kost inderdaad 1.199 euro bij nvidia, maar je moet eens proberen zo eentje te bestellen vanuit België. Als je er eentje voor mij kan bestellen, dan wil ik er zelfs voor betalen (de 4080 Super kan altijd terug naar coolblue, is zelfs nog niet geleverd)

Acties:
  • +1 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 08-07 20:47
lapino schreef op maandag 27 januari 2025 @ 09:02:
[...]


Daar ben ik absoluut nog niet zo zeker van, geruchten zijn dat de 5080's rond de 1.500 euro gaan kosten. Zou uiteraard liever een 5080 hebben, maar niet voor zotte meerprijs. De FE kost inderdaad 1.199 euro bij nvidia, maar je moet eens proberen zo eentje te bestellen vanuit België. Als je er eentje voor mij kan bestellen, dan wil ik er zelfs voor betalen (de 4080 Super kan altijd terug naar coolblue, is zelfs nog niet geleverd)
Mooie geruchten, maar je weet dat elk merk een model op MSRP moet verkopen toch? Dus 5080 WINDFORCE, 5080 VENTUS bijvoorbeeld zullen sowieso voor MSRP weg gaan.

Acties:
  • 0 Henk 'm!

  • Jumpman
  • Registratie: Januari 2002
  • Laatst online: 10:45
Hoewel SLI nogal voor wat issues kon zorgen is het toch wel een gemis, zeker nu nVidia de VRAM grootte laag houdt. Een dual RTX 5060/5070 is toch wel interessant als je de prijzen van de RTX 5080/5090 ziet voor bepaalde toepassingen.

[ Voor 6% gewijzigd door Jumpman op 27-01-2025 09:19 ]

Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.


Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Nu online
Lekiame schreef op maandag 27 januari 2025 @ 09:11:
[...]


Mooie geruchten, maar je weet dat elk merk een model op MSRP moet verkopen toch? Dus 5080 WINDFORCE, 5080 VENTUS bijvoorbeeld zullen sowieso voor MSRP weg gaan.
https://videocardz.com/ne...s-msrp-feels-like-charity

De marges van de AIBs zijn zo verrekt klein dat er totaal geen animo is om modellen aan MSRP te maken en verkopen, ook al eist Nvidia dat. Voor de AIBs "voelen MSRP modellen aan als liefdadigheid"....

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
nzall schreef op maandag 27 januari 2025 @ 09:46:
[...]


https://videocardz.com/ne...s-msrp-feels-like-charity

De marges van de AIBs zijn zo verrekt klein dat er totaal geen animo is om modellen aan MSRP te maken en verkopen, ook al eist Nvidia dat. Voor de AIBs "voelen MSRP modellen aan als liefdadigheid"....
Dat speelt toch ook al enige tijd?
Was dat niet de reden dat EVGA met Nvidia gestopt is?
Jumpman schreef op maandag 27 januari 2025 @ 09:18:
Hoewel SLI nogal voor wat issues kon zorgen is het toch wel een gemis, zeker nu nVidia de VRAM grootte laag houdt. Een dual RTX 5060/5070 is toch wel interessant als je de prijzen van de RTX 5080/5090 ziet voor bepaalde toepassingen.
Maar met SLi bleef de bruikbare ram hoeveelheid ram voor games hetzelfde als wat op een enkele videokaart zat, toch?
Dan gaat het vram argument niet op (voor SLi).

[ Voor 31% gewijzigd door HugoBoss1985 op 27-01-2025 10:28 ]


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 09-07 20:35
dierkx36 schreef op zaterdag 25 januari 2025 @ 19:40:
Mensen, wat is de mening over voedings voor de RTX5090, gezien Igor Labs, zag dat de 5090 wilt pieken naar 900 watt voor een aantal mili seconden ?

(Hb zelf een HX1000i en zit er toch over te denken een HX1200i er in te zetten voor de zekerheid)
Onder of gelijk aan 1ms ;).
De berichtgeving op videocardz is sensatie nieuws. Het is jammer dat alle nieuwskanalen dat maar klakkeloos overnemen zonder context erbij te plaatsen.
Zoals @Dennism al eerder aangaf is het niet buitengewoon en komen <1ms pieken met +50% over TBP vaker voor. Grote GPU's die power gelimiteerd zijn hebben deze eigenschap. Denk bijv. aan de 6900XT, 7900XTX, 3090FE etc. De 4090(FE) daarentegen is met name spanningsgelimiteerd. Vandaar dat de stroompieken daarbij mild uitpakken.

In de regel kunnen de meeste voedingen hiermee wel overweg, maar het kan zijn dat de stroombeveiliging (te) gevoelig is en ingrijpt of dat het systeem crashed. De piekstroom in het bereik van 1-10ms is veel belangrijker om naar te kijken. Of 1000W genoeg is hangt ook van de rest van de setup af.
Maar waarom probeer je het niet gewoon, desnoods eerst spelen op een lager vermogen van 450W?
Met een powerlimiet + UV is ook veel te bereiken.

Wanneer ik een 5090 weet te bemachtigen dan zal ik dat eerst doen i.c.m. mijn huidige Seasonic TX-850 voeding. Pas als het problemen geeft en een UV niet helpt overweeg ik een nieuwe voeding.

@HugoBoss1985
Ja, inderdaad. Volgens mij was er voor hem ook de lol ervan af omdat Nvidia veel dingen oplegt en het steeds moeilijker werd om de beperkingen van Nvidia te omzeilen. Wie weet zien we hem bij het rode of blauwe team terug :).

Ik zag trouwens in de reviews dat de powerlimiet van de 5090 tot maar 70% beperkt kan worden. Met de 4090 was je zo goed als helemaal vrij om een eigen PL te kiezen naar onderen toe.
Echt van die kunstmatige beperkingen die nergens op slaan. Het was een van de dingen die Nvidia beter deed dan AMD sinds RDNA2. Kennelijk mag je van Jensen niet minder dan 420W verbruiken met de GPU.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:58
HugoBoss1985 schreef op maandag 27 januari 2025 @ 09:48:
[...]


Dat speelt toch ook al enige tijd?
Was dat niet de reden dan EVGA met Nvidia gestopt is?


[...]


Maar met SLi bleef de bruikbare ram hoeveelheid ram voor games hetzelfde als wat op een enkele videokaart zat, toch?
Dan gaat het vram argument niet op (voor SLi).
Klopt, alles moest dubbel ingeladen worden dus sli gaf geen dubbele vram. Begreep men destijds ook al niet maar optellen gaat niet op.


Vind het maar zielige verhalen en kan me niet voorstellen dat er niks verdiend wordt op msrp.
Ze zijn de laatste jaren verwend geraakt aan de dikke marges zoals 4090's van 3000 euro voor de luxe modellen.

Ben er wel klaar mee, heb me erbij neergelegd dat een 5090 voor max. 2500 niet haalbaar OF verkrijgbaar zal zijn. En een 5080 voor 1400-1500 of hoger gaat op zeker een teleurstelling zijn.

Heb een xtx die een plaatsje opschuift. Om toch nog wat raster uplift te krijgen heb ik gisteren een 9 maanden oude tuf 4090 opgehaald voor 1500 euro.

Prima deal in deze omstandigheden en ik ben voorlopig wel weer zoet.

En na wat korte testjes: JA! Dlss is stukken beter dan Fsr! Maar NEE! Het is niet zo mooi als native en net als fsr vind ik het storend. Ik ga er dus vanuit dat framegen ook niks voor mij is, hopelijk is Dlss4 acceptabel voor mij.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
@CMT @meljor

Het gaat (ging: EVGA) dus niet alleen om geld maar ook ander gedoe; eisen en beperkingen van Nvidia?
Over de huidige situatie, m.b.t. het bericht van Videocardz, staat dat het nu met de GDDR7 prijzen te maken heeft.

Is er van die 5090 70% power limit voor de de AIB's ook sprake?
Dat zal toch anders wel een (bios) mod op gevonden worden? })
Die 5090 wordt van een undervolt behoorlijk efficiënter.

Ik zag inderdaad een leak/statement dat KingPin wellicht een andere kleur kamp aan het overwegen was.

[ Voor 83% gewijzigd door HugoBoss1985 op 27-01-2025 10:48 ]


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

nzall schreef op maandag 27 januari 2025 @ 09:46:
[...]


https://videocardz.com/ne...s-msrp-feels-like-charity

De marges van de AIBs zijn zo verrekt klein dat er totaal geen animo is om modellen aan MSRP te maken en verkopen, ook al eist Nvidia dat. Voor de AIBs "voelen MSRP modellen aan als liefdadigheid"....
Is dat geen leuke manier om de achterlijke meerprijs voor een RGB strip en rare marketing koeling te rechtvaardigen?

Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 09-07 10:21

OruBLMsFrl

Silence Promo Crew

@HugoBoss1985
Ik ga vermoeden dat minder dan 70% power limit op een 5090 een wat onprettige terugval in performance heeft. Als je kijkt naar de trend van de8auer dan is op een 5090 de 90% power limit een par procent performance minder, 80% power limit kost ca. 5% performance, en 70% power limit kost al 12% performance. Stel 60% power limit kost je dan 20% performance, 50% power limit kost 35% performance. Kan me voorstellen dat NVidia zulke cijfers minimaal in deze fase van hun product niet op straat wil hebben liggen.

Risico voor NVidia: allerlei clickbait rond een 300-350W power/marktsegment waar NVidia juist de vermoedelijk sterkere performance/watt van de 5080 en 5070Ti wil laten zien voor alles behalve toepassingen die meer dan 16GB VRAM nodig hebben. Ook krijg je dan vermoedelijk snel een vergelijk gemaakt dat een 4090 op 280W met diens 70% power limit relatief veel meer performance overhoudt (tot ca. 95% van de basis 4090 performance). Als die trends zo kloppen, zou de 4090 280W mogelijk vrijwel gelijk zijn aan een 5090 300W qua performance, dat is geen goede PR vergeleken met 400W waarop de 5090 tot 25% sneller is dan de 4090.
Hoe technisch terecht ook, zal NVidia dan hun nieuwe 50xx producten rond 280W eerst de deur uit willen hebben voor ze zoiets toestaan denk ik dan om hun PR te beschermen.

Toepassingen die graag 32GB VRAM lusten en waar je dan ook nog enorm power moet besparen tot onder de 400W op een 5090, wordt ook wel niche onderhand hoe goed voor het milieu ook. Hopelijk kan die slider later wel nog wat verder naar beneden, als het stof is neergedaald en ook de 5070TI reviews gepubliceerd zijn en al die kaarten uit voorraad te koop.
Vanaf dat moment zal dat power limit vs performance verhaal niet meer zoveel uitmaken gok ik voor NVidia. Blijft speculeren natuurlijk of iemand die 50 en 60% power limits ook door laat voeren als opties daar intern bij NVidia. Ze zullen er in praktijk geen videokaart minder door verkopen gok ik, als het bij die 70% blijft...

[ Voor 21% gewijzigd door OruBLMsFrl op 27-01-2025 13:23 ]

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
OruBLMsFrl schreef op maandag 27 januari 2025 @ 13:14:
@HugoBoss1985
Ik ga vermoeden dat minder dan 70% power limit op een 5090 een wat onprettige terugval in performance heeft. Als je kijkt naar de trend van de8auer dan is op een 5090 de 90% power limit een par procent performance minder, 80% power limit kost ca. 5% performance, en 70% power limit kost al 12% performance. Stel 60% power limit kost je dan 20% performance, 50% power limit kost 35% performance. Kan me voorstellen dat NVidia zulke cijfers minimaal in deze fase van hun product niet op straat wil hebben liggen.

Risico voor NVidia: allerlei clickbait rond een 300-350W power/marktsegment waar NVidia juist de vermoedelijk sterkere performance/watt van de 5080 en 5070Ti wil laten zien voor alles behalve toepassingen die meer dan 16GB VRAM nodig hebben.
Toepassingen die graag 32GB VRAM lusten en waar je dan ook nog enorm power moet besparen tot onder de 400W op een 5090, wordt ook wel niche onderhand hoe goed voor het milieu ook. Hopelijk kan die slider later wel nog wat verder naar beneden, als het stof is neergedaald en ook de 5070TI reviews geplubliceerd zijn en al die kaarten uit voorraad te koop.
Vanaf dat moment zal dat power limit vs performance verhaal niet meer zoveel uitmaken gok ik voor NVidia. Blijft speculeren natuurlijk of iemand die 50 en 60% power limits ook door laat voeren als opties daar intern bij NVidia. Ze zullen er in praktijk geen videokaart minder door verkopen gok ik, als het bij die 70% blijft...
Ik kan me dat (in deze fase) wel voorstellen.
Wellicht is hetzelfde/beter te behalen met een undervolt i.p.v. met de power limit bezig te gaan.

Acties:
  • 0 Henk 'm!

  • Kunati
  • Registratie: November 2020
  • Laatst online: 30-05 16:34
OruBLMsFrl schreef op zondag 26 januari 2025 @ 23:15:
[...]

Ik vind het persoonlijk meer dan snel genoeg hoor, maar in je screenshot bovenaan staat 1% low = 161 FPS, niet 165 FPS. Enkel de GPU specifieke test en de CPU specifieke test scoren hoger dan die 165 FPS als ik zo zie, maar is dan die bovenste regel die groter gedrukt staat niet de werkelijke benchmark score als combinatie van CPU+GPU?

Ergens logisch dat als beiden tegelijk volop werk moeten doen, dat je in de combinatie van een echte game net iets lagere FPS zult zien dan in testjes waar ze steeds de ene of de andere ontlasten, om zo goed mogelijk inzichtelijk te maken waar eventuele bottleneck zit.

Aangzien jouw CPU nipt de lagere van de twee subscores geeft met 169 FPS vs GPU 172FPS en je zogezegd op zoek bent naar 4 FPS extra in het totaal, is het precies de vraag of bijvoorbeeld een 9800X3D CPU het precies op die 165 FPS zou brengen 1% low, of dat er meer nodig is. Persoonlijk zou ik er nogmaals heel blij mee zijn deze scores, maar dat laat ik verder aan jou wat het je waard is.
Goed opgemerkt, ik keek naar CPU en GPU 1% lows. 161 fps is juist onder men doelstelling dan maar ik neem er wel genoegen mee

Acties:
  • +1 Henk 'm!

  • Degrader
  • Registratie: Mei 2003
  • Nu online
YouTube: RTX 5090 - Has A New Driver Improved Performance & The 1% Lows?

Nvidia heeft al een driverupdate voor de 50-series (uiteraard nog niet te download), de 5090 gaat er gemiddeld zo'n 5-8% op vooruit in de 1% low's t.o.v. de initiële persdriver. Ook de gemiddelde framerate valt vaak hoger uit met de nieuwe driver.

De vraag blijft nog wel, gaan de 40-series (en eventueel ouder) er ook op vooruit met deze driver of zijn de optimalisaties specifiek voor de laatste generatie kaarten?

[ Voor 18% gewijzigd door Degrader op 27-01-2025 22:08 ]


Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Nu online
Het valt me op dat dit de derde keer is in een half jaar tijd dat een grote hardwaremaker een post-review patch uitbrengt die performance verbetert. Snap niet goed of dit een continue faling is of eerder een poging om langer in de nieuwscyclus te blijven...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 09-07 10:21

OruBLMsFrl

Silence Promo Crew

Ik denk dat ze niet zo lang final silicon hebben als je misschien zou hopen voor dat drivers optimaliseren. Uiteindelijk zijn het heel veel hacks die graphics drivers. Niets is daarin wat het lijkt onder de motorkap hoor je vaker. Dat ze dan zichzelf wat geweld aandoen om sneller kaarten bij reviewers te hebben en dan maar een iets vroegere driver versie die wel stabiel is maar niet al geheel geoptimaliseerd tot de laatste paar procent lijkt me meer dan prima.
AMD zou eerst op 23 januari releasen ging natuurlijk rond, dan ga je als NVidia niet nog even een maandje rustig driver tweaken. Nu valt het bij AMD natuurlijk allemaal anders uit met die prijsgeruchten en alles, wat er ook van waar is, verkoop openzetten doen ze vooralsnog niet. Maar ja, nu had NVidia dat hele proces natuurlijk al in gang gezet. Plus ze optimaliseren dan niet alles 5-8% ook, als in niet gemiddelde framerate en ook niet de 95% percentiel, maar enkel 1% lows. Dus een heel specifieke winst. En hopelijk, wie weet, profiteren ook oudere generaties wel iets hiervan mee, dat zou helemaal top zijn natuurlijk.

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22
Degrader schreef op maandag 27 januari 2025 @ 22:06:
YouTube: RTX 5090 - Has A New Driver Improved Performance & The 1% Lows?

Nvidia heeft al een driverupdate voor de 50-series (uiteraard nog niet te download), de 5090 gaat er gemiddeld zo'n 5-8% op vooruit in de 1% low's t.o.v. de initiële persdriver. Ook de gemiddelde framerate valt vaak hoger uit met de nieuwe driver.

De vraag blijft nog wel, gaan de 40-series (en eventueel ouder) er ook op vooruit met deze driver of zijn de optimalisaties specifiek voor de laatste generatie kaarten?
De CUDA drivers die onlangs zijn verschenen zorgen nu al voor een performance boost.
Versie 571.96

Ook op de huidige 40-serie.

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 11:02

DeNachtwacht

youtube.com/@hisrep

Rivanov schreef op dinsdag 28 januari 2025 @ 06:54:
[...]

De CUDA drivers die onlangs zijn verschenen zorgen nu al voor een performance boost.
Versie 571.96

Ook op de huidige 40-serie.
Dat is toch meer voor developers? Ik zie sinds begin december geen driver meer, en ach ik wacht dan wel even. Zal ongetwijfeld snel na de release van de 50xx kaarten ook een nieuwe driver zijn.

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22
DeNachtwacht schreef op dinsdag 28 januari 2025 @ 07:20:
[...]

Dat is toch meer voor developers? Ik zie sinds begin december geen driver meer, en ach ik wacht dan wel even. Zal ongetwijfeld snel na de release van de 50xx kaarten ook een nieuwe driver zijn.
Klopt. Maar diegene die de driver getest hebben geven aan dat het de performance loss weer heeft goed gemaakt, die je met de huidige release drivers hebt i.c.m. DLSS 4.

Dus erg benieuwd naar de drivers van donderdag.

[ Voor 4% gewijzigd door Rivanov op 28-01-2025 08:07 ]

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • SB!
  • Registratie: September 2019
  • Laatst online: 16-06 10:51

SB!

Vraagje aan de kenners: is het de moeite om voor een 5070 FE te gaan? Of zijn de 5070 kaarten van een fabrikant beter?
Die zijn wel duurder toch?

Acties:
  • 0 Henk 'm!

  • Navi
  • Registratie: Maart 2007
  • Niet online
Leuke test waarin PCI-E 3.0, 4.0 en 5.0 wordt vergeleken voor de 5090:
YouTube: PCIE Gen 5.... Marketing Gimmick or Necessary?

TLDW: Het maak praktisch niets uit en zelfs een 5090 op PCI-E 3.0 x16 doet het prima en is slechts +- 1% langzamer. PCI-E 4.0 is vaak zelfs sneller dan 5.0..

[ Voor 7% gewijzigd door Navi op 28-01-2025 09:14 ]


Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Nu online
Navi schreef op dinsdag 28 januari 2025 @ 09:13:
Leuke test waarin PCI-E 3.0, 4.0 en 5.0 wordt vergeleken voor de 5090:
YouTube: PCIE Gen 5.... Marketing Gimmick or Necessary?

TLDW: Het maak praktisch niets uit en zelfs een 5090 op PCI-E 3.0 x16 doet het prima en is slechts +- 1% langzamer. PCI-E 4.0 is vaak zelfs sneller dan 5.0..
TPU heeft ook tests daaromtrent uitgevoerd. Hun bevinding was dat het gemiddeld 2-4% kost, maar dat er ook games zijn waarbij het meer dan 10% is afhankelijk van de resolutie.

Daarnaast betekent een PCI-E 3.0 slot vaak ook dat je CPU een groter probleem zal zijn, want moderne CPU's en moederborden hebben allemaal 4.0 of 5.0. Dus als je PCIE 3.0 hebt betekent dat oftewel een riser cable, oftewel een oudere AMD of Intel CPU. En dan had je volgens mij beter een 5080 gekocht en de rest van het geld in een 9800X3D platform upgrade gestoken...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
SB! schreef op dinsdag 28 januari 2025 @ 09:01:
Vraagje aan de kenners: is het de moeite om voor een 5070 FE te gaan? Of zijn de 5070 kaarten van een fabrikant beter?
Die zijn wel duurder toch?
We hebben geen glazen bol.
Wacht de reviews af van de FE en AIBS, ga lezen en vergelijken.
En concludeer dan wat jij beter vindt.
Duurder zal vast wel.

De 5090 FE is in ieder geval qua formaat heel/relatief klein.
En goedkoper dan AIBS.
Daar houden de voordelen wel mee op vind ik.

@Navi @nzall
Ik vind dat soort tests met pci-e 3.0 en videokaarten van dit kaliber zo irrelevant.
Want ik kan me niet voorstellen dat (veel) mensen dat (een cpu van die leeftijd) gaan combineren met videokaarten meer dan 1000, laat staan 2000 euro.
Ik vind het geen realistisch scenario.

[ Voor 8% gewijzigd door HugoBoss1985 op 28-01-2025 10:02 ]


Acties:
  • 0 Henk 'm!

  • DoubleDot
  • Registratie: Maart 2007
  • Laatst online: 09:24
-sorry verkeerde topic-

[ Voor 190% gewijzigd door DoubleDot op 28-01-2025 10:09 ]


Acties:
  • 0 Henk 'm!
HugoBoss1985 schreef op dinsdag 28 januari 2025 @ 10:00:
[...]


We hebben geen glazen bol.
Wacht de reviews af van de FE en AIBS, ga lezen en vergelijken.
En concludeer dan wat jij beter vindt.
Duurder zal vast wel.

De 5090 FE is in ieder geval qua formaat heel/relatief klein.
En goedkoper dan AIBS.
Daar houden de voordelen wel mee op vind ik.

@Navi @nzall
Ik vind dat soort tests met pci-e 3.0 en videokaarten van dit kaliber zo irrelevant.
Want ik kan me niet voorstellen dat (veel) mensen dat (een cpu van die leeftijd) gaan combineren met videokaarten meer dan 1000, laat staan 2000 euro.
Ik vind het geen realistisch scenario.
PCI-e 3.0 == PCI-e 4.0 in 8-lanes. Oftewel wat dat betreft kan het nuttig zijn om te weten in bepaalde situaties. Maar belangrijker denk ik: Het laat zien hoeveel marge er nog op zit qua PCI-e bandbreedte.
SB! schreef op dinsdag 28 januari 2025 @ 09:01:
Vraagje aan de kenners: is het de moeite om voor een 5070 FE te gaan? Of zijn de 5070 kaarten van een fabrikant beter?
Die zijn wel duurder toch?
De AIB 5070s zijn zo goed als identiek qua prestaties. Maar je kan er wel vanuit gaan dat ze significant stiller zijn. En uiterlijk kan je ook nog wat van vinden.

Acties:
  • 0 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 08-07 17:57
*knip* offtopic

[ Voor 92% gewijzigd door br00ky op 28-01-2025 15:57 ]


Acties:
  • 0 Henk 'm!

  • stfnz
  • Registratie: Februari 2010
  • Laatst online: 09:44
Met het oog op het onderhoud van een GPU, zijn er nog bedrijven die dat tegen betaling goed doen? Ik lees over liquid metal en het lijkt me niet erg fijn om dat zelf te moeten gaan doen. De FE ziet er verder overigens geweldig uit, maar als ik hem voor langere tijd wil hebben weet ik eigenlijk niet zo goed wat ik daar mee aan moet.

Acties:
  • +1 Henk 'm!

  • Tjona100
  • Registratie: December 2006
  • Laatst online: 10:41
Navi schreef op dinsdag 28 januari 2025 @ 09:13:
Leuke test waarin PCI-E 3.0, 4.0 en 5.0 wordt vergeleken voor de 5090:
YouTube: PCIE Gen 5.... Marketing Gimmick or Necessary?

TLDW: Het maak praktisch niets uit en zelfs een 5090 op PCI-E 3.0 x16 doet het prima en is slechts +- 1% langzamer. PCI-E 4.0 is vaak zelfs sneller dan 5.0..
YouTube: NVIDIA RTX 5090 PCIe 5.0 vs. 4.0 vs. 3.0 x16 Scaling Benchmarks

Hier nog een scaling test van GN, inderdaad vaak toch wel echt marginale verschillen tussen de gens

[ Voor 4% gewijzigd door Tjona100 op 28-01-2025 11:17 ]

Kendrick Lamar - Ignorance is Bliss


Acties:
  • +4 Henk 'm!

  • CriticalHit_NL
  • Registratie: Maart 2012
  • Laatst online: 09-07 20:57
stfnz schreef op dinsdag 28 januari 2025 @ 11:13:
Met het oog op het onderhoud van een GPU, zijn er nog bedrijven die dat tegen betaling goed doen? Ik lees over liquid metal en het lijkt me niet erg fijn om dat zelf te moeten gaan doen. De FE ziet er verder overigens geweldig uit, maar als ik hem voor langere tijd wil hebben weet ik eigenlijk niet zo goed wat ik daar mee aan moet.
Misschien Computer Reparatie Centrum in Roosendaal, zie ze met enige regelmaat Tiktoks posten van reparaties aan GPUs zoals opnieuw goed werkende VRAM modules solderen waarna de kaart weer functioneert terwijl die anders als ten dode opgeschreven is maar ook het fixen van GPUs met een veel te hoge hotspot door weer nieuwe thermal compounds erop te doen.

Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8


Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Nu online
https://videocardz.com/ne...-reviews-drop-february-19 De op papier best geprijsde kaart van de RTX 50 series voor de verwachte performance, de RTX 5070 Ti, zal op 20 februari releasen. Op 19 februari mogen de reviews gedeeld worden.

[ Voor 8% gewijzigd door nzall op 28-01-2025 14:45 ]

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22

Interessante benchmarks met een diversiteit aan CPU’s. :)

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 09-07 20:43
CMT schreef op maandag 27 januari 2025 @ 10:25:
[...]

Onder of gelijk aan 1ms ;).
De berichtgeving op videocardz is sensatie nieuws. Het is jammer dat alle nieuwskanalen dat maar klakkeloos overnemen zonder context erbij te plaatsen.
Zoals @Dennism al eerder aangaf is het niet buitengewoon en komen <1ms pieken met +50% over TBP vaker voor. Grote GPU's die power gelimiteerd zijn hebben deze eigenschap. Denk bijv. aan de 6900XT, 7900XTX, 3090FE etc. De 4090(FE) daarentegen is met name spanningsgelimiteerd. Vandaar dat de stroompieken daarbij mild uitpakken.

In de regel kunnen de meeste voedingen hiermee wel overweg, maar het kan zijn dat de stroombeveiliging (te) gevoelig is en ingrijpt of dat het systeem crashed. De piekstroom in het bereik van 1-10ms is veel belangrijker om naar te kijken. Of 1000W genoeg is hangt ook van de rest van de setup af.
Maar waarom probeer je het niet gewoon, desnoods eerst spelen op een lager vermogen van 450W?
Met een powerlimiet + UV is ook veel te bereiken.

Wanneer ik een 5090 weet te bemachtigen dan zal ik dat eerst doen i.c.m. mijn huidige Seasonic TX-850 voeding. Pas als het problemen geeft en een UV niet helpt overweeg ik een nieuwe voeding.

@HugoBoss1985
Ja, inderdaad. Volgens mij was er voor hem ook de lol ervan af omdat Nvidia veel dingen oplegt en het steeds moeilijker werd om de beperkingen van Nvidia te omzeilen. Wie weet zien we hem bij het rode of blauwe team terug :).

Ik zag trouwens in de reviews dat de powerlimiet van de 5090 tot maar 70% beperkt kan worden. Met de 4090 was je zo goed als helemaal vrij om een eigen PL te kiezen naar onderen toe.
Echt van die kunstmatige beperkingen die nergens op slaan. Het was een van de dingen die Nvidia beter deed dan AMD sinds RDNA2. Kennelijk mag je van Jensen niet minder dan 420W verbruiken met de GPU.
Heb heb ik er best veel aan en inhangen : 4 PCI-E SSD's, 2 SATA SSD's, 9800X3D, 9 control panels, joystick, throttle, yoke, collective + waterpomp en 12 fan's (meeste van de control panels hangen wel aan een powered Hub)
Volgens de HX1000i die nu in m'n systeem trek ik met deze setup en de RTX 4090 maximaal 750 watt.

Nu wil ik toch nog een systeem maken voor op m'n werk, waar de RTX 4090 mee naar toe gaat, dus ik heb toch nog een voeding nodig.
Heb dus de HX1200i (gisteren binnen gekomen) en de HX1000i gaat dus mee naar het werk systeem.

Gaat 1200 watt teveel zijn : ik ga het zien: better save then sorry (die HX1200i was toch in de aanbieding dus die 20 euro of zo boven op een HX1000i maakt me dan niks uit.

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Laatst online: 09:49
Rivanov schreef op dinsdag 28 januari 2025 @ 18:41:
[YouTube: You Can't Even Use the RTX 5090..]
Interessante benchmarks met een diversiteit aan CPU’s. :)
Verrassend is het niet,als een 9800x3d al een lichte bottleneck geeft,zelfs op 4k,dan word het met de lagere cpu's alleen maar groter.

en je kan echt veel beter een gpu bottleneck hebben als cpu bottleneck,naa rmijn mening

Missschien dat de nieuwe 9950x3d bv de 5090 volledig kan benutten

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
https://videocardz.com/ne...-xtreme-waterforce-series

Gigabyte Waterforce kaarten ook met Liquid Metal TIM.
Zou dit een bepaalde eis van Nvidia zijn?
Waarom geen PCM? Omdat Liquid Metal niet degradeerd?

Acties:
  • 0 Henk 'm!

  • Jumpman
  • Registratie: Januari 2002
  • Laatst online: 10:45
Het zou mooi zijn als de partners zelf de VRAM grootte zouden mogen bepalen.

Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.


Acties:
  • 0 Henk 'm!

  • Navi
  • Registratie: Maart 2007
  • Niet online
Jumpman schreef op dinsdag 28 januari 2025 @ 18:53:
Het zou mooi zijn als de partners zelf de VRAM grootte zouden mogen bepalen.
Denk dat nvidia dat niet wil, anders komen er kaarten met bv veel ram die concurreren met hun server kaarten. Hoe de verdeling van sku’s eruit ziet houd nvidia graag zelf in de hand.

Acties:
  • +2 Henk 'm!

  • CriticalHit_NL
  • Registratie: Maart 2012
  • Laatst online: 09-07 20:57
HugoBoss1985 schreef op dinsdag 28 januari 2025 @ 18:52:
https://videocardz.com/ne...-xtreme-waterforce-series

Gigabyte Waterforce kaarten ook met Liquid Metal TIM.
Zou dit een bepaalde eis van Nvidia zijn?
Waarom geen PCM? Omdat Liquid Metal niet degradeerd?
Dat hebben ze niet allemaal dus dat zal geen eis zijn naar mijn idee, bijvoorbeeld Asus heeft ervoor gekozen phase-change thermal pads op de GPU-die te gebruiken die dergelijke spreading van TIM moet aanvechten en dus ook hotspot problemen in te dammen maar ook het opnieuw aanbrengen van TIM onnodig zou moeten maken omdat er geen thermal pump-out effect zou moeten zijn.

De eerdere generaties hebben mensen succesvol van dergelijke pads gebruik gemaakt, het type is blijkbaar PTM7950.
Zoals hier te lezen valt zijn de resultaten positief:
https://www.reddit.com/r/...90_with_ptm7950_7_months/

De fabrikanten hebben natuurlijk genoeg sh*t over zich heen gehad de afgelopen tijd rondom dit topic en zijn nu wellicht, ook uit angst voor de bevindingen van GamersNexus (thanks Steve), beter op hun passen aan het letten:
https://www.igorslab.de/e...o-inferior-thermal-paste/

Dat de FE liquid metal gebruikt is leuk, maar ik vraag me toch af of dat rubber niet door alle warmte degradeert binnen een jaar of 5 dan wel dat de liquid metal van plek verschuift op de die in verticale positie waardoor er hotspots ontstaan... De marketing is leuk de uitwerking moet nog blijken.

Dat Nvidia bij de 50-series de hotspot heeft uitgeschakeld is an sich al een red-flag want eerdere generaties waren sowieso sommige AIBs niet goed bezig met de kwaliteit TIM waardoor de hotspots na enkele maanden al konden oplopen van mid 70s naar 100+.

Het is ook de vraag of het uitschakelen enkel een softwarematige blokkade is maar intern nog wel functioneert, ik las wel eens van mensen waarbij een te hoge hotspot resulteerde in fans die plotseling 100% gingen draaien vanuit het niets terwijl de core nog op 60°C liep, kan ook voor een vroegtijdig overlijden zorgen volgens mij.

Gelukkig hebben ze dan wel weer VRAM temperatuur intact gelaten, dan is het alsnog op te vissen of ze wel degelijke kwaliteit thermal pads hebben gebruikt voor de andere componenten anders weet je al snel hoe laat het is.

De 5090 FE blijkt aardig warme VRAM temperaturen te hebben, hopelijk wordt dat niet een prijzige herhaling van de 2080Ti waar veel kaarten kopje onder gingen aan kapot VRAM.

Ik zag net toevallig ook dit op Google voorbij komen:
https://www.tomshardware....c-mx-6-vs-stock-lm-tested

offtopic:
Ik denk met weemoed terug naar de tijden van de 1080Ti, momenteel nog een EVGA FTW3 in het systeem zitten, bijna 8 jaar oud, temperaturen nog als nieuw, geen hint van degradatie na tienduizenden draaiuren op 117% powertarget (320w) en dus 1949Mhz boostclock in games, inmiddels een kleine extra overclock gegeven naar 2025Mhz (+50) en VRAM naar 6003Mhz (+500) hij piekt af en toe naar 333W maar hij blijft maar stabiel doordraaien alsof het niets is. 3DMark benchmarks kan hij onder de 50-55°C afronden met een OC naar 2062Mhz en de hotspot komt niet eens boven de 76°C bij langere sessies waarbij de core op 60°C blijft steken. De gehele kaart inclusief backplate blijft vrijwel onder de 60-70°C voor VRAM/VRMs.

Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8


Acties:
  • +1 Henk 'm!

  • jmk
  • Registratie: Mei 2004
  • Laatst online: 09-07 23:05

jmk

Rivanov schreef op dinsdag 28 januari 2025 @ 18:41:
[YouTube: You Can't Even Use the RTX 5090..]
Interessante benchmarks met een diversiteit aan CPU’s. :)
Leuk dat iemand de kaart ook met oudere CPU's test. Ik heb hem alleen afgezet door de manier waarop hij praat/huilt/lacht. Ik kan er echt niet tegen, ook kan ik hem totaal niet volgen.

En Stalker is een dramatisch slecht gemaakte game technisch(kunnen ze in Oekraïne ook niet aan doen) dus die moet je helemaal niet gebruiken in een benchmark.

Yippie kayak, other buckets!


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 11:02

DeNachtwacht

youtube.com/@hisrep

AltTabKeys schreef op zondag 26 januari 2025 @ 21:57:
Dus, hoewel de cijfers indicaties geven van de kracht van de RTX 5090, is het belangrijk om te wachten op meer uitgebreide en consistente benchmarks voordat we definitieve conclusies trekken. Deze 10 benchmarks zijn een eerste indicatie, maar ze kunnen niet als volledig representatief voor de prestaties van de kaart worden beschouwd.
In die post gaf ik al netjes aan dat het "vooralsnog" is. Inmiddels staan er al twintig 5080's in de benchmarks online en blijft het beeld hetzelfde. De 4080S zit zo rond de 8300 punten. de 5080 rond de 9000, en de 4090 rond de 11000.

Die eerste 10 metingen lijken dus nog steeds een goede richting te geven welke kant het op gaat, en ik acht de kans inmiddels echt nihil dat de 5080 toch veel lager (4080S niveau) of veel hoger (4090) gaat scoren.

En nogmaals; het is inderdaad nog voorbarig, pas over een maandje met alle reviews en eventuele driverupdates online weten we het echt zeker (vooral omdat deze benchmark de AI performance niet meeneemt en de 5080 daar wellicht mee kan verrassen en richting 4090 zou kunnen gaan).

[ Voor 4% gewijzigd door DeNachtwacht op 28-01-2025 21:35 ]

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!
Jumpman schreef op dinsdag 28 januari 2025 @ 18:53:
Het zou mooi zijn als de partners zelf de VRAM grootte zouden mogen bepalen.
Hoe wil je dat gaan doen, er even vanuit gaande dat je meer vram wil dan normaal op een Sku zit. Je bent immers gebonden aan de memory bus die bepaald hoeveel geheugen een chip maximaal kan aansturen. Je ziet niet vaak dat kaarten komen met minder geheugen dat dan de bus breed is, met uitzondering van clamshell configuraties.

Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Igor's Lab: NVIDIA GeForce RTX 5090 in the big DLSS 4.0 test – Is Multi Frame Generation a real performance booster or just a distortion of reality?

Summary

NVIDIA and DLSS have come a long way. Surely you remember DLSS 1.0 and the visual improvement? With the 4th generation, NVIDIA is now introducing the Transformer Model, creating a very good image quality that basically puts the native image in the shade. DLSS 3.0 (CNN) already implemented DLSS performance in a usable way, but now, with DLSS 4.0, the performance mode is almost a must for UHD gamers in all three games tested. You have to hand it to NVIDIA at this point and they are making it increasingly difficult for the competition to keep up.

On the subject of ray tracing and path tracing in conjunction with ray reconstruction, I am surprised on the one hand at how good this can look. On the other hand, I still have to question in many places whether it’s not being completely unrealistically overdone. Shiny, reflective stone floors in ancient fortifications – really?

However, I was most surprised by the CPU bottleneck in Hogwarts Legacy, which makes me seriously worry whether the topic of AI and upscaling has sent the right signal in the games industry? If the games continue to be so poorly optimized, then I’m no longer surprised by NVIDIA’s statement: 16x frame generation.

Conclusion

In Alan Wake 2, DLSS has been implemented really well with the Transformer Model. The issue of frame generation, especially multi-frame generation, is far too jerky for me, and NVIDIA or the game developers need to do it again. The 1% low is a disaster. Every OLED monitor dies the flicker death in case of doubt.

Because we were just talking about MFG, there are a few things to consider here. For FG 2x, you should have at least 60 FPS (native) on the screen, otherwise the game can quickly degenerate into a show of ghosting and artifacts. If you absolutely want MFG 4x, you should only consider this setting if you can achieve 80 or even better 100 FPS (native) on the monitor. Unless you want to experience your game with maximum motion blur at the witching hour. Furthermore, you should only use it on an OLED if the 1% low values are at the level you currently get in Cyberpunk 2077.

Now to the question: Is Multi Frame Generation a performance booster? My answer is a very clear no! Frame generation is a feature that allows you to create a fluid image perception. If you adhere to the minimum requirements in terms of native FPS, the implementation of DLSS in the game has been implemented properly and the game is well optimized. You should also not forget the latencies, yes, in relation to the baseline I tested today, the latencies with DLSS performance and MFG 4x were ok.

What I would like to say to you readers: A GeForce RTX 5070 12GB will not even come close to the performance of a GeForce RTX 4090. Especially not if the memory in UHD is already full. It’s this kind of marketing that bothers me the most here, because it counteracts the real progress that has been made and almost leads to absurdity. A few words about the GeForce RTX 5090: Very nice design, interesting cooler, far too high power consumption in idle until the driver update and the tiresome topic of PCIe 5.0 or 4.0 really gets on my nerves. Resetting 3 times a day just to get into Windows? No, that’s really no fun. NVIDIA urgently needs to check what the problem is. My mainboard (and not just mine) gives error code 62 or hangs in the loop! Igor had similar problems with his card and on several systems and then tried various workarounds, including downclocking the bus clock.
Modbreak:Graag de volgende keer alleen een link en een korte Nederlandse samenvatting. Hele lappen tekst kopiëren voegt niks toe want dit kunnen mensen ook ergens anders lezen.

[ Voor 2% gewijzigd door br00ky op 29-01-2025 07:59 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Van der Berg
  • Registratie: April 2014
  • Nu online
Via TechnologyInsider van Frank Everaardt heb ik gelezen dat er een mogelijke 5090 Ti aan zit te komen met 800W! Deze gaat waarschijnlijk de 5090 Ti heten met alles ingeschakeld. Ik heb gelezen dat waarschijnlijk de 5090 Ti, 2 keer 12VHPWR connectors gaat krijgen en dat is te zien op de foto.

Ik schrik erg dat er zoveel meer benodigd gaat zijn na de 5090. Ik heb net pas een nieuwe voeding gekocht voor de toekomst, de FSP Hydro Ti Pro 1000W ATX 3.0 met PCI-E 5.0 en 1 keer 600W 12VHPWR connector. Schijnbaar had ik dus beter een Seasonic Titanium 1600W met 2 van die 12VHPWR connector kunnen kopen. Maar die voedingen waren ook veel duurder de Seasonic €610 veel duurder dan mijn huidige nieuwe voeding van €279.

Ik stel de 5090 uit, ik heb al een 4090 OC. Ik ben benieuwd of mijn nieuwe voeding hergebruikt kan worden als ik straks ga upgraden met een 6090 of 7090

[ Voor 13% gewijzigd door Van der Berg op 29-01-2025 01:31 ]

X570 Aorus Pro - Ryzen 7 5800X- Noctua NH-U14S - FSP Hydro Ti PRO 1000W - 32GB DDR4 3600MHz C16 - GeForce RTX 4090 - 990 Pro 4TB - MSI MAG 321UP QD-OLED 4K/165Hz - 65" OLED LG B4 - Watch Ultra LTE - S24 Ultra 1TB - Tab S10+ 512/12GB - Buds 3 Pro - 22TB


Acties:
  • 0 Henk 'm!

  • Aeronite
  • Registratie: September 2020
  • Laatst online: 24-06 17:10
Heb echt het gevoel dat dit een 3000 serie nachtmerrie gaat worden. Als ik geen FE versie kan scoren dan wordt het echt een suprim denk ik. Alle andere kaarten zien er echt niet uit. Coolermaster 5090 is ook echt super dik met je eigen fans er op maar die is alleen verkrijgbaar voor premade pc's.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 11:02

DeNachtwacht

youtube.com/@hisrep

@Aeronite waar baseer je dat precies op? Zo lovend zijn de reviews niet en een zeer belangrijk component is dat miners er niet meer op aan het jagen zijn zoals bij de 30xx serie wel heel erg speelde.

Natuurlijk doet nvidia het marketingtechnisch slim met hun eigen webshop en hebben ze ongetwijfeld maar een klein voorraadje zodat ze zelf snel kunnen zeggen dat het is uitverkocht en dus de FOMO aanwakkeren.

Ik ben zelf vooral benieuwd naar prijzen/vraag over pakweg een maand als alle marketingstof een beetje is neergedaald.

[ Voor 54% gewijzigd door DeNachtwacht op 29-01-2025 07:12 ]

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 09:43
DeNachtwacht schreef op woensdag 29 januari 2025 @ 07:09:
@Aeronite waar baseer je dat precies op? Zo lovend zijn de reviews niet en een zeer belangrijk component is dat miners er niet meer op aan het jagen zijn zoals bij de 30xx serie wel heel erg speelde.

Natuurlijk doet nvidia het marketingtechnisch slim met hun eigen webshop en hebben ze ongetwijfeld maar een klein voorraadje zodat ze zelf snel kunnen zeggen dat het is uitverkocht en dus de FOMO aanwakkeren.

Ik ben zelf vooral benieuwd naar prijzen/vraag over pakweg een maand als alle marketingstof een beetje is neergedaald.
Miners zijn vervangen door AI bedrijven. En die hebben kortere lijntjes met Nvidia.

Acties:
  • 0 Henk 'm!
Die draaien geen consumenten kaarten. Ze zijn wel concurrentie voor wafers, dus het is de vraag inderdaad hoe groot het aanbod van 50XX kaarten wordt. Maar ik kan me iig niet voorstellen dat het ook maar in de buurt komt van de 30XX release. Waarbij achteraf de 3070 TUF voor €700 kopen een geweldige deal was als je keek hoe lang het duurde voor er een (fatsoenlijke) kaart voor minder te krijgen was, en scalpers alles opkochten.

Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Nu online
Waah schreef op woensdag 29 januari 2025 @ 07:47:
[...]

Miners zijn vervangen door AI bedrijven. En die hebben kortere lijntjes met Nvidia.
Ik betwijfel dat AI bedrijven nood hebben aan GPUs met minder dan 24 GB VRAM. En kopen die doorgaans geen H100 kaarten of andere kaarten met extra VRAM?

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 09:43
Sissors schreef op woensdag 29 januari 2025 @ 08:17:
Die draaien geen consumenten kaarten. Ze zijn wel concurrentie voor wafers, dus het is de vraag inderdaad hoe groot het aanbod van 50XX kaarten wordt. Maar ik kan me iig niet voorstellen dat het ook maar in de buurt komt van de 30XX release. Waarbij achteraf de 3070 TUF voor €700 kopen een geweldige deal was als je keek hoe lang het duurde voor er een (fatsoenlijke) kaart voor minder te krijgen was, en scalpers alles opkochten.
Exact mijn punt. Tijdens de tekorten bij Crypto bleek ook dat Nvidia gewoon direct hele pallets naar miners stuurde. Als ze meer kunnen verdienen, zullen ze dat doen. Wat ik ze niet eens heel erg kwalijk neem want, beursgenoteerd bedrijf.

Dus ja ik denk dat veel wafers voor de nvidia devkits en businessmarkt zullen worden gereserveerd. Ook omdat Nvidia zich niet druk hoeft te maken om concurrentie. AMD richt zich niet op mensen die 2000/3000 voor een kaart willen betalen en Intel kan zich daar nog niet op richten.

Ik zie dus wel tekorten ja. En ook wel dat de FE maar in zeer gelimiteerde oplage geproduceerd zal worden

Acties:
  • +1 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 10:22
dierkx36 schreef op dinsdag 28 januari 2025 @ 18:48:
[...]


Heb heb ik er best veel aan en inhangen : 4 PCI-E SSD's, 2 SATA SSD's, 9800X3D, 9 control panels, joystick, throttle, yoke, collective + waterpomp en 12 fan's (meeste van de control panels hangen wel aan een powered Hub)
Volgens de HX1000i die nu in m'n systeem trek ik met deze setup en de RTX 4090 maximaal 750 watt.

Nu wil ik toch nog een systeem maken voor op m'n werk, waar de RTX 4090 mee naar toe gaat, dus ik heb toch nog een voeding nodig.
Heb dus de HX1200i (gisteren binnen gekomen) en de HX1000i gaat dus mee naar het werk systeem.

Gaat 1200 watt teveel zijn : ik ga het zien: better save then sorry (die HX1200i was toch in de aanbieding dus die 20 euro of zo boven op een HX1000i maakt me dan niks uit.
Ik heb een Smart Plug in het stopcontact zitten waarop m'n simrig is aangesloten.
Dit is een quad monitor simrig met diverse randapparatuur. Totaal verbruik komt op maximaal 540W.

- Vier monitoren
- Simucube 2 Pro
- VRS Direct Force Pro pedalen
- Powered USB Hub
- Stream Deck XL
- Stream Deck Mk2
- STECS Mini Plus
- VKB Gladiator NXT EVO

Afbeeldingslocatie: https://tweakers.net/i/sfJIsKHe9VgysbnxbqRrNjEyXWA=/232x232/filters:strip_icc():strip_exif()/f/image/jct9CKnIkkvTBvOLRSaZiFEK.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/zPe7eAHdugvxEBKf1lNxfu7DtkM=/232x232/filters:strip_icc():strip_exif()/f/image/c8VZILISFMJwHPjnwMiZ1ce1.jpg?f=fotoalbum_tile

[ Voor 25% gewijzigd door Rivanov op 29-01-2025 09:07 ]

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • +2 Henk 'm!

  • Degrader
  • Registratie: Mei 2003
  • Nu online
Teleurstellend, de 5080 is gemiddeld slechts 8% sneller dan een 4080 Super in 1440p: https://videocardz.com/pi...according-to-first-review

Benchmarks zijn trouwens van de betrouwbare igorslab.

[ Voor 12% gewijzigd door Degrader op 29-01-2025 09:55 ]


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:58
Degrader schreef op woensdag 29 januari 2025 @ 09:53:
Teleurstellend, de 5080 is gemiddeld slechts 8% sneller dan een 4080 Super in 1440p: https://videocardz.com/pi...according-to-first-review

Benchmarks zijn trouwens van de betrouwbare igorslab.
Wow.... Das idd nog slechter dan verwacht. Misschien wordt het tijd voor een 4 jaarse cycle? Zit er in ieder geval nog een node verbetering bij. Dit is echt bizar weinig, dan zullen de 5070(ti) waarschijnlijk ook weinig beter zijn want anders komen ze weer te dicht bij de 5080.

Echt onnozel dat ze deze 80 series geen 24gb hebben gegeven en ietsje meer snelheid. Ook de RT verbetering is nauwelijks aanwezig en is juist broodnodig om de zwaarste games te draaien (native, dus zonder truukjes).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 10:51

Format-C

Tracing Rays

Denk dat het voor een hoop mensen verstandig is om te wachten op hoe de 9070XT presteert. Als die bijv maar 10% trager is dan een 4080 (of 15% dan een 5080) voor de helft van de prijs of zelfs nog minder €???

Edit: @hierboven: dit is wel 1 van de kleinste bumps in performance die we de afgelopen jaren gezien hebben. En de prijs die nV deze kaarten meegeeft slaat nergens op. Elke procent meer performance tov de vorige generatie is een evenredig veel hogere prijs. Dus hier schieten we geen #### mee op.

[ Voor 42% gewijzigd door Format-C op 29-01-2025 10:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:58
Format-C schreef op woensdag 29 januari 2025 @ 10:32:
Denk dat het voor een hoop mensen verstandig is om te wachten op hoe de 9070XT presteert. Als die bijv maar 10% trager is dan een 4080 (of 15% dan een 5080) voor de helft van de prijs of zelfs nog minder €???

Edit: @hierboven: dit is wel 1 van de kleinste bumps in performance die we de afgelopen jaren gezien hebben. En de prijs die nV deze kaarten meegeeft slaat nergens op. Elke procent meer performance tov de vorige generatie is een evenredig veel hogere prijs.
Zo laag zal men niet gaan zitten denk ik? Vanaf 900 zal al prima zijn tov een 5080. Maar ja, dan kan je net zo goed of beter een xtx kopen. Zelfde geldt natuurlijk voor de 4080 die ineens een koopje lijkt vanaf 1100 euro.

Gekke tijden.

Acties:
  • +3 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 10:42
@Degrader @Format-C @meljor

Ik vraag me af of dat men dan de 5080 (4080 Ti Super) massaal links gaat laten liggen.
En ik roep al weken dat de 5070Ti waarschijnlijk een betere keuze is en de 5080 iets is om over te slaan (zonder dat ik van deze tegenvallende prestaties wist)... maar hoe gaat die 5070Ti dan presteren?
Die gaat een 4080/S dus niet inhalen?

De hele uplift van deze generatie valt tegen.
Het is meme-waardig.
Wat ik me ook afvraag is of dat de dalende Nvidia beurzen hiermee te maken heeft (dat het niet alleen over de recente AI ontwikkelingen gaat)?

[ Voor 13% gewijzigd door HugoBoss1985 op 29-01-2025 11:57 ]

Pagina: 1 ... 17 ... 36 Laatste

Let op:
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.