Wordt de FE dit keer in Nederland verkocht of weer alleen via de Duitse kanalen?
Ik heb zelf nu een Gigabyte RTX3080 gaming en vind de koeling luidruchtig en de fan is na een paar jaar hoorbaar ander geluid gaan maken. Ook heb ik een GTX570 gehad van Gigabyte waarvan de 3e fan stopte met werken. Ook bij die kaart was ik niet te spreken over het geluid.
Tussen die 2 kaarten heb ik nog een ASUS ROG 970 gehad, Palit GTX1070 Jetstream en MSI Trio RTX2080 en allen waren in mijn optiek beter dan de Gigabyte. Alhoewel dit natuurlijk per generatie flink kan verschillen. Zo was die Jetstream versie van Pallit een stuk slechter bij de 2080 en 3080.
Qua garantieafhandeling heb ik met geen enkel merk ervaring, dus daar kan ik niets zinnigs over zeggen.
Maar fijn om te lezen dat mijn (voor)oordeel over Gigabyte ongegrond is.
Tussen die 2 kaarten heb ik nog een ASUS ROG 970 gehad, Palit GTX1070 Jetstream en MSI Trio RTX2080 en allen waren in mijn optiek beter dan de Gigabyte. Alhoewel dit natuurlijk per generatie flink kan verschillen. Zo was die Jetstream versie van Pallit een stuk slechter bij de 2080 en 3080.
Qua garantieafhandeling heb ik met geen enkel merk ervaring, dus daar kan ik niets zinnigs over zeggen.
Maar fijn om te lezen dat mijn (voor)oordeel over Gigabyte ongegrond is.
[ Voor 5% gewijzigd door MazeWing op 13-01-2025 10:58 ]
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | XBX | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y
Volgens het tweakers filmpje via de duitse kanalen(NBB, notebookbilliger is dat geloof ik)MaZo schreef op maandag 13 januari 2025 @ 10:56:
Wordt de FE dit keer in Nederland verkocht of weer alleen via de Duitse kanalen?
Boullie
Ik zou de volgende keer ook niet meer voor Gigabyte te gaan. Heeft vooral te maken met het feit dat de kaarten van Gigabyte - mocht er iets mis gaan met bijvoorbeeld een fan - veel minder makkelijk zelf aan te pakken zijn dan bijvoorbeeld een kaart van INNO3D. Nou moet je dat sowieso maar willen/durven/kunnen, ik vind het toch belangrijk.MazeWing schreef op maandag 13 januari 2025 @ 10:57:
Ik heb zelf nu een Gigabyte RTX3080 gaming en vind de koeling luidruchtig en de fan is na een paar jaar hoorbaar ander geluid gaan maken. Ook heb ik een GTX570 gehad van Gigabyte waarvan de 3e fan stopte met werken. Ook bij die kaart was ik niet te spreken over het geluid.
Tussen die 2 kaarten heb ik nog een ASUS ROG 970 gehad, Palit GTX1070 Jetstream en MSI Trio RTX2080 en allen waren in mijn optiek beter dan de Gigabyte. Alhoewel dit natuurlijk per generatie flink kan verschillen. Zo was die Jetstream versie van Pallit een stuk slechter bij de 2080 en 3080.
Qua garantieafhandeling heb ik met geen enkel merk ervaring, dus daar kan ik niets zinnigs over zeggen.
Maar fijn om te lezen dat mijn (voor)oordeel over Gigabyte ongegrond is.
Als eerst hoeft dat niet, zulke afdelingen kunnen echt compleet onafhankelijk werken tussen continenten (hoeft niet, maar kan wel). Belangrijker nog is dat garantie primair hier via de winkel gaat waar je hem hebt gekocht, in tegenstelling tot in de VS.Boullie schreef op maandag 13 januari 2025 @ 10:38:
[...]
Als ze het in Amerika flikken proberen ze het hier ook. Het is een bedrijfsinstelling, net zoals bij EK. Heb geen zin om dat soort gedrag aan te moedigen en wil al helemaal niet afgewezen worden voor garantie met een kaart van 2500-2800 euro. Dit omdat zij denken dat een kras of deukje ergens op de backplate of zo het einde van je garantie moet betekenen.
Ik ben nu even wat reviews aan het lezen over recente Gigabyte kaarten en ze zijn toch wel wat luidruchtiger dan bijvoorbeeld de Asus TUF serie, terwijl ze qua prij vergelijkbaar zijn. Ook in de tweakers review van 5 4090's kwam dit naar voren. De Gigabyte was een stuk luider terwijl de koelprestaties ook nog eens onderaan bungelde.Thomas schreef op maandag 13 januari 2025 @ 11:03:
[...]
Ik zou de volgende keer ook niet meer voor Gigabyte te gaan. Heeft vooral te maken met het feit dat de kaarten van Gigabyte - mocht er iets mis gaan met bijvoorbeeld een fan - veel minder makkelijk zelf aan te pakken zijn dan bijvoorbeeld een kaart van INNO3D. Nou moet je dat sowieso maar willen/durven/kunnen, ik vind het toch belangrijk.
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | XBX | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y
@MazeWing Tegenwoordig moet je, helaas, bij elk merk goed op je hoede zijn voor ondermaatse kwaliteit of rampzalige garantie afhandeling. Gammele fans op Gigabyte GPU's is in het verleden genoeg voorgekomen, dat is 100% een punt om in het achterhoofd te houden.
Ik las in de Nvidia sub op Reddit dat de 50 serie FE kaarten niet via NBB verkocht zullen worden.Boullie schreef op maandag 13 januari 2025 @ 10:58:
[...]
Volgens het tweakers filmpje via de duitse kanalen(NBB, notebookbilliger is dat geloof ik)
Toen ik bij Alternate mijn 4070 ben gaan kopen was de goedkoopste een Asus DUAL. De verkoper aan de balie heeft toen expliciet afgeraden om een ASUS kaart te kopen omdat ze daar bij de klantendienst teveel miserie mee hadden met de garantieaanvragen. De klantendienst had expliciet gevraagd aan het baliepersoneel om zo weinig mogelijk ASUS kaarten te verkopen vanwege die garantieproblemen. Dus het lijkt me niet alleen een probleem in de VS.Sissors schreef op maandag 13 januari 2025 @ 11:04:
[...]
Als eerst hoeft dat niet, zulke afdelingen kunnen echt compleet onafhankelijk werken tussen continenten (hoeft niet, maar kan wel). Belangrijker nog is dat garantie primair hier via de winkel gaat waar je hem hebt gekocht, in tegenstelling tot in de VS.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Maar waar dan wel is de vraag? Nvidia / digitalriver? Of de andere partij waar ze later naar toe zijn over gegaan?MaZo schreef op maandag 13 januari 2025 @ 11:18:
[...]
Ik las in de Nvidia sub op Reddit dat de 50 serie FE kaarten niet via NBB verkocht zullen worden.
Las dat ze van NBB over waren gegaan naar Proshop, dus dat is eventueel ook een mogelijkheid.
[ Voor 12% gewijzigd door Senaxx op 13-01-2025 12:17 ]
Maar dat is dan dus hun probleem: Alternate moet het dan oplossen, en als ASUS het niet doet voor hun, is dat irritant voor hun. Maar niet jou probleem. (Granted dat is hoe het hoort te werken, onder de streep kan het nog steeds makkelijker zijn voor jou als de fabrikant meewerkt).nzall schreef op maandag 13 januari 2025 @ 11:21:
[...]
Toen ik bij Alternate mijn 4070 ben gaan kopen was de goedkoopste een Asus DUAL. De verkoper aan de balie heeft toen expliciet afgeraden om een ASUS kaart te kopen omdat ze daar bij de klantendienst teveel miserie mee hadden met de garantieaanvragen. De klantendienst had expliciet gevraagd aan het baliepersoneel om zo weinig mogelijk ASUS kaarten te verkopen vanwege die garantieproblemen. Dus het lijkt me niet alleen een probleem in de VS.
De ASUS TUF serie heeft dan weer erom bekend gestaan dat je wel betaald voor de ASUS naam, en belabberde performance krijgt.MazeWing schreef op maandag 13 januari 2025 @ 11:07:
[...]
Ik ben nu even wat reviews aan het lezen over recente Gigabyte kaarten en ze zijn toch wel wat luidruchtiger dan bijvoorbeeld de Asus TUF serie, terwijl ze qua prij vergelijkbaar zijn. Ook in de tweakers review van 5 4090's kwam dit naar voren. De Gigabyte was een stuk luider terwijl de koelprestaties ook nog eens onderaan bungelde.
Maar dat verschilt per serie. Ik heb een RTX3070 TUF: Als eerst omdat die nou eenmaal net op voorraad was toen mijn 5700XT de geest gaf, toen ze ook net op de markt waren, maar ook omdat het gewoon echt een prima presterende kaart was (qua geluidsproductie).
De Gigabyte 3080 Aero OC is ver uit de beste 3080 die ik heb gehad. En ik heb bv ook een EVGA 3080 FTW gehad.
De Gigabyte was sneller, klokte beter, was zo goed als fluister stil en 10c koeler dan de FTW.
Maar elke generatie zullen bepaalde merken wel opstaan en sommige gaan zitten. Dat zie je ook met moederborden etc
Bij voorbaat zeggen dat een bepaald merk slecht zal zijn voordat uberhaupt de hardware uit is gekomen is iets wat niet realistisch is.
De Gigabyte was sneller, klokte beter, was zo goed als fluister stil en 10c koeler dan de FTW.
Maar elke generatie zullen bepaalde merken wel opstaan en sommige gaan zitten. Dat zie je ook met moederborden etc
Bij voorbaat zeggen dat een bepaald merk slecht zal zijn voordat uberhaupt de hardware uit is gekomen is iets wat niet realistisch is.
[ Voor 38% gewijzigd door NosferatuX op 13-01-2025 12:01 ]
a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.
Dat is waarom je beter kan wachten op reviews. Ik weet zeker dat er wel een tech channel zal zijn die ze allemaal koopt en test.NosferatuX schreef op maandag 13 januari 2025 @ 11:57:
De Gigabyte 3080 Aero OC is ver uit de beste 3080 die ik heb gehad. En ik heb bv ook een EVGA 3080 FTW gehad.
De Gigabyte was sneller, klokte beter, was zo goed als fluister stil en 10c koeler dan de FTW.
Maar elke generatie zullen bepaalde merken wel opstaan en sommige gaan zitten. Dat zie je ook met moederborden etc
Bij voorbaat zeggen dat een bepaald merk slecht zal zijn voordat uberhaupt de hardware uit is gekomen is iets wat niet realistisch is.
Ik neem aan Proshop.Senaxx schreef op maandag 13 januari 2025 @ 11:26:
[...]
Maar waar dan wel is de vraag? Nvidia / digitalriver? Of de andere partij waar ze later naar toe zijn over gegaan?
Las dat ze van NBB over waren gegaan naar Proshop, dus dat is eventueel ook een mogelijkheid.
Weet er iemand wanneer het review/benchmark embargo verloopt van de 5000 serie?
Ik heb al aardig wat video's gekeken over deze kaarten, maar heb nog geen een persoon horen vertellen wanneer ze iets er over mogen vertellen.
Ik heb al aardig wat video's gekeken over deze kaarten, maar heb nog geen een persoon horen vertellen wanneer ze iets er over mogen vertellen.
https://videocardz.com/ne...24-rtx-5080-on-january-30
24 januari voor de 5090
30 januari voor de 5080
Betekent dus dat de 5090 vroeger dan gebruikelijk uit embargo gaat en de 5080 pas op de dag van release.
24 januari voor de 5090
30 januari voor de 5080
Betekent dus dat de 5090 vroeger dan gebruikelijk uit embargo gaat en de 5080 pas op de dag van release.
[ Voor 26% gewijzigd door Arjant2 op 13-01-2025 13:50 ]
Dan zijn ze blijkbaar zekerder van de 5090 dan van de 5080 
Van die laatste krijgen we dan immers de reviews op hetzelfde moment als de verkopen ook starten, en dus geen extra dag om de reviews even goed door te nemen,
Maar voor de 5090 reviews krijgen we een week in plaats van een dag
Van die laatste krijgen we dan immers de reviews op hetzelfde moment als de verkopen ook starten, en dus geen extra dag om de reviews even goed door te nemen,
Maar voor de 5090 reviews krijgen we een week in plaats van een dag
Het is duidelijk welke ze willen verkopen en als je reviews krijgt die de 5080 en 90 gaan vergelijken dan voelt de 80 als een meh kaart. En als je het AI software gedeelte er af haalt dan is de 5080 niet eens een behoorlijke upgrade tegenover de 4080.Dennism schreef op maandag 13 januari 2025 @ 13:52:
Dan zijn ze blijkbaar zekerder van de 5090 dan van de 5080
Van die laatste krijgen we dan immers de reviews op hetzelfde moment als de verkopen ook starten, en dus geen extra dag om de reviews even goed door te nemen,
Maar voor de 5090 reviews krijgen we een week in plaats van een dag
Sorry, maar Alternate geloven op hun woord gaat mij wat ver. Een vriend van mij heeft daar gewerkt en toendertijd waren ze erg gericht op klanten naar een bepaald merk pushen, maar enkel en alleen omdat ze meer commissie kregen.nzall schreef op maandag 13 januari 2025 @ 11:21:
[...]
Toen ik bij Alternate mijn 4070 ben gaan kopen was de goedkoopste een Asus DUAL. De verkoper aan de balie heeft toen expliciet afgeraden om een ASUS kaart te kopen omdat ze daar bij de klantendienst teveel miserie mee hadden met de garantieaanvragen. De klantendienst had expliciet gevraagd aan het baliepersoneel om zo weinig mogelijk ASUS kaarten te verkopen vanwege die garantieproblemen. Dus het lijkt me niet alleen een probleem in de VS.
Jaren geleden dus geen idee hoe het nu is natuurlijk, maar hou er rekening mee dat de reden anders kan zijn dan jou helpen.
Ik hoor juist altijd van "iedereen" dat de Gigabyte Aorus elke generatie 1 van de beste kaarten is? Heb ik dan iets gemist?MazeWing schreef op maandag 13 januari 2025 @ 11:07:
[...]
Ik ben nu even wat reviews aan het lezen over recente Gigabyte kaarten en ze zijn toch wel wat luidruchtiger dan bijvoorbeeld de Asus TUF serie, terwijl ze qua prij vergelijkbaar zijn. Ook in de tweakers review van 5 4090's kwam dit naar voren. De Gigabyte was een stuk luider terwijl de koelprestaties ook nog eens onderaan bungelde.
Alternate mag je prima niet geloven, maar vergis je niet met betrekking tot ASUS.Beakzz schreef op maandag 13 januari 2025 @ 16:07:
[...]
Sorry, maar Alternate geloven op hun woord gaat mij wat ver. Een vriend van mij heeft daar gewerkt en toendertijd waren ze erg gericht op klanten naar een bepaald merk pushen, maar enkel en alleen omdat ze meer commissie kregen.
Jaren geleden dus geen idee hoe het nu is natuurlijk, maar hou er rekening mee dat de reden anders kan zijn dan jou helpen.
Zie o.a. onderstaande videos van GamersNexus.
Lees ook verder de GamersNexus recap hier:
https://gamersnexus.net/n...onfronting-asus-face-face
Met onderstaande reactie van ASUS zelf, als terug te lezen in bovenstaande link:
Uiteraard aan eenieder zelf om hierin een keuze te maken. Vooropgesteld, persoonlijk heb ik ook gewoon ASUS producten. Met daarin doorgaans goede ervaringen binnen een kleine sample size, d.w.z. geen defecten, dus geen gebruik hoeven te maken van hun RMA proces.From the ASUS Service team, we deeply apologize for the issues with our service.
Our RMA communications and repair services have not consistently met the high standards we aim for. We want to make things right. If you’ve had a negative experience with our customer support, please let us know. We want to do better. Contact us at executivecare@asus.com and share your experience using the template below. We are here to listen and improve.
Your Name (as listed in your RMA):
RMA Number:
Serial Number:
RMA application country:
Please describe your previous RMA dispute:
Supporting Documents (e.g., charged invoice, quotation notification, photos):
Additional Feedback (optional):
After submitting your claim, please allow us one week to review your case and respond. Our local service team will guide you through the appropriate next steps. We’re committed to transparency, fairness, and doing what’s right for our customers.
We’re very sorry to anyone who has had a negative experience with our service team. We appreciate your feedback and giving us a chance to make amends.
Maar indien de potentiële RMA ervaring een belangrijke overweging is binnen je keuze, realiseer je dan goed dat met ASUS dit proces nog wel eens tegen kan vallen. De gedane beloftes tot verbetering zijn zeer vers, moet nog blijken tot op wat voor een hoogte ASUS zich hier daadwerkelijk aan gaat houden.
Iedereen heeft andere ervaringen met merken en kaarten. Gigabyte wat mindere ervaring mee bij de 3080 dacht ik..... daarna meestal Asus TUF gehad (meestal de stilste) tot ik uiteindelijk een Noctua gekocht heb.
Maar bij niet Noctua kaarten sloop ik meestal de shroud eraf om er 2x 120 Noctua op te zetten. Ben zo alergisch voor die standaard fans op al die kaarten. Ze hebben altijd bijgeluiden naar mijn idee ook al zijn (de TUFs die ik had) aardig stil er is toch altijd een geluid die ik nij 120mm fans niet hoor wat naar mijn idee simpelweg komt omdat het 10 van 10 x gewoon goedkope rommel fans zijn. Maar goed de ene heeft daar meer last van dan de andere natuurlijk.
Coil wine is gewoon een loterij, 0 coil wine heb ik nog nooit gehad eigenlijk. De 4080 Super Noctua is de stilste die ik wat dat betreft heb. Maar zodra ik de FPS zijn gang laat gaan ga je hem ook horen. Maar heb een hele erg 4070 Founders Edition gehad echt niet te doen. Wederom voor mij Asus ook wat dat betreft de minste problemen gehad. Maar goed daar lees je ook wel eens andere dingen over dus wie ben ik.
Dan garantie.... ja. Geen idee nog nooit zon ding stuk gehad....... dus dat zou ik niet weten.
MSI ben ik ook niet kapot van, al was de Suprime X 4080 die ik gehad heb verder niks mis mee. Moet al die4 RGB kots niet. Haha
Maar bij niet Noctua kaarten sloop ik meestal de shroud eraf om er 2x 120 Noctua op te zetten. Ben zo alergisch voor die standaard fans op al die kaarten. Ze hebben altijd bijgeluiden naar mijn idee ook al zijn (de TUFs die ik had) aardig stil er is toch altijd een geluid die ik nij 120mm fans niet hoor wat naar mijn idee simpelweg komt omdat het 10 van 10 x gewoon goedkope rommel fans zijn. Maar goed de ene heeft daar meer last van dan de andere natuurlijk.
Coil wine is gewoon een loterij, 0 coil wine heb ik nog nooit gehad eigenlijk. De 4080 Super Noctua is de stilste die ik wat dat betreft heb. Maar zodra ik de FPS zijn gang laat gaan ga je hem ook horen. Maar heb een hele erg 4070 Founders Edition gehad echt niet te doen. Wederom voor mij Asus ook wat dat betreft de minste problemen gehad. Maar goed daar lees je ook wel eens andere dingen over dus wie ben ik.
Dan garantie.... ja. Geen idee nog nooit zon ding stuk gehad....... dus dat zou ik niet weten.
MSI ben ik ook niet kapot van, al was de Suprime X 4080 die ik gehad heb verder niks mis mee. Moet al die4 RGB kots niet. Haha
Kunnen mensen zich een week lang verheelijken over de droom van een 5090 om uiteindelijk te zwichten op launch day voor de verleiding, niet te realiseren dat de 5080 benchmarks laten zien dat al hun games hiermee prima speelbaar zijnDennism schreef op maandag 13 januari 2025 @ 13:52:
Dan zijn ze blijkbaar zekerder van de 5090 dan van de 5080
Van die laatste krijgen we dan immers de reviews op hetzelfde moment als de verkopen ook starten, en dus geen extra dag om de reviews even goed door te nemen,
Maar voor de 5090 reviews krijgen we een week in plaats van een dag
Ik denk dat je sowieso in deze tijden goed op moet passen voor FOMO op YouTube, iedereen weet natuurlijk dat men er naarstig op zoek is naar clicks, dus het tiert al welig met RTX 50xx / 40xx vergelijkingen, de één nog overtuigender dan de andere met ingame beelden van alle mogelijke spellen vanaf Duke Nukem 3dpsychodude schreef op maandag 13 januari 2025 @ 20:41:
Uiteraard aan eenieder zelf om hierin een keuze te maken. Vooropgesteld, persoonlijk heb ik ook gewoon ASUS producten. Met daarin doorgaans goede ervaringen binnen een kleine sample size, d.w.z. geen defecten, dus geen gebruik hoeven te maken van hun RMA proces.
Maar wat men minder snel in de gaten heeft is dat pakkende titels als "asus scam" of "gigabyte distaster" et cetera het allemaal heerlijk doen voor dit soort clicks. Over het algemeen is het allemaal erg lood om oud ijzer en natuurlijk kun je ergens pech mee hebben, en zijn er kwaliteitsverschillen, maar over het algemeen vind ik al die accentverschillen marginaal. Je hebt overal garantie, en vergeet vooral 1 ding niet. Een influencer heet niet voor niets een influencer. En wie dat woord niet kent kan het eens opzoeken voor een wijze levensles
[ Voor 7% gewijzigd door DeNachtwacht op 13-01-2025 22:17 ]
youtube.com/@hisrep
Sterker nog, als de B2B kant met ASUS zo'n groot probleem is voor een winkel als Alternate dat ze hun klanten expliciet afraden het iets van te kopen vanwege problemen bij garantieafhandelingen.. .. dan moeten ze het merk simpelweg niet meer verkopenSissors schreef op maandag 13 januari 2025 @ 11:47:
Maar dat is dan dus hun probleem: Alternate moet het dan oplossen, en als ASUS het niet doet voor hun, is dat irritant voor hun. Maar niet jou probleem. (Granted dat is hoe het hoort te werken, onder de streep kan het nog steeds makkelijker zijn voor jou als de fabrikant meewerkt).
Het gaat hier over Alternate België. Ik weet niet of dat veel verschil is tegenover Alternate NL. Daarnaast hebben we (of toch mijn vader) de verkoper ook gevraagd naar de duurdere modellen van de 4070, en de verkoper zei daarop dat die de meerprijs niet waard waren omdat er erg weinig verschil zit qua snelheid. Ik vermoed dat als het hem te doen was over de commissie dat hij die WEL zou hebben aangeraden. Nu, het ging hier wel over een garantieafwikkeling van een defecte 6700XT die ik een jaar eerder had gekocht voor 700 EUR als onderdeel van een geassembleerde PC, en ik mocht dat volledige bedrag inzetten voor een nieuwe GPU, en ik weet niet of hij in dat geval commissie zou gekregen hebben.Beakzz schreef op maandag 13 januari 2025 @ 16:07:
[...]
Sorry, maar Alternate geloven op hun woord gaat mij wat ver. Een vriend van mij heeft daar gewerkt en toendertijd waren ze erg gericht op klanten naar een bepaald merk pushen, maar enkel en alleen omdat ze meer commissie kregen.
Jaren geleden dus geen idee hoe het nu is natuurlijk, maar hou er rekening mee dat de reden anders kan zijn dan jou helpen.
[ Voor 34% gewijzigd door nzall op 13-01-2025 21:54 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Zulke uitspraken maken mij altijd bang om te upgraden. Want ik heb nu eentje zonder coilwhine. En alleen ooit één keer een Vega kaart gehad die wanneer FPS in menu's naar unlimited ging die last van coilwhine had. (Tegenwoordig wordt daarom altijd vsync geforceerd in menus).JWFpeters schreef op maandag 13 januari 2025 @ 20:41:
Coil wine is gewoon een loterij, 0 coil wine heb ik nog nooit gehad eigenlijk.
Mijn 4090FE had ook wat coilwhine. Voornamelijk als er >250fps gedaan werd zoals in menu's. Is over de tijd wel minder geworden bij mijn kaart. Mijn 3080FE had het alleen in het begin en nadat ik er een waterblock omheen had was het niet meer te horen.Sissors schreef op maandag 13 januari 2025 @ 22:03:
[...]
Zulke uitspraken maken mij altijd bang om te upgraden. Want ik heb nu eentje zonder coilwhine. En alleen ooit één keer een Vega kaart gehad die wanneer FPS in menu's naar unlimited ging die last van coilwhine had. (Tegenwoordig wordt daarom altijd vsync geforceerd in menus).
Van de FE. De custom modellen gewoon de 30e.stfnz schreef op dinsdag 14 januari 2025 @ 10:25:
https://x.com/VideoCardz/status/1879088750225166765
5080 embargo nu dus voor 29 January
/f/image/vvoJJjamVnjiFXBMrzkfqIEX.png?f=fotoalbum_large)
[ Voor 38% gewijzigd door Rivanov op 14-01-2025 10:41 ]
Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Elke keer weer toch mee in de hype.... begrijp me zelfs soms niet. gekkigheid.
Haha herkenbaar hoor. Destijds de 3080FE gekocht en denk nog altijd prima voor wat ik ermee doe maar hoe dichterbij de 5080 komt hoe meer het begint te kriebelen om toch te upgraden.... Jammer dat er van de 5070Ti geen FE editie is want die had me prijstechnisch wel interessanter geleken
Ja, ik vind het ook spijtig dat er een 5070 Ti FE is vanwege dezelfde reden. Maar ik was toch pas van plan om in 2026 te upgraden, dus wie weet wat er tegen dan uit is van Super of andere modellen...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Niet alleen de FE's lijkt het, maar MSRP kaarten. Als fabrikanten dus een MSRP model hebben zouden die ook de 29ste gereviewed mogen worden volgens dat schema.Rivanov schreef op dinsdag 14 januari 2025 @ 10:39:
[...]
Van de FE. De custom modellen gewoon de 30e.
[Afbeelding]
Ik geloof zelfs dat één van Nvidia's eisen voor AIBs is dat ze minstens 1 MSRP model moeten aanbieden. Maar Nvidia zegt dan weer niets over hoeveel individuele kaarten ze van dat MSRP model moeten maken...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Zolang mijn 2080ti prima doorpuft geen nood om te upgraden, met een 3080 kan je ook nog prima uit de voeten toch?Jaguar645 schreef op dinsdag 14 januari 2025 @ 11:25:
Haha herkenbaar hoor. Destijds de 3080FE gekocht en denk nog altijd prima voor wat ik ermee doe maar hoe dichterbij de 5080 komt hoe meer het begint te kriebelen om toch te upgraden.... Jammer dat er van de 5070Ti geen FE editie is want die had me prijstechnisch wel interessanter geleken
Depends on usecase. Ik ga m’n 4080 upgraden naar 5090 aangezien ik in triple 1440p game op m’n simrig. En daarmee ben ik vrijwel altijd GPU limited op dit moment.Altamyr schreef op dinsdag 14 januari 2025 @ 11:52:
[...]
Zolang mijn 2080ti prima doorpuft geen nood om te upgraden, met een 3080 kan je ook nog prima uit de voeten toch?
Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Nadeel van een 3080 is dat die maar 10GB VRAM heeft, daar ga je wel tegen aan lopen, of loop je al, in steeds meer games. Wat dat betreft heeft de 2080Ti zelfs een streepje voor met 11GB ook al is die natuurlijk zonder VRAM tekort wat langzamer dan een 3080.Altamyr schreef op dinsdag 14 januari 2025 @ 11:52:
[...]
Zolang mijn 2080ti prima doorpuft geen nood om te upgraden, met een 3080 kan je ook nog prima uit de voeten toch?
Mja id.. 2j geleden een 4070 gekocht.. en ook al lijkt de 5080 initieel niet op zo een grondige upgrade (tov de vorige 80 classe) spreekt een upgrade me wel aan.hully schreef op dinsdag 14 januari 2025 @ 10:47:
Elke keer weer toch mee in de hype.... begrijp me zelfs soms niet. gekkigheid.
Eigl zou het niet mogen, vooral niet omdat ik het deels doe omdat MHW beta niet vlot draaide.
De volgende beta gaat wrs dezelfde client zijn zonder optimalisaties. (en Capcomm staat daar al niet bekend om).
Maar ik hoop ook dat bvb Black Myth Wukong dan een beetje speelbaarder gaat zijn op 3440*1440..
5090 lijkt me overkill, om nog maar te zwijgen over de prijs


Ik ben nu langzaam onderdelen aan t verzamelen voor m’n nieuwe / 2de pc waarbij ik wacht tot maart/april voor de release van 9950x3d. Dus voor mij geen noodzaak om meteen bij release aan te schaffen, was het niet zo dat ik de 3090 van m’n huidige pc al heb verkocht.
Dacht ik overbrug die 3 weken wel makkelijk maar valt toch stiekem tegen. Ben toch zo de hype trein opgestapt. Ik ben heel nieuwsgierig na de raw performance van de 5080 (vs 4090/4080). Aangezien ik 2 GPU’s nodig heb, is voor mij de keuze gemaakt om 2x 5080 te halen (zelfde prijs als 1x 5090).
Ergens wel flauw dat ze de 5080 embargo pas zo laat opgeheven wordt. Zal marketing technisch ook wel z’n redenen hebben. Als eenmaal heel internet, YouTube en TikTok vol heeft gestaan hoe geweldig performance de 5090 heeft, gaat de kudde toch denken “alle Nvidia 50X0 kaarten zijn goed”.
*Krast weer een dag af van de kalender
Dacht ik overbrug die 3 weken wel makkelijk maar valt toch stiekem tegen. Ben toch zo de hype trein opgestapt. Ik ben heel nieuwsgierig na de raw performance van de 5080 (vs 4090/4080). Aangezien ik 2 GPU’s nodig heb, is voor mij de keuze gemaakt om 2x 5080 te halen (zelfde prijs als 1x 5090).
Ergens wel flauw dat ze de 5080 embargo pas zo laat opgeheven wordt. Zal marketing technisch ook wel z’n redenen hebben. Als eenmaal heel internet, YouTube en TikTok vol heeft gestaan hoe geweldig performance de 5090 heeft, gaat de kudde toch denken “alle Nvidia 50X0 kaarten zijn goed”.
*Krast weer een dag af van de kalender
Maar wel het risico dat gebruikers die op de hype train stapten via Sociale Media en de 5090 zagen, teleurgesteld kunnen raken door de 5080 reeks aangezien die 50% minder geheugen heeft.FireBladeX schreef op dinsdag 14 januari 2025 @ 18:49:
Als eenmaal heel internet, YouTube en TikTok vol heeft gestaan hoe geweldig performance de 5090 heeft, gaat de kudde toch denken “alle Nvidia 50X0 kaarten zijn goed”.
*Krast weer een dag af van de kalender :D*
*Ook ik kras er weer een dag af*
Als je 1080p speelt merk je het natuurlijk wellicht niet, maar op 4K wel.
Al mag je er van uit gaan dat de 4K-gamers iets dieper zoeken en zich inlezen op hoe en wat.
What a terrible day to have eyes!
Zeg het nog maar eens, die 5080 zal raster niet zo spannend zijn tegenover de 4080 en daarom is die embargo ook op release. Smeerlappen zijn het.
5090 gaat gewoon knallen dat is vrij logisch. Verschil tussen de 80 en 90 serie is zo groot geworden dat ze er denk ik meer van zijn gaan verkopen daardoor hoe duur die krengen ook zijn. Je ziet het hier ook maar weer iedereen is bereid zonder blikken en blazen een paar 1000 neer te tellen voor die dingen.
En zolang AMD en Intel niet mee doen in die strijd zal het alleen maar duurder en duurder worden want ja wat moet je anders? (buiten gewoon niks kopen) daarom zullen consoles altijd relevant blijven. Want de normale mens geeft geen 1500 euro aan alleen een GPU uit die willen gewoon gamen en dan is die 799 nog niet zo duur voor een PS5 Pro waar je weer een x aantal jaar mee vooruit kan voor je weer in de verleiding wordt gebracht het nieuwste te kopen. Al zoeken die de grens kwa prijs nu ook wel op want die Pro is nooit te kort geweest.
5090 gaat gewoon knallen dat is vrij logisch. Verschil tussen de 80 en 90 serie is zo groot geworden dat ze er denk ik meer van zijn gaan verkopen daardoor hoe duur die krengen ook zijn. Je ziet het hier ook maar weer iedereen is bereid zonder blikken en blazen een paar 1000 neer te tellen voor die dingen.
En zolang AMD en Intel niet mee doen in die strijd zal het alleen maar duurder en duurder worden want ja wat moet je anders? (buiten gewoon niks kopen) daarom zullen consoles altijd relevant blijven. Want de normale mens geeft geen 1500 euro aan alleen een GPU uit die willen gewoon gamen en dan is die 799 nog niet zo duur voor een PS5 Pro waar je weer een x aantal jaar mee vooruit kan voor je weer in de verleiding wordt gebracht het nieuwste te kopen. Al zoeken die de grens kwa prijs nu ook wel op want die Pro is nooit te kort geweest.
En heb je zelf onderzoek gedaan?AltTabKeys schreef op dinsdag 14 januari 2025 @ 18:53:
[...]
Als je 1080p speelt merk je het natuurlijk wellicht niet, maar op 4K wel.
Al mag je er van uit gaan dat de 4K-gamers iets dieper zoeken en zich inlezen op hoe en wat.
Echt een enkele game die op 4k maxed out incl RT en DLSS de 16 gb aantikken.
Maar de gros van de games zit gewoon tussen de 10-12 gb (wat ook de norm is).
Zie dit filmpje
Maar ben met je eens dat dit geniepig move is van Nvidia om mensen toch te pushen richting de 5090. Maar daar trap ik niet. Niet voor niets dat ik op PC game en mocht je tegen de 16gb aanhikken, kan je met sommige instellingen spelen om weer onder de 16gb te vallen. Dat doe ik liever, dan een astronomisch bedrag uitgeven voor de 5090.
[ Voor 7% gewijzigd door FireBladeX op 14-01-2025 19:23 ]
Waaraan je het op zijn minst wel op moet merken is als je op meerdere monitoren gamed. En dan vooral als je op een hoge resolutie zit en de hoogste grafische instellingen.FireBladeX schreef op dinsdag 14 januari 2025 @ 19:23:
[...]
En heb je zelf onderzoek gedaan?
Echt een enkele game die op 4k maxed out incl RT en DLSS de 16 gb aantikken.
Maar de gros van de games zit gewoon tussen de 10-12 gb (wat ook de norm is).
Zie dit filmpje
Maar ben met je eens dat dit geniepig move is van Nvidia om mensen toch te pushen richting de 5090. Maar daar trap ik niet. Niet voor niets dat ik op PC game en mocht je tegen de 16gb aanhikken, kan je met sommige instellingen spelen om weer onder de 16gb te vallen. Dat doe ik liever, dan een astronomisch bedrag uitgeven voor de 5090.
Maar, dat is dan ook een luxe en geen standaard voor games.
What a terrible day to have eyes!
laat ons eerlijk zijn 1200 euries betalen voor een gpu en al moeten spelen met instellingen om niet tegen de 16gb vram limit te lopen klinkt niet erg aanlokkelijk.FireBladeX schreef op dinsdag 14 januari 2025 @ 19:23:
[...]
En heb je zelf onderzoek gedaan?
Echt een enkele game die op 4k maxed out incl RT en DLSS de 16 gb aantikken.
Maar de gros van de games zit gewoon tussen de 10-12 gb (wat ook de norm is).
Zie dit filmpje
Maar ben met je eens dat dit geniepig move is van Nvidia om mensen toch te pushen richting de 5090. Maar daar trap ik niet. Niet voor niets dat ik op PC game en mocht je tegen de 16gb aanhikken, kan je met sommige instellingen spelen om weer onder de 16gb te vallen. Dat doe ik liever, dan een astronomisch bedrag uitgeven voor de 5090.
Wacht gewoon tot alle reviews er zijn en beslis dan.. de hype train is leuk maar raw resultaten leukerFireBladeX schreef op dinsdag 14 januari 2025 @ 18:49:
Ik ben nu langzaam onderdelen aan t verzamelen voor m’n nieuwe / 2de pc waarbij ik wacht tot maart/april voor de release van 9950x3d. Dus voor mij geen noodzaak om meteen bij release aan te schaffen, was het niet zo dat ik de 3090 van m’n huidige pc al heb verkocht.
Dacht ik overbrug die 3 weken wel makkelijk maar valt toch stiekem tegen. Ben toch zo de hype trein opgestapt. Ik ben heel nieuwsgierig na de raw performance van de 5080 (vs 4090/4080). Aangezien ik 2 GPU’s nodig heb, is voor mij de keuze gemaakt om 2x 5080 te halen (zelfde prijs als 1x 5090).
Ergens wel flauw dat ze de 5080 embargo pas zo laat opgeheven wordt. Zal marketing technisch ook wel z’n redenen hebben. Als eenmaal heel internet, YouTube en TikTok vol heeft gestaan hoe geweldig performance de 5090 heeft, gaat de kudde toch denken “alle Nvidia 50X0 kaarten zijn goed”.
*Krast weer een dag af van de kalender
"The wonder is, not that the field of stars is so vast, but that man has measured it."
Wat wel een gevolg is van het vroegtijdig opheffen van de RTX 5090 review embargo is dat reviewers hun reviews van de 5080 kunnen aanpassen en bijsturen op basis van de reactie op de RTX 5090 review.FireBladeX schreef op dinsdag 14 januari 2025 @ 18:49:
Ik ben nu langzaam onderdelen aan t verzamelen voor m’n nieuwe / 2de pc waarbij ik wacht tot maart/april voor de release van 9950x3d. Dus voor mij geen noodzaak om meteen bij release aan te schaffen, was het niet zo dat ik de 3090 van m’n huidige pc al heb verkocht.
Dacht ik overbrug die 3 weken wel makkelijk maar valt toch stiekem tegen. Ben toch zo de hype trein opgestapt. Ik ben heel nieuwsgierig na de raw performance van de 5080 (vs 4090/4080). Aangezien ik 2 GPU’s nodig heb, is voor mij de keuze gemaakt om 2x 5080 te halen (zelfde prijs als 1x 5090).
Ergens wel flauw dat ze de 5080 embargo pas zo laat opgeheven wordt. Zal marketing technisch ook wel z’n redenen hebben. Als eenmaal heel internet, YouTube en TikTok vol heeft gestaan hoe geweldig performance de 5090 heeft, gaat de kudde toch denken “alle Nvidia 50X0 kaarten zijn goed”.
*Krast weer een dag af van de kalender
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Zijn er mensen die van de 4090 naar een 5080 gaan? Ik ben benieuwd.
Dat lijkt mij geen verstandige keuze en een waste of money.Fuku-San schreef op woensdag 15 januari 2025 @ 09:54:
Zijn er mensen die van de 4090 naar een 5080 gaan? Ik ben benieuwd.
Ikzelf ga van de 4090 naar de 5090.Fuku-San schreef op woensdag 15 januari 2025 @ 09:54:
Zijn er mensen die van de 4090 naar een 5080 gaan? Ik ben benieuwd.
Maar zonder de echte peformance nummers te kennen lijkt het op ruwe performance een downgrade.
- van 16 duizend cuda cores naar 10 duizend
- 8 GB VRAM inleveren
- 2/3 van de geheugenbus
- Wel sneller geheugen op de 5080
Dus om echt sneller te zijn lijkt mij dat de 5080 het moet hebben van zijn FG4x mode in spellen die DLSS4 ondersteunen.
Er zit marketing erachter en het gepraat over leaks is goed om anticipatie, verlangen,... voor iets nieuws op te bouwen. We staan aan de voet aan een berg te wachten alsof de verlossing, second coming of Christ,... eraan komt.DeNachtwacht schreef op maandag 13 januari 2025 @ 21:03:
[...]
Ik denk dat je sowieso in deze tijden goed op moet passen voor FOMO op YouTube, iedereen weet natuurlijk dat men er naarstig op zoek is naar clicks, dus het tiert al welig met RTX 50xx / 40xx vergelijkingen, de één nog overtuigender dan de andere met ingame beelden van alle mogelijke spellen vanaf Duke Nukem 3d. Natuurlijk zullen de meesten er niet intrappen en het als spam zien omdat de kaart nog onder embargo is maar kijk voor de grap eens hoeveel van dat soort filmpjes al 10K of meer kijkers hebben.
Schandalen, negativiteit,... trekt aandacht. Maar er zijn ook merken die ontwerpenfouten snel aanpakken en de klant snel helpen met een goede oplossing.Maar wat men minder snel in de gaten heeft is dat pakkende titels als "asus scam" of "gigabyte distaster" et cetera het allemaal heerlijk doen voor dit soort clicks. Over het algemeen is het allemaal erg lood om oud ijzer en natuurlijk kun je ergens pech mee hebben, en zijn er kwaliteitsverschillen, maar over het algemeen vind ik al die accentverschillen marginaal. Je hebt overal garantie, en vergeet vooral 1 ding niet. Een influencer heet niet voor niets een influencer. En wie dat woord niet kent kan het eens opzoeken voor een wijze levensles
Gigabyte had last van doorscheurende printplaten en wilt niet hele generaties aan grafische kaarten vervangen. Dus ze weigeren de garantie wegens het gaat hen teveel kosten als iedereen z'n grafische kaart op RMA stuurt.
YouTube: These GPUs are cracking and the company REFUSES to warranty them!
https://www.tomshardware....ues-with-a-revised-design
Weer een aparte termen omschrijving van JaysZ 2 centjes.rapture schreef op woensdag 15 januari 2025 @ 12:30:
[...]
Er zit marketing erachter en het gepraat over leaks is goed om anticipatie, verlangen,... voor iets nieuws op te bouwen. We staan aan de voet aan een berg te wachten alsof de verlossing, second coming of Christ,... eraan komt.
[...]
Schandalen, negativiteit,... trekt aandacht. Maar er zijn ook merken die ontwerpenfouten snel aanpakken en de klant snel helpen met een goede oplossing.
Gigabyte had last van doorscheurende printplaten en wilt niet hele generaties aan grafische kaarten vervangen. Dus ze weigeren de garantie wegens het gaat hen teveel kosten als iedereen z'n grafische kaart op RMA stuurt.
YouTube: These GPUs are cracking and the company REFUSES to warranty them!
https://www.tomshardware....ues-with-a-revised-design
Ik dacht even dat het over de GPU chip cracking ging n.a.v. de titel.
Wat ook een voorkomend euvel was, vooral door mining (videokaarten in extreme gekoelde omgevingen dus veel extreme temperatuur verschillen).
"2de hands videokaart gebruikt voor mining, met oxidatie op de heatsink maar beïnvloed de werking niet" ...
Gescheurde pcb's (van videokaarten... heeft niets met GPU's te maken) is wel een heel duidelijke defect.
Dit kan ook komen door het niet gebruiken van een anti-sag bracket.
Ik heb pas nog een reparatie video gezien waar, door KrisFix-Germany, geclaimd werdt dat het doorhangen van een videokaart ook onzichtbare schade aan traces en solderingen kan veroorzaken.
Wat natuurlijk vrij logisch is.
YouTube: I Drilled this MSI RX 6900XT and It Works - Very rare problem #krisf...
Dat kan bij elke videokaart gebeuren, van elk merk.
Ik wist niet dat dit zichtbaar scheuren van het pcb een specifiek Gigabyte dingentje was.
Kijk dan zou een (Gigabyte) fabrikant hier een grote rode sticker op moeten plakken én een anti-sag bracket mee moeten leveren.
4090 met connector schade worden ook nog wel eens RMA geweigerd... dure geintjes.
Afijn kortom m.b.t. jouw post: gebruik altijd een anti-sag bracket en ga niet aan de videokaart lopen sjorren tenzij je zeker weet dat het PCI-E grendeltje van het mobo ontgrendeld is.
[ Voor 15% gewijzigd door HugoBoss1985 op 15-01-2025 12:47 ]
Je levert inderdaad flink in op de hoeveelheid VRAM en aantal cuda-cores, maar dat laatste wordt nog een beetje gecompenseerd met dat de 5080 wat sneller is geklokt. En als het gaat om de 256-bit geheugenbus, dat zegt op zich niets. Het is de combinatie met de geheugensnelheid wat relevant is, ofwel, de geheugenbandbreedte en die is maar 5% minder breed bij de 5080 t.o.v. de 4090.Senaxx schreef op woensdag 15 januari 2025 @ 11:44:
[...]
Ikzelf ga van de 4090 naar de 5090.
Maar zonder de echte peformance nummers te kennen lijkt het op ruwe performance een downgrade.
- van 16 duizend cuda cores naar 10 duizend
- 8 GB VRAM inleveren
- 2/3 van de geheugenbus
- Wel sneller geheugen op de 5080
Dus om echt sneller te zijn lijkt mij dat de 5080 het moet hebben van zijn FG4x mode in spellen die DLSS4 ondersteunen.
Toch schetst Nvidia met hun testresultaten een wat inconsistent beeld. De 5090 is qua specificaties grofweg twee keer zo snel als een 5080. Toch is de 5090 maar 27% sneller in FC6 dan de 4090. En de 5080 is ongeveer hetzelfde sneller dan de 4080. En dat vind ik een beetje raar, want de 4090 is ook ongeveer zoveel sneller dan de 4080 in FC6. Dat zou betekenen dat de 5080 de prestaties bereikt van de 4090. Hoe kan de 5090 die dus twee keer zo zwaar is uitgerust t.o.v. de 5080 dan nog maar 27% sneller zijn dan de 4090 en 5080? Je zou beduidend meer verwachten.
Het zal ongetwijfeld niet linear schalen. Maar het is ook lastig te zeggen wat de ruwe raster performance verschil gaat zeggen met de huidige benchmarks.Degrader schreef op woensdag 15 januari 2025 @ 12:58:
[...]
Je levert inderdaad flink in op de hoeveelheid VRAM en aantal cuda-cores, maar dat laatste wordt nog een beetje gecompenseerd met dat de 5080 wat sneller is geklokt. En als het gaat om de 256-bit geheugenbus, dat zegt op zich niets. Het is de combinatie met de geheugensnelheid wat relevant is, ofwel, de geheugenbandbreedte en die is maar 5% minder breed bij de 5080 t.o.v. de 4090.
Toch schetst Nvidia met hun testresultaten een wat inconsistent beeld. De 5090 is qua specificaties grofweg twee keer zo snel als een 5080. Toch is de 5090 maar 27% sneller in FC6 dan de 4090. En de 5080 is ongeveer hetzelfde sneller dan de 4080. En dat vind ik toch een beetje raar, want de 4090 is ook ongeveer zoveel sneller dan de 4080 in FC6. Dat zou betekenen dat de 5080 de prestaties bereikt van de 4090. Hoe kan de 5090 die dus twee keer zo zwaar is uitgerust t.o.v. de 5080 dan nog maar 27% sneller zijn dan de 4090 en 5080? Je zou beduidend meer verwachten.
Volgens deze site is de 5090 ongeveer 30 tot 40% sneller dan de 4090 op basis van afgeleide performance. https://www.dsogaming.com...faster-than-the-rtx-4090/
GPU mining legt nog andere zwaktepunten bloot.HugoBoss1985 schreef op woensdag 15 januari 2025 @ 12:38:
[...]
Weer een aparte termen omschrijving van JaysZ 2 centjes.
Ik dacht even dat het over de GPU chip cracking ging n.a.v. de titel.
Wat ook een voorkomend euvel was, vooral door mining (videokaarten in extreme gekoelde omgevingen dus veel extreme temperatuur verschillen).
"2de hands videokaart gebruikt voor mining, met oxidatie op de heatsink maar beïnvloed de werking niet" ...
- HBM geheugen mijden wegens sneuvelende geheugencontrollers
- GDDR6X mijden wegens geheugenchips die niet tegen (te)veel lezen en schrijven kunnen. Ze verslijten zoals autobanden en GPU mining doe je niet met rekenkracht, wel met geheugenbandbreedte.
Gigabyte heeft het gedeelte van de printplaat bij het PCI-E grendeltje als een grote uitsparing ipv het standaard ontwerp getekend.Gescheurde pcb's (van videokaarten... heeft niets met GPU's te maken) is wel een heel duidelijke defect.
Dit kan ook komen door het niet gebruiken van een anti-sag bracket.
Bedrijven kunnen op printplaat dikte/stijfheid besparen. Ik heb vroeger printplaten geëtst en had goedkope plooibare printplaten gekocht dat ik voor iets anders kon misbruiken.
Als een printplaat doorbuigt, dan buigen de printbanen en soldeerpads mee. De chips buigen niet mee en iets moet op termijn breken. Soldeersel vs soldeerpad.Ik heb pas nog een reparatie video gezien waar, door KrisFix-Germany, geclaimd werdt dat het doorhangen van een videokaart ook onzichtbare schade aan traces en solderingen kan veroorzaken.
Wat natuurlijk vrij logisch is.
YouTube: I Drilled this MSI RX 6900XT and It Works - Very rare problem #krisf...
Dat kan bij elke videokaart gebeuren, van elk merk.
Ik wist niet dat dit zichtbaar scheuren van het pcb een specifiek Gigabyte dingentje was.
Kijk dan zou een (Gigabyte) fabrikant hier een grote rode sticker op moeten plakken én een anti-sag bracket mee moeten leveren.
4090 met connector schade worden ook nog wel eens RMA geweigerd... dure geintjes.
Afijn kortom m.b.t. jouw post: gebruik altijd een anti-sag bracket en ga niet aan de videokaart lopen sjorren tenzij je zeker weet dat het PCI-E grendeltje van het mobo ontgrendeld is.
Een grafische kaart steunt op PCI-E slot en een schroefje. Dan zakt het aan de niet ondersteunde kant door. Je kan langs onderen steunen of met een tyraps om hoog trekken.
De 5090 heeft een derde meer cuda-cores dan de 4090, dus in combinatie met zijn royale geheugenbandbreedte lijkt dat met 30-40% toch wel aardig lineair te schalen, want de 4090 wordt aardig gebottlenecked door zijn 1 TB/s bandbreedte. De 5090 heeft daar veel meer reserves in.Senaxx schreef op woensdag 15 januari 2025 @ 13:06:
[...]
Het zal ongetwijfeld niet linear schalen. Maar het is ook lastig te zeggen wat de ruwe raster performance verschil gaat zeggen met de huidige benchmarks.
Volgens deze site is de 5090 ongeveer 30 tot 40% sneller dan de 4090 op basis van afgeleide performance. https://www.dsogaming.com...faster-than-the-rtx-4090/
Maar goed, de 5080 is gekortwiekt tot de helft, dus zou dan zo'n 60% prestaties halen van de 5090, misschien nog iets meer, omdat het dus nooit 100% lineair schaalt.
Dat zou betekenen dat als een 5090 100 fps haalt, de 4090 dan ongeveer 75 fps haalt, en de 5080 60-65 fps. Blijft natuurlijk wat theoretisch, maar het geeft een indicatie.
Ik weet dat nu echt nog niet. Ik zou misschien mijn 3080 willen upgraden. Maar naar welke? weet ik nog niet.Fuku-San schreef op woensdag 15 januari 2025 @ 09:54:
Zijn er mensen die van de 4090 naar een 5080 gaan? Ik ben benieuwd.
Sowieso wachten op de echte benchmarks en dan kijken of het voor mijn gevoel het geld waard is.
zou zomaar mogelijk zijn dat ik nog een generatie wacht.
"The wonder is, not that the field of stars is so vast, but that man has measured it."
Interessant artikel van TPU: https://www.techpowerup.c...x-50-technical-deep-dive/
https://videocardz.com/ne...ss-multi-frame-generation
Performance uplift valt tegen.
Performance uplift valt tegen.
[ Voor 10% gewijzigd door HugoBoss1985 op 15-01-2025 16:04 ]
Nogal, ja. Helemaal gezien dit van Nvidia zelf afkomstig is. Het gat tussen de 5090 en 5080 wordt zo mooi opgevuld door de 4090, die daar precies tussen invalt.HugoBoss1985 schreef op woensdag 15 januari 2025 @ 16:03:
https://videocardz.com/ne...ss-multi-frame-generation
Performance uplift valt tegen.
Waar is mijn 4090 performance voor $549 dan, Nvidia!? *pakt hooivork*HugoBoss1985 schreef op woensdag 15 januari 2025 @ 16:03:
https://videocardz.com/ne...ss-multi-frame-generation
Performance uplift valt tegen.
idd mét framegen én nieuwe dlss versie óp games dié een úpdate hebben die dát supportNitrorcr schreef op woensdag 15 januari 2025 @ 16:30:
[...]
Waar is mijn 4090 performance voor $549 dan, Nvidia!? *pakt hooivork*
"The wonder is, not that the field of stars is so vast, but that man has measured it."
Die performance valt inderdaad tegen van 40 naar 50 serie.
Echter laat ik mijn vrouw upgraden van 1070 naar 5090. En dan heb ik weinig te klagen, m.u.v. de prijs die toch wel wat consument vriendelijker mocht.
Ik verwacht dat we zo ook weer 8jaar vooruit kunnen.
Echter laat ik mijn vrouw upgraden van 1070 naar 5090. En dan heb ik weinig te klagen, m.u.v. de prijs die toch wel wat consument vriendelijker mocht.
Ik verwacht dat we zo ook weer 8jaar vooruit kunnen.
Dat kan, mits je DLSS4 aanzet.Nitrorcr schreef op woensdag 15 januari 2025 @ 16:30:
[...]
Waar is mijn 4090 performance voor $549 dan, Nvidia!? *pakt hooivork*
Maar dat was al bekend sinds de eerste dag, of was er echt iemand die geloofde dat de rasterization performance gelijk zou zijn aan de RTX 4090?
5080 maar 15% sneller dan een 4080?
Dus dan is die mss hooguit 10% sneller dan een 4080 super?
Dan zal de 5080 wss trager zijn dan een 4090...
Dat valt wel wat tegen imho
En met framegen x4 zullen ze sneller zijn, maar qua latency zullen ze dan trager zijn. 25FPS x 4 is 100 FPS maar speelt natuurlijk voor geen meter als het aanvoelt als 25FPS.
Dus dan is die mss hooguit 10% sneller dan een 4080 super?
Dan zal de 5080 wss trager zijn dan een 4090...
Dat valt wel wat tegen imho
En met framegen x4 zullen ze sneller zijn, maar qua latency zullen ze dan trager zijn. 25FPS x 4 is 100 FPS maar speelt natuurlijk voor geen meter als het aanvoelt als 25FPS.
[ Voor 14% gewijzigd door Format-C op 15-01-2025 17:20 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
“Impossible without Artificial Intelligence!”Nitrorcr schreef op woensdag 15 januari 2025 @ 16:30:
[...]
Waar is mijn 4090 performance voor $549 dan, Nvidia!? *pakt hooivork*
Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Tis even afwachten maar dat zeg ik al zins aankondiging. 5090 dikke kaart alles daar onder is 1 en al AI geouwehoer. Dus misschien toch maar een 4090 zoeken een keer.......Format-C schreef op woensdag 15 januari 2025 @ 16:56:
5080 maar 15% sneller dan een 4080?
Dus dan is die mss hooguit 10% sneller dan een 4080 super?
Dan zal de 5080 wss trager zijn dan een 4090...
Dat valt wel wat tegen imho
En met framegen x3 zullen ze sneller zijn, maar qua latency zullen ze dan trager zijn
Maar we wachten de reviews even af
[ Voor 9% gewijzigd door JWFpeters op 15-01-2025 17:18 ]
De AMD 9070 kan dus ook best eens interessant worden als die net zo snel is als een 4080 of 4080 super en als die een stuk goedkoper wordt.
En een 4080 super voor 1000 euro zou ook wel eens heel interessant kunnen zijn / blijven tov een 5080 die 3 a 400 duurder is.
Had niet verwacht dat het verschil maar zo klein zou zijn.
Even afwachten nog, maar had echt wel wat meer verwacht. En had niet verwacht (dat als dit echt zo is allemaal) dat de 4090 gewoon tussen de 5080 en 5090 in blijft zitten.
Edit; als je naar de pricing kijkt schieten we er ook eigenlijk niets mee op... Verhoudingsgewijs. Hopelijk gaat de 9070XT ass kicken "voor minder"... zodat de nvidia prijzen wat omlaag gaan/ moeten.
En een 4080 super voor 1000 euro zou ook wel eens heel interessant kunnen zijn / blijven tov een 5080 die 3 a 400 duurder is.
Had niet verwacht dat het verschil maar zo klein zou zijn.
Even afwachten nog, maar had echt wel wat meer verwacht. En had niet verwacht (dat als dit echt zo is allemaal) dat de 4090 gewoon tussen de 5080 en 5090 in blijft zitten.
Edit; als je naar de pricing kijkt schieten we er ook eigenlijk niets mee op... Verhoudingsgewijs. Hopelijk gaat de 9070XT ass kicken "voor minder"... zodat de nvidia prijzen wat omlaag gaan/ moeten.
[ Voor 35% gewijzigd door Format-C op 15-01-2025 17:18 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Letterlijk een dikke kaart ook 🤣JWFpeters schreef op woensdag 15 januari 2025 @ 17:01:
[...]
Tis even afwachten maar dat zeg ik al zins aankondiging haha. 5090 dikke kaart alles daar onder is 1 en al AI geouwehoer.
Tja, de 4090 heeft nog altijd 16.384 cuda cores (versus 10.752 voor de 5080). Blackwell zou bijzonder efficiënt moeten zijn om dat gat te kunnen dichten.Format-C schreef op woensdag 15 januari 2025 @ 17:03:
Even afwachten nog, maar had echt wel wat meer verwacht. En had niet verwacht (dat als dit echt zo is allemaal) dat de 4090 gewoon tussen de 5080 en 5090 in blijft zitten.
Maar dan weten we alvast hoe de 5080 Ti eruit komt te zien
Nee daar moeten we weer de 4090 voor hebben, wat maken ze het toch ingewikkeld allemaal
en ook wat die gaat kosten... 🤔😱XWB schreef op woensdag 15 januari 2025 @ 17:18:
[...]
Tja, de 4090 heeft nog altijd 16.384 cuda cores (versus 10.752 voor de 5080). Blackwell zou bijzonder efficiënt moeten zijn om dat gat te kunnen dichten.
Maar dan weten we alvast hoe de 5080 Ti eruit komt te zien
Edit; zal binnenkort een 9800X3D (of een 9900X3D/9950X3D) in mn pc drukken voor wat extra performance... En dan zie ik daarna wel verder. Dit is iig een beetje meh.
[ Voor 18% gewijzigd door Format-C op 15-01-2025 17:25 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik vond in ieder geval de koeling en het kleine pcb van de 50xx wel mooi.
Het is ook interessant om te zien dat Nvidia schijnbaar liquid metal voor de FE variant gebruikt, met een soort (zo lijkt het?) rubberen mof om de die heen, om componenten daar te beschermen tegen liquid metal.
Ik ben benieuwd hoe zich dit verhoudt tot koelpasta en pcm (op de langere termijn).
"repasten" lijkt mij hierdoor nog wel een veel lastiger verhaal.
Ik denk niet dat het verstandig (en nuttig?) is om een kaart met liquid metal uit elkaar te halen om daar iets aan te veranderen?
Ik ben geen Nvidia fan maar persoonlijk vind ik dit wel mooi en strak.
En een dual slot 5090 kaart vind ik toch ook wel indrukwekkend met dit soort wattages.
https://videocardz.com/ne...ers-edition-cooler-design
Het is ook interessant om te zien dat Nvidia schijnbaar liquid metal voor de FE variant gebruikt, met een soort (zo lijkt het?) rubberen mof om de die heen, om componenten daar te beschermen tegen liquid metal.
Ik ben benieuwd hoe zich dit verhoudt tot koelpasta en pcm (op de langere termijn).
"repasten" lijkt mij hierdoor nog wel een veel lastiger verhaal.
Ik denk niet dat het verstandig (en nuttig?) is om een kaart met liquid metal uit elkaar te halen om daar iets aan te veranderen?
Ik ben geen Nvidia fan maar persoonlijk vind ik dit wel mooi en strak.
En een dual slot 5090 kaart vind ik toch ook wel indrukwekkend met dit soort wattages.
https://videocardz.com/ne...ers-edition-cooler-design
[ Voor 52% gewijzigd door HugoBoss1985 op 15-01-2025 17:58 ]
Ben pas van de 7700+ naar de 9800X3D gegaan, met mijn 4090 , op 4k is het zoals verwacht niet heel schokkend.Format-C schreef op woensdag 15 januari 2025 @ 17:22:
[...]
Edit; zal binnenkort een 9800X3D (of een 9900X3D/9950X3D) in mn pc drukken voor wat extra performance... En dan zie ik daarna wel verder. Dit is iig een beetje meh.
Had ook zin in de 5090, maar voelt tot nu toe een beetje meh meh... Tov de 4090
Computer nr 486 denk ik..
Kijk je naar de RTX5070 met die getallen, dan doet die het relatief beter met weinig extra shaders, maar in performance per watt gaat hij eerder achteruit tov de RTX4070. En natuurlijk heb je normaal niet perfecte lineaire schaling tussen ruwe rekenkracht en FPS, maar het lijkt wel dat iig voor Nvidia bij deze generatie de hardware eigenlijk niet tot nauwelijks efficienter is geworden. Bij AMD misschien wel wat, maar niet naar beter niveau dan Nvidia iig. Lijkt allemaal redelijk gerommel in de marge te worden deze generatie.
Ja op 4k zal het idd niet heel erg veel opleveren.BlaBla1973 schreef op woensdag 15 januari 2025 @ 18:19:
[...]
Ben pas van de 7700+ naar de 9800X3D gegaan, met mijn 4090 , op 4k is het zoals verwacht niet heel schokkend.
Had ook zin in de 5090, maar voelt tot nu toe een beetje meh meh... Tov de 4090
Ik speel op 5120x1440. Dat is tussen 3440 en 4k in.
Mss heb ik er iets meer baat bij.
Als de performance (zonder trucjes) van de 5080 en 5090 zo is als het lijkt dan zal de 4090 voorlopig nog wel zn waarde houden en zal de 4090 relevant blijven. Edit: en de 4080 super ook. En de 9070XT ook als die gunstig geprijsd gaat worden en grofweg net zo presteert als de 4080.
De performance per euro van nV kaarten wordt met de nieuwe serie niet beter zoals het nu lijkt.
Hopelijk gaat /kan AMD die 9070XT een agressieve prijs geven.
[ Voor 13% gewijzigd door Format-C op 15-01-2025 18:47 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het is ook min of meer dezelfde node: 4NP (Blackwell) is een optimalisatie van 4N (Ada), wat op zijn beurt ook een optimalisatie was van 5N.Sissors schreef op woensdag 15 januari 2025 @ 18:39:
Kijk je naar de RTX5070 met die getallen, dan doet die het relatief beter met weinig extra shaders, maar in performance per watt gaat hij eerder achteruit tov de RTX4070. En natuurlijk heb je normaal niet perfecte lineaire schaling tussen ruwe rekenkracht en FPS, maar het lijkt wel dat iig voor Nvidia bij deze generatie de hardware eigenlijk niet tot nauwelijks efficienter is geworden. Bij AMD misschien wel wat, maar niet naar beter niveau dan Nvidia iig. Lijkt allemaal redelijk gerommel in de marge te worden deze generatie.
Maar als we het alleen moeten hebben van snellere procedés en geen architectuur verbeteringen, dan gaat het komende jaren tegen vallen. Want hoewel Moores law niet compleet dood is, is hij op veel vlakken toch echt aan het afvlakken.XWB schreef op woensdag 15 januari 2025 @ 18:52:
[...]
Het is ook min of meer dezelfde node: 4NP (Blackwell) is gewoon een optimalisatie van 4N (Ada), wat op zijn beurt ook maar een optimalisatie was van 5N.
5090 zonder framegen en zonder DLSS 28fps in cyberpunk 4k maxed out en dat is tijdens een beetje rondkijken op de stoep terwijl er niks gebeurd.
Ik heb zelf geen 4090 dus geen idee hoe groot het verschil is maar wellicht dat 4090 eigenaars hier dat wel weten
Ik heb zelf geen 4090 dus geen idee hoe groot het verschil is maar wellicht dat 4090 eigenaars hier dat wel weten
a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.
Verschil is 7 framesNosferatuX schreef op woensdag 15 januari 2025 @ 20:17:
5090 zonder framegen en zonder DLSS 28fps in cyberpunk 4k maxed out en dat is tijdens een beetje rondkijken op de stoep terwijl er niks gebeurd.
Ik heb zelf geen 4090 dus geen idee hoe groot het verschil is maar wellicht dat 4090 eigenaars hier dat wel weten
De grote sprongen in nodes zijn sowieso al verleden tijd.Sissors schreef op woensdag 15 januari 2025 @ 19:02:
[...]
Maar als we het alleen moeten hebben van snellere procedés en geen architectuur verbeteringen,
Tja, ziedaar de RTX 50 series. Min of meer dezelfde node en bijna geen verbeteringen in de architectuur. Want die Blackwell cuda cores zijn bijna dezelfde van Ada, er is niets bijzonders aan.dan gaat het komende jaren tegen vallen.
Dan krijg je effectief 9.728 cuda cores (RTX 4080) versus 10.752 cuda cores (RTX 5080). Dan snap ik wel dat die laatste nauwelijks sneller is dan de vorige.
Daarom zet Nvidia vol in op AI en zien we features zoals multi frame generation.
Dat je in CP2077 op 4K met alle toeters en bellen aan de 30fps aantikt vind ik toch wel goed. Met path tracing in het bijzonder zal elke GPU het in de komende jaren moeilijk hebben. Ik zal niet de 5090 kopen, maar ik begrijp niet wat de meeste mensen hadden verwacht.NosferatuX schreef op woensdag 15 januari 2025 @ 20:17:
5090 zonder framegen en zonder DLSS 28fps in cyberpunk 4k maxed out en dat is tijdens een beetje rondkijken op de stoep terwijl er niks gebeurd.
Ik heb zelf geen 4090 dus geen idee hoe groot het verschil is maar wellicht dat 4090 eigenaars hier dat wel weten
In de 5080 ben ik wel teleurgesteld, te weinig RAM en had wel wat beter gekund tov de 4080. Dat is wel jammer.
Ja op de 5090 na had dit eigenlijk de 40 SS upgrade moeten zijn, maar ik snap dat dit marketingtechnisch lastig valt. Ben benieuwd wat ze allemaal nog tussen de 5080 en 5090 gaan proppen gezien er genoeg ruimte is. Een S en TI en dan een TI S?
Hoe dan ook geeft het mij niet de drang om een 5080 te kopen nu, want het voelt echt als een minimale upgrade die gemaakt is om meer kaarten te kunnen introduceren.
Hoe dan ook geeft het mij niet de drang om een 5080 te kopen nu, want het voelt echt als een minimale upgrade die gemaakt is om meer kaarten te kunnen introduceren.
Mja, maar wel even eerlijk de introductieprijs is wel fors lager ($200) dan die van de 4080. Hoewel ik het wel eens ben dat het een beetje vreemde kaart is wellicht, ik zag op Reddit ook al voorbijkomen dat de 2080 beter was dan de 1080 ti, de 3080 beter dan de 2080 ti, de 4080 beter dan de 3090 en nu lijken we voor het eerst te zien dat de xx80 niet over de xx90 van de vorige generatie heen gaat maar daar omheen hangt.
youtube.com/@hisrep
Ik zie deze vraag veel en het is ook een zeer logische vraag gezien de gap tussen de xx90 en xx80 bij de 50-series wel erg groot is geworden, maar ik betwijfel het of Nvidia een kaart gaat uitbrengen die dat gat echt mooi gaat dichten. Idealiter zou dat een 5080 Ti zijn met pak 'm beet 16xxx cuda-cores en 24 GB VRAM aan 384-bit databus. Eigenlijk de specificaties van de 4090, maar dan met de geoptimaliseerde procedé en architectuur van de 50-series. Nvidia heeft dat gat niet echt gedicht bij de 40-series met de 4080 Super, deze is immers amper sneller dan de 4080. Dus waarom zouden ze dat in deze series wel gaan doen, helemaal nu er geen concurrentie meer is van AMD in het highend-segment?Beakzz schreef op woensdag 15 januari 2025 @ 22:14:
Ja op de 5090 na had dit eigenlijk de 40 SS upgrade moeten zijn, maar ik snap dat dit marketingtechnisch lastig valt. Ben benieuwd wat ze allemaal nog tussen de 5080 en 5090 gaan proppen gezien er genoeg ruimte is. Een S en TI en dan een TI S?
Hoe dan ook geeft het mij niet de drang om een 5080 te kopen nu, want het voelt echt als een minimale upgrade die gemaakt is om meer kaarten te kunnen introduceren.
Ik ga proberen de 5080 FE te kopen. Ik ben wel benieuwd, een 5090 is me veel te duur. Ik kan ook wel gaan wachten op een potentiele 5080Ti of Super, maar als het meer dan pak hem beet 1200 euro gaat kosten dan vind ik het wel mooi geweest. En dat is áls er al een 5080Ti komt. DF heeft het e.e.a. aan mooie demo’s gezien van features die waarschijnlijk een stuk beter op Blackwell draaien dan op Lovelace. DLSS4 i.c.m. het nieuwe upscaling model is sowieso veel zwaarder en zal beter draaien op de 50 serie dan wat ervoor kwam. Ik had liever een 5080 gezien die qua VRAM en core count in de buurt van de 4090 kwam, maar goed.
Reken maar dat hij duurder wordt, de 5080 fe gaat hier al boven de 1200 kosten.Thomas schreef op woensdag 15 januari 2025 @ 22:44:
Ik ga proberen de 5080 FE te kopen. Ik ben wel benieuwd, een 5090 is me veel te duur. Ik kan ook wel gaan wachten op een potentiele 5080Ti of Super, maar als het meer dan pak hem beet 1200 euro gaat kosten dan vind ik het wel mooi geweest. En dat is áls er al een 5080Ti komt. DF heeft het e.e.a. aan mooie demo’s gezien van features die waarschijnlijk een stuk beter op Blackwell draaien dan op Lovelace. DLSS4 i.c.m. het nieuwe upscaling model is sowieso veel zwaarder en zal beter draaien op de 50 serie dan wat ervoor kwam. Ik had liever een 5080 gezien die qua VRAM en core count in de buurt van de 4090 kwam, maar goed.
"Tja, ziedaar de RTX 50 series. Min of meer dezelfde node en bijna geen verbeteringen in de architectuur. Want die Blackwell cuda cores zijn bijna dezelfde van Ada, er is niets bijzonders aan."
Hoe maak je dan een veel betere core dan de Ada en Blackwell core?
Hoe maak je dan een veel betere core dan de Ada en Blackwell core?
Het zou wat zijn als de reviewers zometeen aangeven dat frame gen prima werkt met minimaal tot haast geen latency issues. Ik ga er niet van uit, maar ik wacht het lekker af.
5090 vind ik echt te duur.
[ Voor 7% gewijzigd door Ambition88 op 16-01-2025 00:03 ]
Dan gaan we 28nm opnieuw doen wegens 3nm blijft te duur zolang 2nm nog niet productie gaat. 3nm wordt de tweede keuze voor wie niet 2nm prijzen wilt betalen.Sissors schreef op woensdag 15 januari 2025 @ 19:02:
[...]
Maar als we het alleen moeten hebben van snellere procedés en geen architectuur verbeteringen, dan gaat het komende jaren tegen vallen. Want hoewel Moores law niet compleet dood is, is hij op veel vlakken toch echt aan het afvlakken.
Als 2nm niet snel genoeg in productie gaat en eerste keuze voor de duurste chips worden, dan blijft 3nm te duur/zeldzaam om aan gaming GPU's toegewezen te worden.
Zo was het de vorige keer dat 3 generaties op dezelfde process node bleef:
:strip_exif()/f/image/ONiqLow95KTZfZKSCvxRuNRE.jpg?f=fotoalbum_large)
Voor hetzelfde geld kreeg je door de generaties een grotere chip met meer performance of dezelfde performanceniveau werd goedkoper. TechPowerUp relative performance in vergelijking met mijn GTX 760 dat ik tot bijna de 10de verjaardag gebruikt had.
[ Voor 12% gewijzigd door rapture op 16-01-2025 00:06 ]
Same here mbt vram. 20/24 gb was echt geen straf geweest maar goed.Thomas schreef op woensdag 15 januari 2025 @ 22:44:
Ik ga proberen de 5080 FE te kopen. Ik ben wel benieuwd, een 5090 is me veel te duur. Ik kan ook wel gaan wachten op een potentiele 5080Ti of Super, maar als het meer dan pak hem beet 1200 euro gaat kosten dan vind ik het wel mooi geweest. En dat is áls er al een 5080Ti komt. DF heeft het e.e.a. aan mooie demo’s gezien van features die waarschijnlijk een stuk beter op Blackwell draaien dan op Lovelace. DLSS4 i.c.m. het nieuwe upscaling model is sowieso veel zwaarder en zal beter draaien op de 50 serie dan wat ervoor kwam. Ik had liever een 5080 gezien die qua VRAM en core count in de buurt van de 4090 kwam, maar goed.
Snap dat voor mensen die nu een 4080 super / 4090 hebben, minder enthousiast zijn maar toch biedt de 50x0 serie ook andere voordelen. Bijv. als je volledig gebruik wilt maken van je 57 inch Samsung scherm op 240hz, heb je toch de nieuwste displayport nodig (2.1).
De 4090 is krachtig genoeg maar wordt weer belemmerd door dp 1.4.
Daarnaast, ong 15% betere prestaties (en ook 15% duurder) vind ik prima deal als ik de 4080 super vergelijk met de 5080.
Dat is het in eerste instantie ook, volgens mij. Die 15% sneller is trouwens ten opzichte van de 4080 non-Super.FireBladeX schreef op donderdag 16 januari 2025 @ 06:06:
[...]
Daarnaast, ong 15% betere prestaties (en ook 15% duurder) vind ik prima deal als ik de 4080 super vergelijk met de 5080.
Hoe dan ook, de vraag is echter voor hoelang de 5080 met zijn wat magere 16 GB zo'n 15% sneller blijft dan de 4080 die evenveel VRAM heeft. Als er in de toekomst games uitkomen die bijvoorbeeld 18-20 GB nodig hebben, dan verdwijnt die winst van 15% voor een groot deel, aangezien beide gpu's dan tegen dezelfde bottleneck aanlopen.
Fabrikanten beginnen nu ook eindelijk de kloksnelheden van de 5090-modellen in de specificaties op de productpagina te vullen. Dat betekent dat Nvidia de definitieve referentie kloksnelheden vast heeft gelegd. Hier bijvoorbeeld Zotac: https://www.zotac.com/us/...ng-geforce-rtx-5090-solid
[ Voor 20% gewijzigd door Degrader op 16-01-2025 07:30 ]
Dat nvidia de vergelijking doet met de non-super is wel verdacht vind ik en doet me twijfelen of ik niet een 4080 super moet kopen zolang ze er nog zijn. Prestatie zal iets minder zijn maar is ook n stukje goedkoper.
Ik snap je zorgen maar nogmaals, 2,7% van alle gamers hebben meer dan 16gb vram. En games die nu tegen 15-16gb aanhikken zijn gewoon echt slecht geoptimaliseerde games (laten we niet over hebben over het feit dat er memory leaks kunnen plaatsvinden en dat sommige games alle geheugen claimen zonder er gebruik van te maken).Degrader schreef op donderdag 16 januari 2025 @ 07:16:
[...]
Dat is het in eerste instantie ook, volgens mij. Die 15% sneller is trouwens ten opzichte van de 4080 non-Super.
Hoe dan ook, de vraag is echter voor hoelang de 5080 met zijn wat magere 16 GB zo'n 15% sneller blijft dan de 4080 die evenveel VRAM heeft. Als er in de toekomst games uitkomen die bijvoorbeeld 18-20 GB nodig hebben, dan verdwijnt die winst van 15% voor een groot deel, aangezien beide gpu's dan tegen dezelfde bottleneck aanlopen.
Blijf het herhalen: VR gaming, multi-4K schermen, 8K schermen icm alle hoogste resolutie, ray tracing en dlss = ja, je zult meer dan 16gb nodig hebben maar dat soort instelling brengt huidige 4090 ook op z’n knieën en ga je ergens anders bottlenecks hebben ipv vram grootte.
Speel je op 1 4K scherm of 1440p. Dan ga je komende 4 jaar nog echt niet tegen problemen aanlopen dat 16gb onvoldoende is of een bottleneck gaat veroorzaken tenzij een game slecht geoptimaliseerd is. En nogmaals, er zijn instellingen wat je kunt tweaken om nogsteeds beste prestaties te halen zonder in te leveren op zichtbare grafische instellingen.
Het heeft alles weg van fomo en vinden dat als je voor 1200 euro een gpu koopt, dat je alles maxed out kan spelen op 500 fps. De suggestie om instelling te tweaken is voor sommige als vloeken in de kerk.
Er zijn wat VR dingen, vooral wat sim dingen die een VR modus hebben naast de reguliere, waar je nu echt al een 4090 voor wil, en die gebruiken volgens mij ook vaak veel VRAM. Maar algemeen hoewel je bij VR hoge resoluties hebt, wil je ook hoge framerates zonder enige stottering. Dus dan wil je vaak al relatief lagere settings gebruiken, waarbij VRAM minder snel een issue zou moeten zijn.FireBladeX schreef op donderdag 16 januari 2025 @ 07:35:
[...]
Blijf het herhalen: VR gaming, multi-4K schermen, 8K schermen icm alle hoogste resolutie, ray tracing en dlss = ja, je zult meer dan 16gb nodig hebben maar dat soort instelling brengt huidige 4090 ook op z’n knieën en ga je ergens anders bottlenecks hebben ipv vram grootte.
Punt blijft wel voor mij: Zelfs als dat zo is? Ja dat is leuk voor de AAA games die het ondersteunen. Maar hoe zit het met alle spellen die het niet ondersteunen?Ambition88 schreef op donderdag 16 januari 2025 @ 00:03:
Het zou wat zijn als de reviewers zometeen aangeven dat frame gen prima werkt met minimaal tot haast geen latency issues. Ik ga er niet van uit, maar ik wacht het lekker af.5090 vind ik echt te duur.
Zoals direct bij launch duidelijk was, is de verbetering beperkt. Het verbaasd mij dat veel mensen dit blijkbaar toch niet meteen zagen maar afgingen op marketingkreten.JoeB2C schreef op dinsdag 7 januari 2025 @ 08:18:
Lijkt erop dat de 5080 circa 20% sneller is dan de 4080 en de 5090 circa 30% sneller dan de 4090, even uitgaande van de rekenkracht van de chips en geheugenbandbreedte. Prima iteratie, niet wereldschokkend.
Framegen ia voor mij als vr flightsimmer daarentegen wel een interessante toevoeging. Die latency en artefacts zijn minder relevant dan bij een shooter oid.
[ Voor 14% gewijzigd door JoeB2C op 16-01-2025 08:30 ]
Latency is natuurlijk juist heel belangrijk bij VR. Al kan ik me voorstellen dat bij relatief rustige VR als een flightsim de impact minder is, en hopelijk dat timewarp de ergste latency genoeg kan onderdrukken erbij.JoeB2C schreef op donderdag 16 januari 2025 @ 08:28:
[...]
Zoals direct bij launch duidelijk was, is de verbetering beperkt. Het verbaasd mij dat veel mensen dit blijkbaar toch niet meteen zagen maar afgingen op marketingkreten.
Framegen ia voor mij als vr flightsimmer daarentegen wel een interessante toevoeging. Die latency en artefacts zijn minder relevant dan bij een shooter oid.
Let op:
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.