Ben benieuwd wat de nieuwe serie voor de 2e hands markt gaat betekenen, ik vind die prijzen daar nog altijd best fors, als je ziet hoe oud die kaarten ondertussen zijn.
Maar de 16xx is ook een ander platform als een 20xx GPU (zover mij bekend iig, sowieso qua raytracing / tensor cores). Los daarvan zijn GPUs natuurlijk enorm makkelijk te schalen, veel makkelijker dan auto's. Je kan immers gewoon meer of minder compute units op een die gooien.Werelds schreef op donderdag 20 augustus 2020 @ 14:14:
[...]
Dit is waar de vergelijking met auto's echter niet 1:1 werkt. Een Aygo staat op een geheel ander platform dan een Supra; geinig dat je ook juist die twee neemt, aangezien de laatste nu een BMW is
Ik mis je punt niet, ik begrijp het prima. Ik geloof alleen niet erin dat je punt juist is. Je kan prima een high-end GPU maken die geen invloed heeft op lower-end markt. Juist ook omdat GPU producten zo goed schalen, en anders moet je desnoods een extra lijn maken voor het goedkopere segment. En als die markt er is, kan dat prima uit*. En moeten we ons anders ook druk maken over de datacenter producten? Of staan die er dan weer wel los van?Nogmaals, je mist volledig het punt. Het gaat er niet om of er wel of niet producten binnen een bepaalde prijsrange zijn. Als er in dat segment iets te verkopen valt, komen er inderdaad vast wel producten. Het gaat er om dat in de bestaande segmenten er al 4 jaar nauwelijks een verschuiving is doordat alle producten zo'n beetje een heel segment omhoog geschoven zijn - de 2080 Ti zelfs wel twee of drie segmenten. Nogmaals, zelfs in het segment van een 1080 Ti / 2080 Super (pak 'm beet €700) is er geen reden om een nieuwere kaart te kopen, behalve dan de e-peen factor.
Het gaat niet specifiek om de prijs van een specifiek product. Het gaat om wat de prijs van het top product betekent voor de rest van de range. Stel nu dat de 3090 een GA102 (de "big daddy chip") betreft en bijvoorbeeld +50% levert over TU102 (2080 Ti). Als Nvidia die op €2000 positioneert, betekent dat automatisch dat je in elk segment minimaal 50% meer moet gaan betalen voor diezelfde 30% bump. Tegen de tijd dat je dan in het "sweet spot" (€300-€400) segment komt (waar het meeste verkocht wordt) is er gewoon geen mogelijkheid om daar iets te bieden dat beter is dan het huidige (of het vorige) aanbod in dat segment. De 3090 of 2080 Ti zijn geen halo producten.
* Ja een 7nm mask set is prijzig, maar nou ook weer niet zo prijzig. Hier op Tweakers wordt vaak naar bedrijven als AMD, Intel, Nvidia en Qualcomm gekeken, die maar een paar producten uiteindelijk aanbieden. Maar kijk je naar de STMs, NXPs, TIs, etc, die bieden honderden verschillende producten aan.
Ja en nee. TU116 is meer zoiets als hoe men motoren gebruikt in sommige auto's. Zo kan een blok in een snellere variant van een auto geüpgraded worden: sterkere krukas, iets andere zuigers, iets grotere turbo - maar het is in wezen hetzelfde blok. Dat is wat TU116 is: het is "gewoon" een grote Turing, maar dan met de TC in een SM vervangen door FP16 ALU's en de RTC er uit gehaald. Klinkt eenvoudiger dan het is natuurlijk, maar architectureel is er maar weinig veranderd. Alles eromheen (caches, ROPs, etc.) is allemaal identiek aan TU10x.Sissors schreef op donderdag 20 augustus 2020 @ 14:39:
Maar de 16xx is ook een ander platform als een 20xx GPU (zover mij bekend iig, sowieso qua raytracing / tensor cores). Los daarvan zijn GPUs natuurlijk enorm makkelijk te schalen, veel makkelijker dan auto's. Je kan immers gewoon meer of minder compute units op een die gooien.
Ze hebben echter ook minder SM's gebruikt. En dit is het cruciale punt: hadden ze dat niet gedaan, dan had de 1660 Ti identiek aan de 2060 gepresteerd in alles behalve RT. En dat komt door jouw andere punt: GPU's schalen relatief goed. Er is uiteraard een limiet; je kunt niet blindelings ALU's toe blijven voegen, je loopt vanzelf tegen een bottleneck aan. Maar TU116 heeft 25% minder ALU's dan TU106 - en laat het performance verschil nu eens slechts zo'n 15%-20% zijn?
En dat is wat ik bedoel. Ze hadden TU116 niet sneller kunnen maken dan hij is, maar ook niet goedkoper. In beide gevallen prijzen ze dan zichzelf uit de markt door de positionering van alles er boven. Dat ding is ontworpen en gepositioneerd op basis van de chips er boven. Zo ontwerpen ze al jaren hun lineups: top down, niet bottom up.
Datacenter producten staan er inderdaad los van. Daar zitten andere dingen aan vast: andere TDP's, andere koelingsopties, interconnects, ECC en ga zo maar door.Ik mis je punt niet, ik begrijp het prima. Ik geloof alleen niet erin dat je punt juist is. Je kan prima een high-end GPU maken die geen invloed heeft op lower-end markt. Juist ook omdat GPU producten zo goed schalen, en anders moet je desnoods een extra lijn maken voor het goedkopere segment. En als die markt er is, kan dat prima uit*. En moeten we ons anders ook druk maken over de datacenter producten? Of staan die er dan weer wel los van?
Een aparte chip maken voor een lager segment kan best. Dat doen Nvidia en AMD ook al jaren. Er is echter een fundamenteel principe voor GPU performance waar ze niet onderuit komen en daardoor kunnen ze niet zomaar een chip maken waar ze RTX (ik zal dat maar als noemer voor RT + TC gebruiken) uit slopen en optioneel vervangen door andere ALU's. RTX is bijzaak en dat zal het de komende jaren nog zo blijven. Zodra dat vervangen wordt door "oude" ALU's gaan de "mindere" producten hun duurdere broertjes en zusjes voorbijstreven in 90% van alle games. Denk je dat de 2060 nog zou verkopen als de 1660 even veel FP32 ALU's had gehad en daardoor in alles behalve games met RT verslagen zou worden? Dat is hoe dicht die producten op elkaar zitten. Sterker nog, de FP16 cores in TU116 zijn efficiënter voor pure FP16 ops, dus als dat meer gebruikt werd zou dat een extra voordeel voor TU116 zijn.
Vergeet ook niet dat de gehele Turing lineup uit slechts 3 chips bestaat. Dat waren TU102, TU104 en TU106; die laatste is vervangen door TU116. Meer verschillende chips produceren kan ook niet zomaar, daar moet capaciteit voor zijn bij de bakkers. Al deze chips hebben hun eigen tooling nodig. Dat is niet cost-effective, dus daarom is de 2060 tegenwoordig een verder gecastreerde versie van TU104. Zo hebben ze meer opbrengst per wafer.
Het is overigens ook weer niet zo alsof alleen de RTX kaarten zo duur zijn en het verkoopt toch wel allemaal.
R9 295X2 was $1500:
https://www.techpowerup.com/review/amd-r9-295-x2/
Titan-Z was €2500-3000 en werd zo'n €1500-2000 later:
nieuws: Prijs Nvidia Titan Z daalt met 1000 euro
De huidige Titan zit op €2.749 en mensen kopen er best wel wat, tot 2 aan toe:
https://www.overclock.net...tan-rtx-owner-s-club.html
R9 295X2 was $1500:
https://www.techpowerup.com/review/amd-r9-295-x2/
Titan-Z was €2500-3000 en werd zo'n €1500-2000 later:
nieuws: Prijs Nvidia Titan Z daalt met 1000 euro
De huidige Titan zit op €2.749 en mensen kopen er best wel wat, tot 2 aan toe:
https://www.overclock.net...tan-rtx-owner-s-club.html
Ben ik nou de enige die zich helemaal niet druk maakt over de geruchten omtrent de prijzen? Waarschijnlijk heeft Nvidia ze nog helemaal niet vastgesteld, dus je daar nu zorgen over maken is ook wat contraproductief. 
Neemt niet weg dat ik niet verwacht dat Nvidia de SKU's minder duur zal maken. Met name xx70 en xx80 zie ik ze eerder nog duurder maken. Ik denk dat er ook een strategie achter zit. Met Turing denk ik dat Nvidia niet eens gericht was op de mensen met een Pascal. Nee, ik denk dat Nvidia daar bewust heeft geprobeerd om de mensen die relatief goedkoop in zijn gestapt met Maxwell, nu vast te houden en een premium te laten betalen. Bij gebrek aan concurrentie voor bijna een jaar, lijkt dat ook aardig te zijn gelukt. Ik denk dat heel wat mensen van een GTX970 naar een RTX2060 of RTX2070 zijn gegaan of van een GTX960 naar een GTX1660. Gemopper over de prijzen maakt niks uit als mensen het kopen. Het werd iets complexer met de RX5700(XT), maar daar schoot de concurrent zichzelf een aantal maanden aardig in de voet, meermaals, zoals traditie vereist...
Nu zitten we aan de Pascal vervanging en Pascal was al een stap duurder dan Maxwell, dus waarschijnlijk mag je ook wat verwachten qua prijzen. Hoe verantwoordt je dat? Nou meer SKU's lanceren om mensen de indruk te geven dat er veel keuze is en elke stap ook echt zinvol is. Dat zagen we al met Turing waar een paar opties gewoon overbodig zijn en ontworpen lijken te zijn om je een niveau omhoog te duwen. Beste voorbeeld is wel GTX1660Ti naar RTX2060. Alsnog is er een gat tussen de RTX2080S en RTX2080Ti en ik vermoed dat Nvidia dat wil gaan vullen met het hele RTX3090 verhaal. Je kan die lanceren en de RTX3080 en een RTX3080Ti later lanceren als je weet wat Navi 21 precies doet. Nee, ik eigenlijk denk niet dat Navi 21 echt sneller gaat zijn dan GA-102. Met GA-104, wat dat ook moge zijn, zie ik Nvidia de boel ook veel verder uitrekken met SKU's zoals RTX3070Ti, RTX3070, RTX3060Ti etc. Alles om maar de indruk te geven dat je telkens een stap omhoog kan zetten, wat eigenlijk geen stap is. Ook verwacht ik dat Nvidia hun xx50, xx60 en xx70 nog steeds zal positioneren als instap, mainstream en beginpunt van high end. De prijzen gaan daar waarschijnlijk weinig in reflecteren met wat wij als beter geïnformeerde consumenten beschouwen als acceptabele prijzen, maar dat is het doel ook niet. Het gaat om de perceptie creëren dat dit gangbare prijzen zijn voor dit soort segmenten.
Nvidia is ook vrij om hoog te gaan zitten omdat ze wederom als eerste lanceren en ik denk dat niemand eraan twijfelt dat ze beginnen met GA-102. Ze kunnen altijd een beetje gaan zakken met de launch van RDNA2 of natuurlijk de Cyberpunk 2077 bundel lanceren. Voorlopig gaat het om marges maken op early adopters. Over minder dan twee weken weten we het waarschijnlijk, en dan gaan we allemaal los hoe belachelijk die prijzen zijn.
Maar uiteindelijk is het ook een mentaliteitsprobleem. Met Turing was de RTX2080(S) eigenlijk zwak, dus mensen lijken massaal de RTX2070(S) te hebben gekocht. Die was alleen ook veel te duur, maar leek voordelig te zijn omdat de RTX2080(S) zwak is. Precies hetzelfde gebeurde met de GTX1080 en GTX1070 en ik verwacht eigenlijk niet anders nu. Nvidia haar strategie is ook gebaseerd op meerdere pilaren. Ze pushen de "beste" kaart omhoog in prijs, ook al is de xx80Ti al enkele generaties niet het beste dat je kan krijgen. Die zetten ze een beetje op eenzame hoogte en dan volgt de xx80 die ook meestal te duur is, waarna ze een xx70 hebben die zowaar "voordelig" lijkt te zijn. Die kopen mensen dus. Dan is er xx60 waar ze constant proberen om je een niveau hoger te krijgen. Naar de xx70 duwen of nu met Turing van GTX1660Ti/S naar RTX2060(S) of met Pascal naar de echte GTX1060 6GB. Hetzelfde doet Nvidia met hun xx50. Daar proberen ze je actief naar een xx60 te pushen zodat je meer uitgeeft dan je van plan was. En dat is het mentaliteitsprobleem, namelijk zo makkelijk meer uitgeven voor iets dat eigenlijk niet veel beter is, maar wel lijkt. Vervolgens moppert iedereen elke generatie weer dat het zo duur is. Hoe zou dat toch komen? Het mooiste is nog wel dat ik nu al mensen heb gezien die beginnen met "ja maar dankzij RDNA2 gaan de prijzen van Ampère vast wel omlaag", implicerend dat ze dan alsnog een Ampère kopen als dit gebeurd.
edit: Wat me ook te binnen schiet is het volgende. Ik denk dat Nvidia je eigenlijk bepaalde SKU's niet wil verkopen. xx50 omdat er waarschijnlijk te weinig marge op zit voor ze, maar vooral xx80 lijkt Nvidia je niet te willen verkopen. Waarom zeg je nu weer zoiets vreemd, waar heb je het over? Nou denk er eens over na. Nvidia verkoopt ook Quadro's en Tesla's voor een veelvoud van een GeForce. Dit zijn vaak ook de volle chips en de cut downs gaan naar GeForce. xx80 is in de regel ook de volle chip en laten die nu steeds relatief slecht in de markt gezet worden. Je kan vaak beter naar de xx70 gaan of de xx80Ti die geheel toevallig cut down zijn en in de regel niet in aanmerking komen voor Quadro of Tesla producten.
Neemt niet weg dat ik niet verwacht dat Nvidia de SKU's minder duur zal maken. Met name xx70 en xx80 zie ik ze eerder nog duurder maken. Ik denk dat er ook een strategie achter zit. Met Turing denk ik dat Nvidia niet eens gericht was op de mensen met een Pascal. Nee, ik denk dat Nvidia daar bewust heeft geprobeerd om de mensen die relatief goedkoop in zijn gestapt met Maxwell, nu vast te houden en een premium te laten betalen. Bij gebrek aan concurrentie voor bijna een jaar, lijkt dat ook aardig te zijn gelukt. Ik denk dat heel wat mensen van een GTX970 naar een RTX2060 of RTX2070 zijn gegaan of van een GTX960 naar een GTX1660. Gemopper over de prijzen maakt niks uit als mensen het kopen. Het werd iets complexer met de RX5700(XT), maar daar schoot de concurrent zichzelf een aantal maanden aardig in de voet, meermaals, zoals traditie vereist...
Nu zitten we aan de Pascal vervanging en Pascal was al een stap duurder dan Maxwell, dus waarschijnlijk mag je ook wat verwachten qua prijzen. Hoe verantwoordt je dat? Nou meer SKU's lanceren om mensen de indruk te geven dat er veel keuze is en elke stap ook echt zinvol is. Dat zagen we al met Turing waar een paar opties gewoon overbodig zijn en ontworpen lijken te zijn om je een niveau omhoog te duwen. Beste voorbeeld is wel GTX1660Ti naar RTX2060. Alsnog is er een gat tussen de RTX2080S en RTX2080Ti en ik vermoed dat Nvidia dat wil gaan vullen met het hele RTX3090 verhaal. Je kan die lanceren en de RTX3080 en een RTX3080Ti later lanceren als je weet wat Navi 21 precies doet. Nee, ik eigenlijk denk niet dat Navi 21 echt sneller gaat zijn dan GA-102. Met GA-104, wat dat ook moge zijn, zie ik Nvidia de boel ook veel verder uitrekken met SKU's zoals RTX3070Ti, RTX3070, RTX3060Ti etc. Alles om maar de indruk te geven dat je telkens een stap omhoog kan zetten, wat eigenlijk geen stap is. Ook verwacht ik dat Nvidia hun xx50, xx60 en xx70 nog steeds zal positioneren als instap, mainstream en beginpunt van high end. De prijzen gaan daar waarschijnlijk weinig in reflecteren met wat wij als beter geïnformeerde consumenten beschouwen als acceptabele prijzen, maar dat is het doel ook niet. Het gaat om de perceptie creëren dat dit gangbare prijzen zijn voor dit soort segmenten.
Nvidia is ook vrij om hoog te gaan zitten omdat ze wederom als eerste lanceren en ik denk dat niemand eraan twijfelt dat ze beginnen met GA-102. Ze kunnen altijd een beetje gaan zakken met de launch van RDNA2 of natuurlijk de Cyberpunk 2077 bundel lanceren. Voorlopig gaat het om marges maken op early adopters. Over minder dan twee weken weten we het waarschijnlijk, en dan gaan we allemaal los hoe belachelijk die prijzen zijn.
Maar uiteindelijk is het ook een mentaliteitsprobleem. Met Turing was de RTX2080(S) eigenlijk zwak, dus mensen lijken massaal de RTX2070(S) te hebben gekocht. Die was alleen ook veel te duur, maar leek voordelig te zijn omdat de RTX2080(S) zwak is. Precies hetzelfde gebeurde met de GTX1080 en GTX1070 en ik verwacht eigenlijk niet anders nu. Nvidia haar strategie is ook gebaseerd op meerdere pilaren. Ze pushen de "beste" kaart omhoog in prijs, ook al is de xx80Ti al enkele generaties niet het beste dat je kan krijgen. Die zetten ze een beetje op eenzame hoogte en dan volgt de xx80 die ook meestal te duur is, waarna ze een xx70 hebben die zowaar "voordelig" lijkt te zijn. Die kopen mensen dus. Dan is er xx60 waar ze constant proberen om je een niveau hoger te krijgen. Naar de xx70 duwen of nu met Turing van GTX1660Ti/S naar RTX2060(S) of met Pascal naar de echte GTX1060 6GB. Hetzelfde doet Nvidia met hun xx50. Daar proberen ze je actief naar een xx60 te pushen zodat je meer uitgeeft dan je van plan was. En dat is het mentaliteitsprobleem, namelijk zo makkelijk meer uitgeven voor iets dat eigenlijk niet veel beter is, maar wel lijkt. Vervolgens moppert iedereen elke generatie weer dat het zo duur is. Hoe zou dat toch komen? Het mooiste is nog wel dat ik nu al mensen heb gezien die beginnen met "ja maar dankzij RDNA2 gaan de prijzen van Ampère vast wel omlaag", implicerend dat ze dan alsnog een Ampère kopen als dit gebeurd.
edit: Wat me ook te binnen schiet is het volgende. Ik denk dat Nvidia je eigenlijk bepaalde SKU's niet wil verkopen. xx50 omdat er waarschijnlijk te weinig marge op zit voor ze, maar vooral xx80 lijkt Nvidia je niet te willen verkopen. Waarom zeg je nu weer zoiets vreemd, waar heb je het over? Nou denk er eens over na. Nvidia verkoopt ook Quadro's en Tesla's voor een veelvoud van een GeForce. Dit zijn vaak ook de volle chips en de cut downs gaan naar GeForce. xx80 is in de regel ook de volle chip en laten die nu steeds relatief slecht in de markt gezet worden. Je kan vaak beter naar de xx70 gaan of de xx80Ti die geheel toevallig cut down zijn en in de regel niet in aanmerking komen voor Quadro of Tesla producten.
[ Voor 7% gewijzigd door DaniëlWW2 op 20-08-2020 18:32 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het kan natuurlijk heel goed dat nVidia een paar maanden cashed met dure SKUs zolang RDNA2.0 nog niet uit is, en vervolgens prijzen verlaagt zodra RDNA2.0 uitkomt.
Of ze verlagen de prijs zodra er meer wafers beschikbaar komen, ik denk dat dit ook mee speelt. De beperkte productie bepaalt natuurlijk de prijs van zowel AMD als nVidias release. Wat dat betreft is het de vraag hoe populair de PS5/XBSX wordt. Kan beide kanten op: Heel populair want iedereen zit thuis door corona, of niet populair want niemand gaat nieuw speelgoed kopen als ze bedreigt worden met (corona gerelateerd) ontslag.
Maar de Ampere introductie prijs zal niet mals zijn.
Of ze verlagen de prijs zodra er meer wafers beschikbaar komen, ik denk dat dit ook mee speelt. De beperkte productie bepaalt natuurlijk de prijs van zowel AMD als nVidias release. Wat dat betreft is het de vraag hoe populair de PS5/XBSX wordt. Kan beide kanten op: Heel populair want iedereen zit thuis door corona, of niet populair want niemand gaat nieuw speelgoed kopen als ze bedreigt worden met (corona gerelateerd) ontslag.
Maar de Ampere introductie prijs zal niet mals zijn.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Wat is er dan mis met een '80 GPU?
RTX 2080 bood een betere performance / $ dan zowel de 2080Ti als Vega dus ik snap niet hoe de 2080Ti dan opeens een betere koop is. Dat een RTX 2070 betere performance / $ biedt is niet gek, want het is altijd zo geweest dat die ratio in je nadeel werkt naarmate je het duurste segment bereikt.
https://www.techpowerup.c...-founders-edition/35.html
RTX 2080 Super doet 't beter dan de 2080Ti en Radeon VII.
https://www.techpowerup.c...-founders-edition/29.html
De GTX 1080Ti is eigenlijk al geen goede vergelijking gezien deze kaart een stuk later uitkwam, maar de GTX 1080 deed het nog altijd beter, al is het gat kleiner.
https://www.techpowerup.c...force-gtx-1080-ti/32.html
Bij de release deed een GTX1080 het zelfs heel goed.
https://www.techpowerup.c...-geforce-gtx-1080/28.html
Een '70 is gewoon vaak niet goed genoeg voor de hogere resoluties, maar als het het om performance / $ gaat dan zou je een '60 moeten kopen, maar dat wisten we toch al?
https://www.techpowerup.c...-founders-edition/35.html
Volgens mij is @DaniëlWW2 voor de echte nVidia marketing gevallen.
RTX 2080 bood een betere performance / $ dan zowel de 2080Ti als Vega dus ik snap niet hoe de 2080Ti dan opeens een betere koop is. Dat een RTX 2070 betere performance / $ biedt is niet gek, want het is altijd zo geweest dat die ratio in je nadeel werkt naarmate je het duurste segment bereikt.
https://www.techpowerup.c...-founders-edition/35.html
RTX 2080 Super doet 't beter dan de 2080Ti en Radeon VII.
https://www.techpowerup.c...-founders-edition/29.html
De GTX 1080Ti is eigenlijk al geen goede vergelijking gezien deze kaart een stuk later uitkwam, maar de GTX 1080 deed het nog altijd beter, al is het gat kleiner.
https://www.techpowerup.c...force-gtx-1080-ti/32.html
Bij de release deed een GTX1080 het zelfs heel goed.
https://www.techpowerup.c...-geforce-gtx-1080/28.html
Een '70 is gewoon vaak niet goed genoeg voor de hogere resoluties, maar als het het om performance / $ gaat dan zou je een '60 moeten kopen, maar dat wisten we toch al?
https://www.techpowerup.c...-founders-edition/35.html
Volgens mij is @DaniëlWW2 voor de echte nVidia marketing gevallen.
[ Voor 19% gewijzigd door Paprika op 21-08-2020 09:48 ]
Sinds wanneer sta ik bekend als pro Nvidia?
Neem Turing. De launch begon met RTX2080Ti, RTX2080, RTX2070 en later RTX2060. Alleen de RTX2070 was de volle chip. Voor de volle TU102, TU104 en TU106 waren er Quadro's, respectievelijk 6000 en 8000, 5000 en 4000. De enige overlap was Quadro 4000 met de RTX2070. Dat hebben ze een aantal maanden later opgelost met de RTX2060S en RTX2070S. RTX2080S werd nu alleen wel een conflict met Quadro 5000.
De RTX2080S mag dan wel een betere perf/prijs hebben dan de RTX2080Ti, maar dat is ook niet moeilijk. Het gaat alleen niet om de perf/prijs, maar om de prijs zelf. Al;s je een GTX1080Ti wou, dan had je die waarschijnlijk al en de zoveelste als GTX1080Ti presterende videokaart gaat het niet veranderen. Verder zie ik nu al bijna twee jaar dat de RTX2080(S) systematisch buiten de meeste mensen hun budget valt. Of je gaat er helemaal voor met de RTX2080Ti, of je blijft hangen bij de RTX2070(S) of RX5700XT. Dat zie je ook steeds terug in verkoopcijfers van webwinkels. Bijvoorbeeld:
https://www.3dcenter.org/...erkaufsreport-januar-2020
Laten de RTX2070S en RTX2080S nu beiden op TU104 gebaseerd zijn en op de onderhand zeer volwassen TSMC 16/12nm. Je gaat me niet wijs maken dat Nvidia 8SM's van TU104 moet uitschakelen voor yields. Nee, dit gaat om heel iets anders. Nvidia positioneert xx80 en zeker xx80Ti al een paar generaties als het beste dat er is, voor gamers, en daar mag je voor betalen. Het is een statussymbool en of mensen het ook zo behandelen. Dat is dus niet voor iedereen weggelegd en daarom de hogere prijs die buiten veel mensen hun budgetten valt. €800 voor een videokaart is namelijk de uitzondering en dat was het ook met de GTX1080Ti. De meeste mensen zitten eerder in de €300-€400 range en Nvidia probeert daar al €500+ van te maken, met succes.
En Huang zijn "the more you buy, the more you save" sluit daar ook perfect op aan. Dat is het doel en dat is het al jaren. Ze proberen je bewust bepaalde chips te verkopen, in het bijzonder RTX2070S en sparen de volle TU102, TU104 en TU106 chips uit voor Quadro modellen waar veel grotere marges op zitten.
Nu zijn de mensen met een Pascal aan de beurt. Daar lijkt het geloof te heersen dat Pascal zo goed was, zo lang goed bleef presteren waardoor ze geen Turing hoefde te kopen. Dus als Ampère nu wat duurder is, ach het zal vast wel weer goed presteren dus doe mij maar een xx60, xx70 of xx80 die veel duurder gaan zijn dan vorige keer. Ik zie het nu alweer voorbij komen en zo komt Nvidia dus telkens weg met belachelijke prijsverhogingen. Ze hoeven er onderhand weinig meer voor te doen omdat ze de markt allang geconditioneerd hebben dit te verwachten en accepteren.
Achterliggend hieraan zijn de marketingstrategieën van Edward Bernays. Dit is allemaal echt geen ongeluk of toeval. Er zit heel wat planning en strategie achter om je maar meer te laten betalen voor een luxeproduct dat je eigenlijk niet nodig hebt.
Het is ook zo simpel om hieruit los te breken. Maak je plan nu. Nee serieus, doe het nu.
Bepaal:
-Hoeveel procent sneller moet het zijn?
-Hoeveel mag het kosten?
-Wat is je marge voor een bijzondere stap, zowel hoeveel sneller als kosten.
Ik heb mijn plan namelijk allang gemaakt. Na bijna een jaar voel ik me nog steeds niet comfortabel met de €500 die ik heb uitgegeven aan een RX5700XT. Deze RX5700XT (Nitro+) is simpelweg €100 te duur naar mijn smaak. Mijn plan is dan ook terugkeren naar de €300-€400 range. Ik kijk niet eens als het niet 50% sneller is dan wat ik nu heb of iets heel speciaals bied, bijvoorbeeld merkbare RT die werkt zonder je framerate door de helft te hakken. Tot €500 zou met een serieuze sprong voorwaarts te overwegen zijn, denk 70% of serieus functionele RT in Cyberpunk+50%.
Zo hoef je ook niet na te denken over de marketing, want je bent de marketing voor. Bepaal wat je wil hebben, doe het nu en wacht af of je iets krijgt dat erop lijkt. Er zijn anders nog genoeg opties over zoals tweedehands of de oude generatie voor een dumpprijs.
Neem Turing. De launch begon met RTX2080Ti, RTX2080, RTX2070 en later RTX2060. Alleen de RTX2070 was de volle chip. Voor de volle TU102, TU104 en TU106 waren er Quadro's, respectievelijk 6000 en 8000, 5000 en 4000. De enige overlap was Quadro 4000 met de RTX2070. Dat hebben ze een aantal maanden later opgelost met de RTX2060S en RTX2070S. RTX2080S werd nu alleen wel een conflict met Quadro 5000.
De RTX2080S mag dan wel een betere perf/prijs hebben dan de RTX2080Ti, maar dat is ook niet moeilijk. Het gaat alleen niet om de perf/prijs, maar om de prijs zelf. Al;s je een GTX1080Ti wou, dan had je die waarschijnlijk al en de zoveelste als GTX1080Ti presterende videokaart gaat het niet veranderen. Verder zie ik nu al bijna twee jaar dat de RTX2080(S) systematisch buiten de meeste mensen hun budget valt. Of je gaat er helemaal voor met de RTX2080Ti, of je blijft hangen bij de RTX2070(S) of RX5700XT. Dat zie je ook steeds terug in verkoopcijfers van webwinkels. Bijvoorbeeld:
https://www.3dcenter.org/...erkaufsreport-januar-2020
Laten de RTX2070S en RTX2080S nu beiden op TU104 gebaseerd zijn en op de onderhand zeer volwassen TSMC 16/12nm. Je gaat me niet wijs maken dat Nvidia 8SM's van TU104 moet uitschakelen voor yields. Nee, dit gaat om heel iets anders. Nvidia positioneert xx80 en zeker xx80Ti al een paar generaties als het beste dat er is, voor gamers, en daar mag je voor betalen. Het is een statussymbool en of mensen het ook zo behandelen. Dat is dus niet voor iedereen weggelegd en daarom de hogere prijs die buiten veel mensen hun budgetten valt. €800 voor een videokaart is namelijk de uitzondering en dat was het ook met de GTX1080Ti. De meeste mensen zitten eerder in de €300-€400 range en Nvidia probeert daar al €500+ van te maken, met succes.
En Huang zijn "the more you buy, the more you save" sluit daar ook perfect op aan. Dat is het doel en dat is het al jaren. Ze proberen je bewust bepaalde chips te verkopen, in het bijzonder RTX2070S en sparen de volle TU102, TU104 en TU106 chips uit voor Quadro modellen waar veel grotere marges op zitten.
Nu zijn de mensen met een Pascal aan de beurt. Daar lijkt het geloof te heersen dat Pascal zo goed was, zo lang goed bleef presteren waardoor ze geen Turing hoefde te kopen. Dus als Ampère nu wat duurder is, ach het zal vast wel weer goed presteren dus doe mij maar een xx60, xx70 of xx80 die veel duurder gaan zijn dan vorige keer. Ik zie het nu alweer voorbij komen en zo komt Nvidia dus telkens weg met belachelijke prijsverhogingen. Ze hoeven er onderhand weinig meer voor te doen omdat ze de markt allang geconditioneerd hebben dit te verwachten en accepteren.
Achterliggend hieraan zijn de marketingstrategieën van Edward Bernays. Dit is allemaal echt geen ongeluk of toeval. Er zit heel wat planning en strategie achter om je maar meer te laten betalen voor een luxeproduct dat je eigenlijk niet nodig hebt.
Het is ook zo simpel om hieruit los te breken. Maak je plan nu. Nee serieus, doe het nu.
Bepaal:
-Hoeveel procent sneller moet het zijn?
-Hoeveel mag het kosten?
-Wat is je marge voor een bijzondere stap, zowel hoeveel sneller als kosten.
Ik heb mijn plan namelijk allang gemaakt. Na bijna een jaar voel ik me nog steeds niet comfortabel met de €500 die ik heb uitgegeven aan een RX5700XT. Deze RX5700XT (Nitro+) is simpelweg €100 te duur naar mijn smaak. Mijn plan is dan ook terugkeren naar de €300-€400 range. Ik kijk niet eens als het niet 50% sneller is dan wat ik nu heb of iets heel speciaals bied, bijvoorbeeld merkbare RT die werkt zonder je framerate door de helft te hakken. Tot €500 zou met een serieuze sprong voorwaarts te overwegen zijn, denk 70% of serieus functionele RT in Cyberpunk+50%.
Zo hoef je ook niet na te denken over de marketing, want je bent de marketing voor. Bepaal wat je wil hebben, doe het nu en wacht af of je iets krijgt dat erop lijkt. Er zijn anders nog genoeg opties over zoals tweedehands of de oude generatie voor een dumpprijs.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
- 30%DaniëlWW2 schreef op vrijdag 21 augustus 2020 @ 11:00:
Het is ook zo simpel om hieruit los te breken. Maak je plan nu. Nee serieus, doe het nu.
Bepaal:
-Hoeveel procent sneller moet het zijn?
-Hoeveel mag het kosten?
-Wat is je marge voor een bijzondere stap, zowel hoeveel sneller als kosten.
- €999 inclusief een AIO voor de ITX case
- Geen, ik ga toch niet boven de € 999.
Voor bijna hetzelfde bedrag laatst vandalisme (diepe kras) aan mijn auto moeten laten fixen
Een veel groter probleem is het gebrek aan games...
[ Voor 8% gewijzigd door Paprika op 21-08-2020 11:46 ]
Daar ga ik deels wel in mee, al weet ik niet of ik een versterker of TV daar nog onder zou plaatsen. Zeker bij TV's (smart) maar ook versterkers (ook smart meuk) zie je toch de laatste jaren dat ze steeds sneller "verouderen" dan daarvoor met HDMI x.x poortjes die al dan niet verschillende zaken wel / niet ondersteunen, software die slechts zeer matig geupdate wordt, apps die verdwijnen omdat 3de partijen er geen brood meer in zien, SoC's die eigenlijk bij release al niet meer voldoen en meer van dat soort zaken.Paprika schreef op vrijdag 21 augustus 2020 @ 11:18:
[...]
- 30%
- €999 inclusief een AIO voor de ITX case
- Geen, ik ga toch niet boven de € 999.
Voor bijna hetzelfde bedrag laatst vandalisme (diepe kras) aan mijn auto moeten laten fixenen van een GPU heb ik wel meer plezier dan die kras, maar ik vind een viercijferig bedrag voor elektronica die niet lang "up to date" gaat blijven gewoon duur. Versterker, speakers, tv of monitor vind ik prima. Wat nu goed klinkt of uitziet, ziet er over 4 of 5 jaar ook goed uit. Voor pc parts of een telefoon, nee.
Een veel groter probleem is het gebrek aan games...
Kijkende naar Daniels vragen, begin 2017 een GTX1080 moeten kopen (videokaart kapot, moet same day wat anders hebben i.v.m. online afspraken en bijna niet op voorraad (Mining verwacht ik) voor uit mijn hoofd ergens ronde de 550 euro.
Ik weet echter niet of ik weer zo veel uit zal geven mocht ik voor wat nieuws gaan, 300-400 euro vind ik eigenlijk een mooi budget, misschien tot €500 voor een echt goede deal. Een 50% verbetering zou ik denk ik wel minimaal vinden
[ Voor 16% gewijzigd door Dennism op 21-08-2020 12:12 ]
Ik zie weinig verschil met een LG OLED uit zeg 2017 en 2020. 4k 120hz ondersteuning zou ik toch niet benutten. Voor 'n versterker geldt overigens dat je voor hoog drie cijfers al in een aardig goed segment (features) zit. Daar zou ik zelf ook geen 2000 aan besteden inderdaadDennism schreef op vrijdag 21 augustus 2020 @ 12:06:
[...]
Daar ga ik deels wel in mee, al weet ik niet of ik een versterker of TV daar nog onder zou plaatsen. Zeker bij TV's (smart) maar ook versterkers (ook smart meuk) zie je toch de laatste jaren dat ze steeds sneller "verouderen" dan daarvoor met HDMI x.x poortjes die al dan niet verschillende zaken wel / niet ondersteunen, software die slechts zeer matig geupdate wordt, apps die verdwijnen omdat 3de partijen er geen brood meer in zien, SoC's die eigenlijk bij release al niet meer voldoen en meer van dat soort zaken.
Nu met linkje en de achterkant. 
https://videocardz.com/ne...90-graphics-card-pictured


Maar ik denk dat die 350W TDP geruchten zo wel als bevestigd kunnen worden beschouwd.
https://videocardz.com/ne...90-graphics-card-pictured


Maar ik denk dat die 350W TDP geruchten zo wel als bevestigd kunnen worden beschouwd.
[ Voor 35% gewijzigd door DaniëlWW2 op 21-08-2020 23:42 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Owjeeeej, hoe gaat dit in godsnaam in mijn kast passen mijn 2070super gaat er nog maar net in
Toch maar een vervanger zoeken voor mijn fractal define r4
[ Voor 8% gewijzigd door schumi1986 op 21-08-2020 23:44 ]
En dan iemand die ze wel op schaal bij elkaar heeft gezet:

Hij is groot, maar niet zo groot
En hoe groter hij is, des te stiller hij kan koelen. Als het in je kast past

Hij is groot, maar niet zo groot
En hoe groter hij is, des te stiller hij kan koelen. Als het in je kast past
De 2080 founders edition is 267mm lang. en 35mm breed. De afgebeelde nieuwe kaart neemt geen twee, maar drie slots in en lijkt daarbij ook nog een stuk langer. Ik zou gokken dat de kaart zeker 300mm lang is. Je kunt natuurlijk steeds wachten op custom kaarten.
Afgaande op de reputatie van reference kaarten zou het me niet verbazen mochten de standaard koeler nog steeds ondermaats of luidruchtig zijn. Een dik blok en twee ventilatoren erop kleven betekent niet automatisch een koele kaart of een stil ontwerp.
Afgaande op de reputatie van reference kaarten zou het me niet verbazen mochten de standaard koeler nog steeds ondermaats of luidruchtig zijn. Een dik blok en twee ventilatoren erop kleven betekent niet automatisch een koele kaart of een stil ontwerp.
Nog meer prijzen
https://wccftech.com/nvid...599-and-rtx-3060-for-399/
RTX 3090 for $1399
RTX 3080 for $799
RTX 3070 for $599
RTX 3060 for $399
https://wccftech.com/nvid...599-and-rtx-3060-for-399/
RTX 3090 for $1399
RTX 3080 for $799
RTX 3070 for $599
RTX 3060 for $399
Gewoon een degelijk aftermarket model kopen met een koeler die én kleiner is én beter werkt, zoals iedere release al 't geval is geweest.schumi1986 schreef op vrijdag 21 augustus 2020 @ 23:43:
[...]
Owjeeeej, hoe gaat dit in godsnaam in mijn kast passen mijn 2070super gaat er nog maar net in
Toch maar een vervanger zoeken voor mijn fractal define r4
Daarnaast, was je van plan een 3090 te halen dan?
[ Voor 5% gewijzigd door Paprika op 22-08-2020 09:33 ]
Wat een monstrosity van een kaart zegSissors schreef op vrijdag 21 augustus 2020 @ 23:43:
En dan iemand die ze wel op schaal bij elkaar heeft gezet:
[Afbeelding]
Hij is groot, maar niet zo groot
En hoe groter hij is, des te stiller hij kan koelen. Als het in je kast past
Mega stroomverbruik incoming en in de winter hoef je de verwarming niet meer aan te zetten
[ Voor 8% gewijzigd door Help!!!! op 22-08-2020 16:20 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Komt zo'n monsterkaart niet beter tot zijn recht op een X570 bord van AMD of volstaat een B550 bord ook?
Ik kan niet wachten op de:Help!!!! schreef op zaterdag 22 augustus 2020 @ 09:59:
[...]
Megastroom verbruik incoming en in de winter hoef je de verwarming niet meer aan te zetten
En de:Maar bij AMD kaarten is verbruik altijd n probleem en bij Nvidia doet het er opeens niet toe.
Berichten die bij iedere serie weer verschijnen.Maar de 295X2 verbruikte ontzettend veel en toen klaagde men ook niet.
Techpowerup doet altijd een PCIE benchmark dus even afwachten.Simbob schreef op zaterdag 22 augustus 2020 @ 10:32:
Komt zo'n monsterkaart niet beter tot zijn recht op een X570 bord van AMD of volstaat een B550 bord ook?
[ Voor 21% gewijzigd door Paprika op 22-08-2020 10:34 ]
Ik ga sowieso voor een EVGA aangezien ik een stepup heb lopen.Paprika schreef op zaterdag 22 augustus 2020 @ 09:27:
[...]
Gewoon een degelijk aftermarket model kopen met een koeler die én kleiner is én beter werkt, zoals iedere release al 't geval is geweest.
Daarnaast, was je van plan een 3090 te halen dan?
Ben van plan om voor de 3090 of 3080 te gaan aangezien de kaart voornamelijk gebruikt gaat worden voor flight simulator
De 3080 gaat sowieso een stuk kleiner zijn en minder complex door 't niet hebben van dubbele geheugen chips.
Simbob schreef op zaterdag 22 augustus 2020 @ 10:32:
Komt zo'n monsterkaart niet beter tot zijn recht op een X570 bord van AMD of volstaat een B550 bord ook?
B550 heeft ook pci-e 4.0 op de gpu en m.2 slot, alleen de rest van de pci-e niet.Paprika schreef op zaterdag 22 augustus 2020 @ 10:33:
Techpowerup doet altijd een PCIE benchmark dus even afwachten.
Mechwarrior Online: Flapdrol
Nou dan maakt 't helemaal niet uit inderdaad.haarbal schreef op zaterdag 22 augustus 2020 @ 11:27:
[...]
[...]
B550 heeft ook pci-e 4.0 op de gpu en m.2 slot, alleen de rest van de pci-e niet.
De Turing FE modellen zijn alleen niet slecht en verdienen geen reputatie van een matig standaard ontwerp.Flying schreef op zaterdag 22 augustus 2020 @ 07:25:
De 2080 founders edition is 267mm lang. en 35mm breed. De afgebeelde nieuwe kaart neemt geen twee, maar drie slots in en lijkt daarbij ook nog een stuk langer. Ik zou gokken dat de kaart zeker 300mm lang is. Je kunt natuurlijk steeds wachten op custom kaarten.
Afgaande op de reputatie van reference kaarten zou het me niet verbazen mochten de standaard koeler nog steeds ondermaats of luidruchtig zijn. Een dik blok en twee ventilatoren erop kleven betekent niet automatisch een koele kaart of een stil ontwerp.
Ik denk eigenlijk dat deze koeling helemaal niet zo slecht zal zijn. Het is in ieder geval geen miserabele Radeon blower, maar een 2,5 slot blok met twee ventilatoren die makkelijk over de 100mm zijn. Uiteindelijk is een groot deel van de koelprestaties en het geluid gebaseerd op ventilatoren. Je kon Nvidia met Turing niet beschuldigen dat ze matige ventilatoren gebruikten, in tegenstelling tot zelfs een aantal zogenaamde premium AIB modellen die nog steeds de goedkoopste keuzes op hun videokaarten zetten en de ventilatoren gewoon harder laten draaien.
Er zullen betere modellen komen, maar die gaan ook heel wat kosten en zijn waarschijnlijk 3 slot met drie ventilatoren. MSRP geruchten quoten is ook zinloos omdat Nvidia het waarschijnlijk nog niet bepaald heeft en omdat je waarschijnlijk wederom geconfronteerd gaat worden met de realisatie dat voor de officiële MSRP je waarschijnlijk alleen maar keuze gaat geven uit slechte modellen.
We weten bijna een week voor de aankondiging alleen weinig zeker. Het is onduidelijk hoe groot GA102 is, of het geproduceerd is op TSMC 7nm of Samsung 8nm, of het echt 350W TDP is en dan zijn er kennelijk ook nog eens vraagtekens over de koeling van GDDR6X. Zie: https://www.igorslab.de/e...rs-are-still-in-the-dark/
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hoe meer nieuws ik zie hoe depressiever ik word.
Groot kan ik mee leven het past makkelijk in mijn kast maar prijs en power draw zijn echt een nogo voor mij. Als het echt zoveel zal slurpen ondanks de 7nm node dan word het toch een goedkopere kaart als vervanger voor mijn 1070 of gewoon even een paar jaar helemaal geen gaming meer.
ik ga echt geen 300 wat slurpende kaart gebruiken en al helemaal niet als ze ook nog eens fors duurder worden.
Mijn huidige kaart gebruikt 145 watt en tot 200 wil ik er over nadenken maar daar houd het wel op.
Met mijn huidige pc on en game tijd is dat namelijk 65 euro per 50 watt over de 4 jaar dat deze gpu mee zal moeten en dat reken ik gewoon door op de gpu prijs en maakt ze dus NOG duurder.
Groot kan ik mee leven het past makkelijk in mijn kast maar prijs en power draw zijn echt een nogo voor mij. Als het echt zoveel zal slurpen ondanks de 7nm node dan word het toch een goedkopere kaart als vervanger voor mijn 1070 of gewoon even een paar jaar helemaal geen gaming meer.
ik ga echt geen 300 wat slurpende kaart gebruiken en al helemaal niet als ze ook nog eens fors duurder worden.
Mijn huidige kaart gebruikt 145 watt en tot 200 wil ik er over nadenken maar daar houd het wel op.
Met mijn huidige pc on en game tijd is dat namelijk 65 euro per 50 watt over de 4 jaar dat deze gpu mee zal moeten en dat reken ik gewoon door op de gpu prijs en maakt ze dus NOG duurder.
De wattage vindt ik geen enkel probleem, wel de daarbij behoorde koeling baart mij zorgen, hoe luid wordt de kaart...? Ik wil het liefst zo min mogelijk tot niets horen, ik game zonder headset.
En de prijzen zoals die nu zijn zijn gewoon veel te hoog, geld is geen probleem maar wat je ervoor terug krijgt wel. Vergeet niet dat het enkel is om te gamen.
Als de prijzen zo zouden zijn, zou ik helaas uitwijken naar AMD en dat liever niet gezien hun drivers.
En de prijzen zoals die nu zijn zijn gewoon veel te hoog, geld is geen probleem maar wat je ervoor terug krijgt wel. Vergeet niet dat het enkel is om te gamen.
Als de prijzen zo zouden zijn, zou ik helaas uitwijken naar AMD en dat liever niet gezien hun drivers.
Ik wil best 600 euro betalen of zelfs 700 voor 2080TI prestaties met betere ray trace prestaties. maar als ik daar over 4 jaar nog eens 170 euro aan stroom kosten bij op moet tellen kost dat je dus al 870 euro.Enchantress schreef op zaterdag 22 augustus 2020 @ 14:36:
En de prijzen zoals die nu zijn zijn gewoon veel te hoog, geld is geen probleem maar wat je ervoor terug krijgt wel. Vergeet niet dat het enkel is om te gamen.
Stroomkosten zijn geen probleem mits de prijs dat reflecteert.
Simpel en hogere prijs en hogere stroomkosten zijn een dubbele kostenpost en dat ving ik onacceptabel.
Je koopt ook geen auto als je weet dat die 35% meer benzine slurpt.
Dat zou goed kunnen kloppen.Flying schreef op zaterdag 22 augustus 2020 @ 07:25:
De 2080 founders edition is 267mm lang. en 35mm breed. De afgebeelde nieuwe kaart neemt geen twee, maar drie slots in en lijkt daarbij ook nog een stuk langer. Ik zou gokken dat de kaart zeker 300mm lang is.
Jij zit echt 4 uur per dag 365 dagen per jaar 4 jaar lang te gamen met zware load? Dat kost je namelijk 12 euro per jaar per 50W...computerjunky schreef op zaterdag 22 augustus 2020 @ 13:59:
Met mijn huidige pc on en game tijd is dat namelijk 65 euro per 50 watt over de 4 jaar dat deze gpu mee zal moeten en dat reken ik gewoon door op de gpu prijs en maakt ze dus NOG duurder.
Dan ga je sowieso niet hoger komen dan een 3070 op z'n best en die verbruikt ook meteen een stuk mindercomputerjunky schreef op zaterdag 22 augustus 2020 @ 13:59:
Ik wil best 600 euro betalen of zelfs 700 voor 2080TI prestaties met betere ray trace prestaties. maar als ik daar over 4 jaar nog eens 170 euro aan stroom kosten bij op moet tellen kost dat je dus al 870 euro.
Net zoals dat een snellere gpu meer verbruikt zal een snellere auto ook meer verbruiken, dus ja de meeste mensen betalen meer voor 'n snellere en dus ook meer verbruikende auto.computerjunky schreef op zaterdag 22 augustus 2020 @ 15:02:
[...]
Je koopt ook geen auto als je weet dat die 35% meer benzine slurpt.
[ Voor 48% gewijzigd door Paprika op 22-08-2020 16:50 ]
Helemaal eens met bovenstaande, het laatste waar ik naar zou kijken zijn stroomkosten, zeker gezien je niet continu op full load zit.Paprika schreef op zaterdag 22 augustus 2020 @ 16:42:
[...]
Jij zit echt 4 uur per dag 365 dagen per jaar 4 jaar lang te gamen met zware load? Dat kost je namelijk 12 euro per jaar per 50W...
[...]
Dan ga je sowieso niet hoger komen dan een 3070 op z'n best en die verbruikt ook meteen een stuk minder.
[...]
Net zoals dat een snellere gpu meer verbruikt zal een snellere auto ook meer verbruiken, dus ja de meeste mensen betalen meer voor 'n snellere en dus ook meer verbruikende auto.
Vrij hardcore is 46 weken gamen, 16 uur in het weekend en 2 uur doordeweeks = 4800 uur in 4 jaar, wat €12,50 per jaar is.Paprika schreef op zaterdag 22 augustus 2020 @ 16:42:
[...]
Jij zit echt 4 uur per dag 365 dagen per jaar 4 jaar lang te gamen met zware load? Dat kost je namelijk 12 euro per jaar per 50W...
[...]
Dan ga je sowieso niet hoger komen dan een 3070 op z'n best en die verbruikt ook meteen een stuk minder.
[...]
Net zoals dat een snellere gpu meer verbruikt zal een snellere auto ook meer verbruiken, dus ja de meeste mensen betalen meer voor 'n snellere en dus ook meer verbruikende auto.
En één terrasje ergens in die 1200 uur en je zou geld hebben bespaard door wel gewoon te gamen op je meer verbruikende GPUSantee schreef op zaterdag 22 augustus 2020 @ 17:00:
[...]
Vrij hardcore is 46 weken gamen, 16 uur in het weekend en 2 uur doordeweeks = 4800 uur in 4 jaar, wat €12,50 per jaar is.
Haha ja klopt! Ik vind 350W ook wel extreem. Ik heb een extreme 980ti (1485MHz core stock) die volgens gpu z 320W trekt. Gelukkig zit er een deftige koeler. 350W voor een stock koeler is echt een bak. Ik ga zelf kijken voor een 3070 of 3080 FTW3/4 van EVGA.Paprika schreef op zaterdag 22 augustus 2020 @ 17:12:
[...]
En één terrasje ergens in die 1200 uur en je zou geld hebben bespaard door wel gewoon te gamen op je meer verbruikende GPU.
300mm valt nog wel mee, op het oog leek deze veel groterEnchantress schreef op zaterdag 22 augustus 2020 @ 15:52:
[...]
Dat zou goed kunnen kloppen.
[Afbeelding]
Daar zou ik eigenlijk geen chipset gerelateerde performance verschillen verwachten, beide chipsets doen PCIE 4.0 voor de GPU.Simbob schreef op zaterdag 22 augustus 2020 @ 10:32:
Komt zo'n monsterkaart niet beter tot zijn recht op een X570 bord van AMD of volstaat een B550 bord ook?
Als het een leuke auto is, zeker wel.computerjunky schreef op zaterdag 22 augustus 2020 @ 15:02:
[...]
Je koopt ook geen auto als je weet dat die 35% meer benzine slurpt.
Weet niet waar jij je stroom afneemt dan maar of je rekenmachine doet het niet of je betaalt geen belasting over je stroom. En dat terrasje doe ik zeker niet aan. veel te duur voor dat geld kan ik thuis 10 bacotjes drinken.Paprika schreef op zaterdag 22 augustus 2020 @ 16:42:
[...]
Jij zit echt 4 uur per dag 365 dagen per jaar 4 jaar lang te gamen met zware load? Dat kost je namelijk 12 euro per jaar per 50W...
[...]
Dan ga je sowieso niet hoger komen dan een 3070 op z'n best en die verbruikt ook meteen een stuk minder.
[...]
Net zoals dat een snellere gpu meer verbruikt zal een snellere auto ook meer verbruiken, dus ja de meeste mensen betalen meer voor 'n snellere en dus ook meer verbruikende auto.
Nee je heb ook nog idle en met zon stroom slurper is de kans groot dat je idle rekening ook hoger is gebaseerd op huidige data. En de kans dat je op full load zit word juist steeds groter met steeds zwaardere games en hogere refresh monitoren.kwdtje schreef op zaterdag 22 augustus 2020 @ 16:52:
[...]
Helemaal eens met bovenstaande, het laatste waar ik naar zou kijken zijn stroomkosten, zeker gezien je niet continu op full load zit.
ook jou stroomkosten zijn interessant voor veel minder als 21,5 cent kan je toch echt geen stroom krijgen en gezien stroom met bijna een cent per jaar omhoog gaat door de belastingfabriek in den gaal moet je gemiddeld over 4 jaar toch wel 22,4 - 23 cent cent rekenen als we de trend door de jaren mee pakken.Santee schreef op zaterdag 22 augustus 2020 @ 17:00:
[...]
Vrij hardcore is 46 weken gamen, 16 uur in het weekend en 2 uur doordeweeks = 4800 uur in 4 jaar, wat €12,50 per jaar is.
ik 2016 betaalde ik nog 17.8 cent nu al 21,9 cent
Maar ik ben blij dat een hoop mensen blijkbaar niet zelf de stroom hoeven te betalen en daardoor niet weten wat het kost of zoveel kunnen gebruiken dat ze niet weten wat gewone inkomens betalen voor hun laag verbruik.
Stroom is dit jaar juist goedkoper geworden. Daltarief <20 cent en regulier tarief is 21,5 cent bij mij. En dan heb ik de welkomsactie van €150 nog niet meegerekend.computerjunky schreef op zaterdag 22 augustus 2020 @ 23:24:
[...]
Weet niet waar jij je stroom afneemt dan maar of je rekenmachine doet het niet of je betaalt geen belasting over je stroom. En dat terrasje doe ik zeker niet aan. veel te duur voor dat geld kan ik thuis 10 bacotjes drinken.
[...]
Nee je heb ook nog idle en met zon stroom slurper is de kans groot dat je idle rekening ook hoger is gebaseerd op huidige data. En de kans dat je op full load zit word juist steeds groter met steeds zwaardere games en hogere refresh monitoren.
[...]
ook jou stroomkosten zijn interessant voor veel minder als 21,5 cent kan je toch echt geen stroom krijgen en gezien stroom met bijna een cent per jaar omhoog gaat door de belastingfabriek in den gaal moet je gemiddeld over 4 jaar toch wel 22,4 - 23 cent cent rekenen als we de trend door de jaren mee pakken.
ik 2016 betaalde ik nog 17.8 cent nu al 21,9 cent
Maar ik ben blij dat een hoop mensen blijkbaar niet zelf de stroom hoeven te betalen en daardoor niet weten wat het kost of zoveel kunnen gebruiken dat ze niet weten wat gewone inkomens betalen voor hun laag verbruik.
Interessante conclusie. Als jij maar gelukkig bent.
[ Voor 25% gewijzigd door Paprika op 23-08-2020 01:00 ]
Haha, it is is recommended to use a power supply rated 850 W or higher with this cable. Lachen man.
FE editions only lees ik net
https://www.reddit.com/r/...m=ios_app&utm_name=iossmf
https://www.reddit.com/r/...m=ios_app&utm_name=iossmf
[ Voor 73% gewijzigd door Simbob op 23-08-2020 12:22 ]
De echte vraag is nu alleen of er nog een connector naast die 300W rated 12 pin zit.
[ Voor 50% gewijzigd door DaniëlWW2 op 23-08-2020 15:41 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Met betrekking tot de discussie over de kosten van het stroomverbruik van een GPU vind ik dat @computerjunky toch wel een punt heeft waar hier een beetje te makkelijk overheen gestapt wordt.
Als we uitgaan van:
1) het ronde getal van 1200 uur gamen per jaar waar Santee mee kwam
2) het verschil in energieverbruik van computerjunky's huidige GTX1070 (145W) t.o.v een RTX 2080Ti (250W) - dan komt dat dus op 105W (voor het gemak afgerond naar 100W).
3) een energieprijs van 21,5 cent per kWh
dan zijn de meerkosten per jaar dus 1200 x 100 x 0,215 = € 25,80 per jaar. Over een verwachte levensduur van vier jaar is dat dik 100 euro extra.
Okay, dat is minder dan het bedrag van 170 euro waar computerjunky het eerder over had, maar het is ook niet verwaarloosbaar wanneer afgezet tegen zijn maximumbudget van 600 euro voor zijn nieuwe kaart.
Er gaan een hoop geruchten, maar niemand hier kent met zekerheid de prijs, de performance of het wattage van bijv. een RTX3070, dus zeggen dat die kaart per se zuiniger zal zijn dan een RTX2080Ti is voorbarig, zeker wanneer ook de prijs en performance nog niet bekend zijn.
Santee schreef op zaterdag 22 augustus 2020 @ 17:00:
Vrij hardcore is 46 weken gamen, 16 uur in het weekend en 2 uur doordeweeks = 4800 uur in 4 jaar, wat €12,50 per jaar is.
Een beetje onnauwkeurig uitgedrukt: 4800 uur in 4 jaar, wat €12,50 per jaar extra kost per 50W extra verbruik t.o.v. de huidige kaart.
Als we uitgaan van:
1) het ronde getal van 1200 uur gamen per jaar waar Santee mee kwam
2) het verschil in energieverbruik van computerjunky's huidige GTX1070 (145W) t.o.v een RTX 2080Ti (250W) - dan komt dat dus op 105W (voor het gemak afgerond naar 100W).
3) een energieprijs van 21,5 cent per kWh
dan zijn de meerkosten per jaar dus 1200 x 100 x 0,215 = € 25,80 per jaar. Over een verwachte levensduur van vier jaar is dat dik 100 euro extra.
Okay, dat is minder dan het bedrag van 170 euro waar computerjunky het eerder over had, maar het is ook niet verwaarloosbaar wanneer afgezet tegen zijn maximumbudget van 600 euro voor zijn nieuwe kaart.
Er gaan een hoop geruchten, maar niemand hier kent met zekerheid de prijs, de performance of het wattage van bijv. een RTX3070, dus zeggen dat die kaart per se zuiniger zal zijn dan een RTX2080Ti is voorbarig, zeker wanneer ook de prijs en performance nog niet bekend zijn.
Santee schreef op zaterdag 22 augustus 2020 @ 17:00:
Vrij hardcore is 46 weken gamen, 16 uur in het weekend en 2 uur doordeweeks = 4800 uur in 4 jaar, wat €12,50 per jaar is.
Een beetje onnauwkeurig uitgedrukt: 4800 uur in 4 jaar, wat €12,50 per jaar extra kost per 50W extra verbruik t.o.v. de huidige kaart.
Echt grote onzin van nvidia om met zo'n custom kabel te gaan klooien om 4 pinnen minder op de kaart te hebben...
Lompe kaarten met enorm max verbruik vind ik verder geen probleem als de performance er maar naar is. Ze hadden de kaart ook op lagere voltages/clocks kunnen lanceren, maar je kan ook zelf de power target naar beneden schroeven als je dat zo graag wilt.
Maar goed, ding gaat ongetwijfeld meer kosten dan ik bereid ben uit te geven dus whatever.
Lompe kaarten met enorm max verbruik vind ik verder geen probleem als de performance er maar naar is. Ze hadden de kaart ook op lagere voltages/clocks kunnen lanceren, maar je kan ook zelf de power target naar beneden schroeven als je dat zo graag wilt.
Maar goed, ding gaat ongetwijfeld meer kosten dan ik bereid ben uit te geven dus whatever.
Mechwarrior Online: Flapdrol
Ah, zolang het alleen de Founders Edition betreft kan het mij niet zoveel schelen.haarbal schreef op zondag 23 augustus 2020 @ 14:30:
Echt grote onzin van nvidia om met zo'n custom kabel te gaan klooien om 4 pinnen minder op de kaart te hebben...
En anders moet je er een heel verloopje tussen doen die gewoon in de doos zal zitten, het is maar weer waar je je druk om maakt.
YouTube: PCIe Cables: So much does your GPU really need!
Om aan te tonen hoe irrelevant al deze PCI-E aanpassingen zijn. 2x8 pin is meer als alles wat je nodig en veel kaarten kunnen met minder af.
Om aan te tonen hoe irrelevant al deze PCI-E aanpassingen zijn. 2x8 pin is meer als alles wat je nodig en veel kaarten kunnen met minder af.
Dat een kaart op volle belasting 300W gebruikt, betekend niet dat die dat altijd gebruikt en de top kaarten zijn vaak qua vermogen/prestatie efficienter dan hun mindere broers.
Heb je de extra prestaties niet nodig, dan is het vermogen lager dan max en heb je wel extra prestaties nodig wat is dan 100 euro over 4 jaar?
Heb je de extra prestaties niet nodig, dan is het vermogen lager dan max en heb je wel extra prestaties nodig wat is dan 100 euro over 4 jaar?
In Nvidia's laatste generatie waren het juist de low-end kaarten (GTX 1660Ti) die de beste prestaties per watt leverden. De topkaart was de RTX 2080Ti en die staat qua efficiency bepaald niet aan de top, zie halverwege de tabel getiteld GPU Efficiency - Relative Performance Per Watt: https://www.tomshardware....-power-consumption-testedRazkin schreef op zondag 23 augustus 2020 @ 15:09:
en de top kaarten zijn vaak qua vermogen/prestatie efficiënter dan hun mindere broers.
[ Voor 4% gewijzigd door choogen op 23-08-2020 16:15 ]
choogen schreef op zondag 23 augustus 2020 @ 15:53:
[...]
In Nvidia's laatste generatie waren het juist de low-end kaarten (GTX 1660Ti) die de beste prestaties per watt leverden. De topkaart was de RTX 2080Ti en die staat qua efficiency bepaald niet aan de top, zie halverwege de tabel getiteld GPU Efficiency - Relative Performance Per Watt: https://www.tomshardware....-power-consumption-tested
offtopic:
AMD komt daar met Navi er verassend goed uit, even los van het feit dat ze op een kleinere node zitten.
AMD komt daar met Navi er verassend goed uit, even los van het feit dat ze op een kleinere node zitten.
[ Voor 4% gewijzigd door Sp3ci3s8472 op 23-08-2020 16:50 ]
Idd best verassend aangezien de voltages bij amd vaak hoger zijn dan strikt noodzakelijk.Sp3ci3s8472 schreef op zondag 23 augustus 2020 @ 16:50:
[...]
offtopic:
AMD komt daar met Navi er verassend goed uit, even los van het feit dat ze op een kleinere node zitten.
@choogen Dat overzicht is voor zover ik kan zien frames afgezet tegen verbruik, maar niet met een vast prestatie doel. Ik bedoel het meer in de trant dat 60 fps in Game X bij Res Y met minder vermogen lukt bij een hogere tier kaart dan een kaart lagere en de echt lagere tier kaarten sowieso het niveau niet halen en uiteraard bij intensieve games anders zou je sowieso niet moeten kijken naar top tier kaarten.
Simbob schreef op zondag 23 augustus 2020 @ 11:49:
En hier is de adapter voor de nieuwe kaarten
https://videocardz.com/ne...-30-series-12-pin-adapter
/f/image/jYhhxr2WeBLdZf59v00SDwEs.png?f=fotoalbum_large)
https://www.tweaktown.com...-rtx-30-series/index.html
Gelukkig doen de leveranciers zelf ook een 12-pin connector bij de kaart.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Daarom komt wel goedXtr3me4me schreef op maandag 24 augustus 2020 @ 09:43:
[...]
Gelukkig doen de leveranciers zelf ook een 12-pin connector bij de kaart.
Lang geleden dat ik zo gehyped was voor een nieuwe videokaart
Hopelijk komt MSI weer met een stil model voor de 3080, de huidige kaart is weliswaar te langzaam voor de nieuwste games op 60fps minimaal maar is wel heerlijk stil
[ Voor 14% gewijzigd door MetalSonic op 24-08-2020 09:56 ]
Is er een groot voordeel mbt Power delivery als je zo'n 12 pin plug hebt tegenover 2x 8 pin of 8+6?
Ik weet trouwens niet of ik zo blij ben met deze mega 300watt+ TDPs. Doet me denken aan de R9 290X of de Fermi series. De top kaarten in die series hadden een piek verbruik die vergelijkbaar was met die van dual GPU kaarten van ongeveer dezelfde generatie, en lang niet de raw performance!
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik begrijp waarom ze het doen, ziet er natuurlijk een stuk beter uit. Tegelijkertijd moet ik toch wat vraagtekens bij de afmetingen plaatsen, want dit is wel heel veel kleiner. Zo klein dat zelfs draden van 18 AWG wel erg krap lijken te worden...
Ik zou 't niet erg vinden als de 24 pin connector eenzelfde shrink zou krijgen. Niet dat ik de inhoud van m'n kast kan zien (windows zijn voor kindjes), maar het scheelt weer een dikke kabel in je cablemanagement.Werelds schreef op maandag 24 augustus 2020 @ 10:44:
[...]
Ik begrijp waarom ze het doen, ziet er natuurlijk een stuk beter uit. Tegelijkertijd moet ik toch wat vraagtekens bij de afmetingen plaatsen, want dit is wel heel veel kleiner. Zo klein dat zelfs draden van 18 AWG wel erg krap lijken te worden...
Ja, maar vergeet niet dat het ook betekent dat de draden dunner kunnen worden - een degelijke PSU heeft draden van AWG 18 (+- 1mm), prut PSU's van AWG 20 (+- 0,8mm). Nu mag jij raden welke van de twee aanwezig is in verhalen van gesmolten aansluitingenPaprika schreef op maandag 24 augustus 2020 @ 10:52:
[...]
Ik zou 't niet erg vinden als de 24 pin connector eenzelfde shrink zou krijgen. Niet dat ik de inhoud van m'n kast kan zien (windows zijn voor kindjes), maar het scheelt weer een dikke kabel in je cablemanagement.
Ik heb even gezocht en deze nieuwe connector is 18,85mm breed met een pitch van 3mm (pitch is de afstand van midden tot midden op de pinnen). HardwareLuxx heeft ook een foto van de draden online gegooid en die van Seasonic zijn gelukkig nog AWG 18.
De betere voedingen hebben tegenwoordig ook al 16AWG kabels. Maar die connector zal er zijn voor de vorm en het zegt ook wel wat. Ik ben ook eens gaan kijken en het is dus geen 300W connector, nee maximaal 600W. Zie: https://www.techpowerup.c...g-with-nvidia-ampere-gpus
Dat gaat nog wat worden als mensen hun net afdoende voedingen via waarschijnlijk meegeleverde verloopjes gaan aansluiten op hun zeer waarschijnlijk zeer dure videokaarten. Natuurlijk krijg je dan "had je maar een betere voeding moeten kopen", maar veel mensen hebben simpelweg geen idee.
Ik denk dat er ook maar een reden is waarom Nvidia dit doet. Ze willen geen 2x8 pin + 6 pin op hun FE kaarten hebben. Dat staat immers behoorlijk verkeerd. Ik zie AIB kaarten zo wel verschijnen, maar Nvidia zal dit niet willen vanuit marketing oogpunt. De implicatie is dan ook dat Nvidia waarschijnlijk ver over de 300W zal gaan. Die symbolische grens lijkt dan echt eens geslecht te worden. Of we er zo blij mee moeten zijn is afwachten.
In ieder geval weet Nvidia dan wel hun architectuurnamen te kiezen. Fermi was immers de man achter de eerste kernreactor en nu met Ampère lijken we te kijken naar een architectuur die werkelijk alle ampère gaat vragen.
Oh en hier moest ik even om grinniken.

https://twitter.com/cataclysmza/status/1297228015378870274
Dat gaat nog wat worden als mensen hun net afdoende voedingen via waarschijnlijk meegeleverde verloopjes gaan aansluiten op hun zeer waarschijnlijk zeer dure videokaarten. Natuurlijk krijg je dan "had je maar een betere voeding moeten kopen", maar veel mensen hebben simpelweg geen idee.
Ik denk dat er ook maar een reden is waarom Nvidia dit doet. Ze willen geen 2x8 pin + 6 pin op hun FE kaarten hebben. Dat staat immers behoorlijk verkeerd. Ik zie AIB kaarten zo wel verschijnen, maar Nvidia zal dit niet willen vanuit marketing oogpunt. De implicatie is dan ook dat Nvidia waarschijnlijk ver over de 300W zal gaan. Die symbolische grens lijkt dan echt eens geslecht te worden. Of we er zo blij mee moeten zijn is afwachten.
In ieder geval weet Nvidia dan wel hun architectuurnamen te kiezen. Fermi was immers de man achter de eerste kernreactor en nu met Ampère lijken we te kijken naar een architectuur die werkelijk alle ampère gaat vragen.
Oh en hier moest ik even om grinniken.
https://twitter.com/cataclysmza/status/1297228015378870274
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
@DaniëlWW2 weten we zeker dat die fan op de achterkant niet in pull staat ipv push? Speculaas I know en waarschijnlijk wishful thinking, maar het zou anders een uitermate dom ontwerp zijn.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Het is pull ja, ventilator is omgedraaid.Blaat schreef op maandag 24 augustus 2020 @ 12:43:
@DaniëlWW2 weten we zeker dat die fan op de achterkant niet in pull staat ipv push? Speculaas I know en waarschijnlijk wishful thinking, maar het zou anders een uitermate dom ontwerp zijn.
Maar zelfs dan vraag ik me nog steeds af wat Nvidia nu probeert te bereiken hiermee. Je gaat de hitte zo naar de CPU koeling afvoeren en dan? Met de moderne behuizingen die het in de regel vertikken om lucht de behuizing uit te laten, gaat dit waarschijnlijk niet goed werken. Je zou hier bijna een blower willen hebben...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zeker als je naar het ontwerp van die bladen kijkt, je ziet immers duidelijk dat die bladen anders zijn dan die andere fan, vermoed ik dat ook.Blaat schreef op maandag 24 augustus 2020 @ 12:43:
@DaniëlWW2 weten we zeker dat die fan op de achterkant niet in pull staat ipv push? Speculaas I know en waarschijnlijk wishful thinking, maar het zou anders een uitermate dom ontwerp zijn.
Is inderdaad ook logischer qua airflow.
Edit/ too late...
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
De kopers van dit soort GPUs hebben allemaal een AIO of waterkoeling, dus de CPu zal er weinig last van hebben.
Dat zal wel en deze jongen heeft ook een AIO erin zitten, maar ik ga echt geen GPU van 300Watt of meer in mijn kast doen. Sinds Maxwell ben ik er blij met kaarten die 200 tot 250 max verbruiken in warmteafgifte en geluidsproductie. Niet dat ik überhaupt een 3090 zou overwegen (veel te duur), maar ik hoop dat een 3070 achtige kaart wel een acceptabel verbruik/prijs zal zijn. Als het echt te gortig is dan stel ik een aankoop wel uit en ga ik voor een tweedehands pascal of turing voor de komende tijd.Paprika schreef op maandag 24 augustus 2020 @ 13:13:
De kopers van dit soort GPUs hebben allemaal een AIO of waterkoeling, dus de CPu zal er weinig last van hebben.
Als deze kaart echt 350 of meer gaat worden dan is dat gewoon een flinke bonk warmte die je in huis erbij krijgt. Verschil tussen 275 en 200 is al heel duidelijk te merken. Ik wil niet eens weten wat 300+ doet.
Een 3070 zal ook wel een stuk minder verbruiken dan een 3090...
Dat zou ik niet zomaar zeggen. Ik denk dat er genoeg mensen zullen zijn die simpelweg geen AIO willen hebben in hun dure systemen, want water dat kan gaan lekken.Paprika schreef op maandag 24 augustus 2020 @ 13:13:
De kopers van dit soort GPUs hebben allemaal een AIO of waterkoeling, dus de CPu zal er weinig last van hebben.
Met een goede retro stijl behuizing is 300W+ te doen, maar die behuizingen hebben we niet echt meer. Een kleinere behuizing zit er waarschijnlijk ook niet in met zo'n videokaart. Meestal moet je vertrouwen op een 140mm ventilator om de hete lucht eruit te krijgen. Ik heb zelf een 140mm Noctua, maar ik heb niet de indruk dat die veel meer aankan dan mijn RX5700XT en 3700X zonder dat temperaturen verder gaan oplopen.
Als laatste heb je ook nog de realisatie dat je een aardige straalkachel in je kamer hebt staan met een videokaart die makkelijk 300W+ doet.
Het gaat niet om de CPU koelen, het gaat om de hitte je behuizing uit krijgen en wat er daarna gebeurd. Misschien leuk in de winter, maar in de zomer niet echt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik baseer dit even op reddit en de grote overclock.net draadjes die echt allemaal niet op lucht draaien.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 14:04:
[...]
Dat zou ik niet zomaar zeggen. Ik denk dat er genoeg mensen zullen zijn die simpelweg geen AIO willen hebben in hun dure systemen, want water dat kan gaan lekken.
Mja, TPU gaat er weer plat overheen. Op https://www.igorslab.de/e...e-igorslab-investigative/ staat wat meer nuanceDaniëlWW2 schreef op maandag 24 augustus 2020 @ 12:38:
De betere voedingen hebben tegenwoordig ook al 16AWG kabels. Maar die connector zal er zijn voor de vorm en het zegt ook wel wat. Ik ben ook eens gaan kijken en het is dus geen 300W connector, nee maximaal 600W. Zie: https://www.techpowerup.c...g-with-nvidia-ampere-gpus
Als ik dan ook een aanname mag doen: mensen met dure videokaarten zoals RTX 2080 Ti / RTX 3090 hebben heus wel een goede voeding in hun PC. Dat soort power users zoeken hun hardware toch zorgvuldig uit.Dat gaat nog wat worden als mensen hun net afdoende voedingen via waarschijnlijk meegeleverde verloopjes gaan aansluiten op hun zeer waarschijnlijk zeer dure videokaarten. Natuurlijk krijg je dan "had je maar een betere voeding moeten kopen", maar veel mensen hebben simpelweg geen idee.
600W niet, meer dan 300W denk ik wel. En dat is denk ik het probleem hier. Nvidia gaat waarschijnlijk verloopjes meeleveren die 2x8 pin accepteren, maar veel mensen gaan missen dat je waarschijnlijk meer dan 300W nodig gaat hebben. Er zijn voedingen waar je vanwege de 20AWG kabels niet meer dan 150W door de 8 pin wil trekken en voedingen waar dat wel kan. Natuurlijk ga je hier ook het advies krijgen dat je een betere voeding moet kopen, maar niet overal op het internet zijn mensen zo druk met voeding kwaliteit bezig. Wij hier in dit soort topics zijn de absolute uitzondering, niet de regel.XWB schreef op maandag 24 augustus 2020 @ 14:09:
[...]
Mja, TPU gaat er weer plat overheen. Op https://www.igorslab.de/e...e-igorslab-investigative/ staat wat meer nuanceDie 600W is vooral theoretisch en zal in de praktijk niet haalbaar zijn.
Om het even heel bot te zeggen, maar denk je dat Henry Cavill, a.k.a. PC gaming masterrace incarnate, dit begrijpt? Ja hij heeft een goede voeding voor zijn systeem, maar er zijn heel veel merken en niet alles is even goed.
Ik denk dat dit dus aardig tegen kan vallen. Denk dat er meer dan genoeg zijn die een of ander matig ding hebben waar 700W+ op staat met 20AWG kabels.Als ik dan ook een aanname mag doen: mensen met dure videokaarten zoals RTX 2080 Ti / RTX 3090 hebben heus wel een goede voeding in hun PC. Dat soort power users zoeken hun hardware toch zorgvuldig uit.
En dat is alsnog een relatief kleine groep. Immers overclockt hooguit enkele procenten überhaupt. Ik denk dat luchtkoelers behoorlijk populair zijn, zeker omdat je voor een Ryzen 3000 gaming systeeem in de regel gewoon geen AIO nodig hebt.Paprika schreef op maandag 24 augustus 2020 @ 14:08:
[...]
Ik baseer dit even op reddit en de grote overclock.net draadjes die echt allemaal niet op lucht draaien.
[ Voor 13% gewijzigd door DaniëlWW2 op 24-08-2020 14:23 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Pff nou hier zo iemand die wel een nieuwe voeding nodig zal hebben als ik die 3090 in mijn systeem wil hebben. Gaat nu allemaal prima met een 650W voeding en een 3900X en 2080Ti maar een 3090 gaat hem niet worden als de geruchten waar zijn. Wellicht toch maar een generatie overslaan en hopen dat de volgende wat energiezuiniger gaat zijn.
[ Voor 17% gewijzigd door Arjant2 op 24-08-2020 14:45 ]
Waarom niet? 300w voor je systeem exclusief videokaart moet prima gaan. Je moet alleen niet de boel keihard overclocken en dan furmark+p95 gaan draaien. Voor gewoon gamen mag (een goede) 650W echt geen issue zijn.Arjant2 schreef op maandag 24 augustus 2020 @ 14:44:
Pff nou hier zo iemand die wel een nieuwe voeding nodig zal hebben als ik die 3090 in mijn systeem wil hebben. Gaat nu allemaal prima met een 650W voeding en een 3900X en 2080Ti maar een 3090 gaat hem niet worden als de geruchten waar zijn. Wellicht toch maar een generatie overslaan en hopen dat de volgende wat energiezuiniger gaat zijn.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Daarom komt er nog ene 75W uit het PCIe slot. Meer dan 150W trekken uit een 8 pins connector moet je simpelweg niet willen. (Binnen redelijkheid uiteraard, als er een 154W uit de ene en 146W uit de andere 8-pins connector getrokken moet worden is er niks aan de hand, maar je moet niet 250W uit een 8-pins connector gaan halen).DaniëlWW2 schreef op maandag 24 augustus 2020 @ 14:21:
[...]
600W niet, meer dan 300W denk ik wel. En dat is denk ik het probleem hier. Nvidia gaat waarschijnlijk verloopjes meeleveren die 2x8 pin accepteren, maar veel mensen gaan missen dat je waarschijnlijk meer dan 300W nodig gaat hebben.
Maar er komt al 75W via het PCI-Express slot. En dan is er dus 2x 150W uit de 2x 8-pin. Prima voor 375W totaal, wat in elk geval binnen de TDP van de RTX 3090 valt. Als ik even snel Google dan verbruikt de RTX 2080 Ti in de praktijk zo'n 20W boven zijn TDP, die marge heeft de 3090 dan ook.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 14:21:
[...]
600W niet, meer dan 300W denk ik wel. En dat is denk ik het probleem hier. Nvidia gaat waarschijnlijk verloopjes meeleveren die 2x8 pin accepteren, maar veel mensen gaan missen dat je waarschijnlijk meer dan 300W nodig gaat hebben. Er zijn voedingen waar je vanwege de 20AWG kabels niet meer dan 150W door de 8 pin wil trekken en voedingen waar dat wel kan. Natuurlijk ga je hier ook het advies krijgen dat je een betere voeding moet kopen, maar niet overal op het internet zijn mensen zo druk met voeding kwaliteit bezig. Wij hier in dit soort topics zijn de absolute uitzondering, niet de regel.
Ik zie pas een probleem als als iemand zijn videokaart wil overklokken, want dan gaat zo'n RTX 3090 waarschijnlijk wel die 375W voorbij. Maar mensen die een RTX 3090 kopen om te overklokken zijn dan weer een kleinere doelgroep binnen de al kleine doelgroep van deze videokaart, dat ik wel verwacht dat er een goede voeding bijgekocht wordt.
En anders heb je pech en koop je maar een nieuwe voeding
Dat geldt sowieso voor de doelgroep van deze videokaarten.En dat is alsnog een relatief kleine groep.
Zou ik met een 3700 en een RM550x nog wat kunnen halen van de nieuwe series ?
300+ watt TDP zal me een zorg zijn dat is namelijk alleen relevant voor de koeling. 300 warr power draw is een heel ander verhaal.XanderDrake schreef op maandag 24 augustus 2020 @ 10:36:
[...]
Is er een groot voordeel mbt Power delivery als je zo'n 12 pin plug hebt tegenover 2x 8 pin of 8+6?
Ik weet trouwens niet of ik zo blij ben met deze mega 300watt+ TDPs. Doet me denken aan de R9 290X of de Fermi series. De top kaarten in die series hadden een piek verbruik die vergelijkbaar was met die van dual GPU kaarten van ongeveer dezelfde generatie, en lang niet de raw performance!
En nee die stekker heeft nul voordelen behalve dat ze weer een custom stekker hebben waar ze geld voor kunnen vragen. Die kaart zal helemaal niet zoveel pinnen nodig hebben.
Als je de pcb bekijkt zal je zien dat alle 2 volt traces bij elkaar komen alle ground traces bij elkaar komen en de rest op de pcb geregeld word. de enige reden dat er meer pins/draden gebruikt worden is zodat de draden niet oververhitten en ze aansprakelijk zijn voor vuur schade in zeer zeer onwaarschijnlijke gevallen. Echt nodig is het namelijk niet.
Nadeel is dat je nu dikke moederbord en cpu power kabels krijgt en dunne gpu kabels en dat ziet er juist niet uit. Zeker met all dus custom sleeves tegenwoordig.Werelds schreef op maandag 24 augustus 2020 @ 10:44:
[...]
Ik begrijp waarom ze het doen, ziet er natuurlijk een stuk beter uit. Tegelijkertijd moet ik toch wat vraagtekens bij de afmetingen plaatsen, want dit is wel heel veel kleiner. Zo klein dat zelfs draden van 18 AWG wel erg krap lijken te worden...
Ik heb gewoon een air cooler op mijn 9900k. dat scheelde me namelijk 50+ euro bij de aanschaf en nog eens 130 euro aan stroom kosten over de levensduur van deze rig (geschat op 5 jaar)Paprika schreef op maandag 24 augustus 2020 @ 13:13:
De kopers van dit soort GPUs hebben allemaal een AIO of waterkoeling, dus de CPu zal er weinig last van hebben.
Daar kan ik een mooie 2 TB game ssd voor kopen. Dit verschil komt vooral door de pomp die wat ik gezien heb uit reviews zo rond de 25 watt gebruikt en aangezien dat de hele dag door draait tikt dat aardig aan.
En voor mijn 9900k is de dark toch pro 4 meer als genoeg op 5ghz voor gaming (75-80 max) 5.1 is een heel ander verhaal omdat er dan ineens veel meer voltage in moet bij mijn sample en dan zit ik net onder de 100.
Dat valt volgens der8auwer reuze mee. die had het terug gebracht naar 2x 3 pins (positief ground en sensor draad per 8x stekker) dat was een extreem maar normaal is dat 3x positief 4x aarde en 1 sensor draad. dus 2/3 minder en het werkte bij 2/3 draden was de temp van de draden ook binnen de perken en dus niets aan de hand. Het is allemaal voor extra veilighed en bedrijven die zichzelf indekken.Sissors schreef op maandag 24 augustus 2020 @ 15:11:
[...]
Daarom komt er nog ene 75W uit het PCIe slot. Meer dan 150W trekken uit een 8 pins connector moet je simpelweg niet willen. (Binnen redelijkheid uiteraard, als er een 154W uit de ene en 146W uit de andere 8-pins connector getrokken moet worden is er niks aan de hand, maar je moet niet 250W uit een 8-pins connector gaan halen).
Ik heb jaren lang een web van die splitters en converters gehad voor mijn radeon 7990 allemaal van 1 molex omdat ik geen cent had voor een andere psu door omstandigheden en het werkte jaren prima.
Inderdaad. De warmte uitstoot van een 1080Ti (~ 240W meen ik) vind ik in de zomer al behoorlijk onprettig.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 14:04:
[...]
Dat zou ik niet zomaar zeggen. Ik denk dat er genoeg mensen zullen zijn die simpelweg geen AIO willen hebben in hun dure systemen, want water dat kan gaan lekken.
Het gaat niet om de CPU koelen, het gaat om de hitte je behuizing uit krijgen en wat er daarna gebeurd. Misschien leuk in de winter, maar in de zomer niet echt.
Laat staan 300W of meer, dat zie ik eigenlijk niet echt zitten. En watercooling is evenmin mijn ding.
Laat de definitieve reviews en specs nu maar komen dan weten we tenminste hoe het definitief zit.
[ Voor 74% gewijzigd door Help!!!! op 24-08-2020 15:51 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Nu ben ik geen techneut alleen dat het prima werkte betekent niet persé dat het ook veilig was. Op dit gebied het ik liever wat overkill dan op het randje. En al helemaal nu ik niet op een studentenbudget zit.computerjunky schreef op maandag 24 augustus 2020 @ 15:30:
[...]
Dat valt volgens der8auwer reuze mee. die had het terug gebracht naar 2x 3 pins (positief ground en sensor draad per 8x stekker) dat was een extreem maar normaal is dat 3x positief 4x aarde en 1 sensor draad. dus 2/3 minder en het werkte bij 2/3 draden was de temp van de draden ook binnen de perken en dus niets aan de hand. Het is allemaal voor extra veilighed en bedrijven die zichzelf indekken.
Ik heb jaren lang een web van die splitters en converters gehad voor mijn radeon 7990 allemaal van 1 molex omdat ik geen cent had voor een andere psu door omstandigheden en het werkte jaren prima.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Lijkt mij een heel slecht idee.Simbob schreef op maandag 24 augustus 2020 @ 15:57:
Dan is deze kast wel een oplossing?
Sharkoon Rev200
[Afbeelding]
bron: Techtesters
https://www.techtesters.eu/pic/SHARKOONREV200/SR301.jpg
Je vrm krijgt met watercooling al geen fatsoenlijke airflow maar op deze manier helemaal niet en als er al airflow is is het warme lucht van je gpu.
Om over het coolen van je cpu met warme lucht nog maar te zwijgen.
Doe mij maar gewoon een front to back push pull configuratie waarmee de cpu en de vrm en de gpu verse warme licht krijgen. Dan is een air cooler beter als een water cooler in die kast.
[ Voor 47% gewijzigd door computerjunky op 24-08-2020 16:23 ]
De REV200 kast heeft de glass-zijde aan de rechterkant. Die 2 fans die je ziet is zijn de achterste 2.
Als die 3090 over de 300W gaat plus 150 voor de de 3900X plus AIO met 3 fans en behuizing met 3 fans. Gaat het dan niet krap worden? Ik ben niet heel goed thuis in voedingen maar met een 650W voeding met 80% rendement? Dan blijft er 520W over of werkt dat niet zo?Blaat schreef op maandag 24 augustus 2020 @ 15:02:
[...]
Waarom niet? 300w voor je systeem exclusief videokaart moet prima gaan. Je moet alleen niet de boel keihard overclocken en dan furmark+p95 gaan draaien. Voor gewoon gamen mag (een goede) 650W echt geen issue zijn.
Ik gebruik mijn pc inderdaad nog wel eens voor primegrid die zowel gpu als cpu vol belast, net zo zwaar als furmark+p95. Wellicht dan in t vervolg kiezen om alleen gpu projecten te draaien en niet gelijktijdig ook cpu projecten. Overclocken doe ik niet aan.
[ Voor 3% gewijzigd door Arjant2 op 24-08-2020 16:31 ]
Een echt goede voeding kan de rating constant leveren, soms zelfs net iets meer dan de rating. Maar dat is hier denk ik iets te veel offtopic.Arjant2 schreef op maandag 24 augustus 2020 @ 16:30:
[...]
Als die 3090 over de 300W gaat plus 150 voor de de 3900X plus AIO met 3 fans en behuizing met 3 fans. Gaat het dan niet krap worden? Ik ben niet heel goed thuis in voedingen maar met een 650W voeding met 80% rendement? Dan blijft er 520W over of werkt dat niet zo?
Ik gebruik mijn pc inderdaad nog wel eens voor primegrid die zowel gpu als cpu vol belast, net zo zwaar als furmark+p95. Wellicht dan in t vervolg kiezen om alleen gpu projecten te draaien en niet gelijktijdig ook cpu projecten. Overclocken doe ik niet aan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Thanks. Voeding krijgt een excelent award op hwi dus dat zal wel goedkomen dan.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 16:33:
[...]
Een echt goede voeding kan de rating constant leveren, soms zelfs net iets meer dan de rating. Maar dat is hier denk ik iets te veel offtopic.
Maar goed inderdaad maar eens afwachten op de definitieve specs en benches. Het moet natuurlijk wel de moeite van de investering waard zijn.
ik overweeg zo'n nw gpu (3090). ik heb een i9 10900K (op een msi z490 meg unify) en een Cooler Master Silent Pro M2 - 720 Watt voeding. Zal die volstaan?
[ Voor 14% gewijzigd door hully op 24-08-2020 17:21 ]
Hi, kan je eigenlijk beter hier vragen: Voeding advies en informatie topic - Deel 34hully schreef op maandag 24 augustus 2020 @ 17:19:
ik overweeg zo'n nw gpu (3090). ik heb een i9 10900K (op een msi z490 meg unify) en een Cooler Master Silent Pro M2 - 720 Watt voeding. Zal die volstaan?
[ Voor 6% gewijzigd door Help!!!! op 24-08-2020 17:48 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Ze staan identiek, alleen in spiegelbeeld, dat doe je normaal gesproken met twee fans naast elkaar om minder turbulentie te krijgen. Als het pull zou zijn, zou het schelpje van het fanblad andersom zijn. Zodat je zeg maar lucht in het schelpje houdt. Nu is het schelpje voor pull verkeerd om waardoor de lucht er gewoon "afglijd".DaniëlWW2 schreef op maandag 24 augustus 2020 @ 12:47:
[...]
Het is pull ja, ventilator is omgedraaid.
Zie het als je water gaat scheppen met een kommetje die je onderste boven houdt. Dat werkt bijzonder lastig. Enige manier om dit te verbeteren is om het kommetje in een buis te doen zodat het water er niet zo snel vanaf glijd. Maar veel effectiever is door het kommetje gewoon rechtop te doen.

https://www.extremetech.c...-the-reason-for-small-gpu
Dit plaatje van een Xbox One laat een fan zien in pull. Zoals je kunt zien staan hier de bladen wel anders in tegenstelling tot het plaatje van de nVidia videokaart waarbij de beide hetzelfde staan alleen dan in spiegelbeeld.
EVGA heeft trouwens wel meerdere videokaarten uitgebracht waarbij de fanbladen andersom staan, maar de airflow wel door de heatsink wordt geblazen. Zal vast iets van de marketingafdeling zijn, efficiënter is het iig niet. Daarom zijn ze er ook al weer van afgestapt met de huidige videokaarten.

https://www.funkykit.com/...sion-x-software-gtx-1080/
[ Voor 16% gewijzigd door Verwijderd op 24-08-2020 18:30 ]
Het is een Intel dus zal hij wat meer gebruiken, maar zolang je hem stock hebt zal dat wel lukken. Met stock dus eventueel de standaard OC van de vele mobo fabrikanten ook uit.hully schreef op maandag 24 augustus 2020 @ 17:19:
ik overweeg zo'n nw gpu (3090). ik heb een i9 10900K (op een msi z490 meg unify) en een Cooler Master Silent Pro M2 - 720 Watt voeding. Zal die volstaan?
Maar als het twee push fans zijn waar de ene potentieel ook nog eens minder efficiënt is, dan is het helemaal een raadsel wat Nvidia nu van plan is. Wil Nvidia nu echt een 300W+ videokaart proberen te koelen door voornamelijk een 120mm ventilator en ook nog eens een deel van de hitte naar beneden in de behuizing blazen met de tweede zodat deze hete lucht opgezogen kan worden door de andere ventilator die waarschijnlijk het zware werk moet verrichten? Die koeler is zo verwarrend en lijkt zo zinloos complex te zijn. Maak gewoon een solide koeler met drie goede ventilatoren. De Turing FE ventilatoren lijken behoorlijk aardig te zijn geweest. Doe er dan een derde, kleinere tussen die de andere kant opdraait en lanceer dat met veel hitteblok.
Tenzij Nvidia iets heeft bedacht dat iedereen lijkt te missen, hebben ze echt iets heel vreemds voor Ampère FE in gedachten.
Tenzij Nvidia iets heeft bedacht dat iedereen lijkt te missen, hebben ze echt iets heel vreemds voor Ampère FE in gedachten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
De 600W komt van de 8,5 ampère welke één pin aan kan in de connector. Aangezien er zes 12V pinnen inzetten komt dat dus neer op 612W. Afgerond zou je dus 600W kunnen aanhouden.XWB schreef op maandag 24 augustus 2020 @ 14:09:
[...]
Mja, TPU gaat er weer plat overheen. Op https://www.igorslab.de/e...e-igorslab-investigative/ staat wat meer nuanceDie 600W is vooral theoretisch en zal in de praktijk niet haalbaar zijn.
Dat is helaas zeker niet altijd het geval. Bij de meeste mensen is kwantiteit toch echt belangrijker dan kwaliteit bij het kiezen van een voeding.Als ik dan ook een aanname mag doen: mensen met dure videokaarten zoals RTX 2080 Ti / RTX 3090 hebben heus wel een goede voeding in hun PC. Dat soort power users zoeken hun hardware toch zorgvuldig uit.
Als je een 700W voeding hebt met 20AWG draden in de PEG kabels dan zou de kabels wel het laatste zijn waar ik mij zorgen over zou maken. Zoiets zie je alleen maar in de echte PC slopende voedingen. De rest van de voeding is dus veel problematischer dan de kabels.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 14:21:
[...]
Ik denk dat dit dus aardig tegen kan vallen. Denk dat er meer dan genoeg zijn die een of ander matig ding hebben waar 700W+ op staat met 20AWG kabels.
Onder de 100 euro is een luchtkoeler sowieso flink superieur aan een all-in-one waterkoeler voor de CPU. Maar verreweg de meeste mensen denken dat waterkoeling veel beter is en dat wordt dan ook best wel veel verkocht.En dat is alsnog een relatief kleine groep. Immers overclockt hooguit enkele procenten überhaupt. Ik denk dat luchtkoelers behoorlijk populair zijn, zeker omdat je voor een Ryzen 3000 gaming systeeem in de regel gewoon geen AIO nodig hebt.
Sissors schreef op maandag 24 augustus 2020 @ 15:11:
[...]
Daarom komt er nog ene 75W uit het PCIe slot.
Er komt geen 75W uit het PCI Express slot. Je kunt maximaal 75W uit een PCI Express slot halen. Dat is een groot verschil omdat je geen 75W uit een PCI Express slot wil trekken. Dit komt omdat de stroom bij de meeste moederborden via de 24 pins ATX stekker moet. Aangezien er maar twee 12V draden in zitten in deze stekker zit je bij twee videokaarten al gelijk op de max. En omdat er bij geen enkele voeding of moederbord een beveiliging tegen overbelasting hier zit gaat het nogal mis als je er meer door heen gaat trekken. Daarom zie je dat alle high-end videokaarten niet meer dan 20 tot maximaal 30W uit een PCI Express slot trekken.XWB schreef op maandag 24 augustus 2020 @ 15:14:
[...]
Maar er komt al 75W via het PCI-Express slot.
Dan kan heel goed zelfs. Heel veel modulaire voedingen gebruiken een vergelijkbare connector aan de voedingszijde waar dan een kabel aanzit met twee 8 pins PEG connectors. Dan trek je dus al 300W door een zelfde connector. Vaak wordt er dan wel gekozen voor vier 12V en vier grounds i.p.v. drie 12V en vijf grounds. Als je dan gebruik maakt van 6,25A pinnen dan kom je dus ook uit op 300W. Bij drie 12V draden kom je dan overigens uit op 225W. Tegenwoordig kun je trouwens dan ook vaak prima en veilig 225W uit een 6 pins PEG connector trekken, ook al schrijft de standaard maar 75W voor. Overigens spreekt de originele standaard dan ook over twee 12V draden, terwijl je eigenlijk en alleen maar drie ziet.Sissors schreef op maandag 24 augustus 2020 @ 15:11:
[...]
Meer dan 150W trekken uit een 8 pins connector moet je simpelweg niet willen.
Het rendement van een voeding bepaalt alleen hoeveel je uit het stopcontact trekt. 650W blijft 650W ongeacht het rendement.Arjant2 schreef op maandag 24 augustus 2020 @ 16:30:
[...]
Als die 3090 over de 300W gaat plus 150 voor de de 3900X plus AIO met 3 fans en behuizing met 3 fans. Gaat het dan niet krap worden? Ik ben niet heel goed thuis in voedingen maar met een 650W voeding met 80% rendement? Dan blijft er 520W over of werkt dat niet zo?
Dat zegt helaas niks. Neem die reviews met een flinke schep zout, want ze zijn bagger.Arjant2 schreef op maandag 24 augustus 2020 @ 16:41:
[...]
Thanks. Voeding krijgt een excelent award op hwi dus dat zal wel goedkomen dan.
Je wil sowieso voor een moderne PC een moderne voeding gebaseerd op een LLC resonant converter design met DC-DC converters. Jouw voeding is met zijn double forward design met individuele spanningsregulatie eigenlijk gewoon veel te verouderd voor een moderne PC met hoog verbruik. Het is dus zeker verstandig om de voeding te vervangen.hully schreef op maandag 24 augustus 2020 @ 17:19:
ik overweeg zo'n nw gpu (3090). ik heb een i9 10900K (op een msi z490 meg unify) en een Cooler Master Silent Pro M2 - 720 Watt voeding. Zal die volstaan?
Maar zoals gezegd daarvoor kun je ook Voeding advies en informatie topic - Deel 34 kijken.
Nee sorry, maar nee. Ik schreef niet dat het niet kan, ik schreef dat je het niet moet willen. Die connector is het probleem niet, en kan prima meer aan. En ik heb nooit anders beweerd, kijk naar de EPS connector, de 8 pins variant is voor 235W, en 4 pins voor 150W. Dus ook daar zie je dat je probleemloos 300W door zo'n connector kan gooien.Verwijderd schreef op maandag 24 augustus 2020 @ 20:18:
[...]
Dan kan heel goed zelfs. Heel veel modulaire voedingen gebruiken een vergelijkbare connector aan de voedingszijde waar dan een kabel aanzit met twee 8 pins PEG connectors. Dan trek je dus al 300W door een zelfde connector. Vaak wordt er dan wel gekozen voor vier 12V en vier grounds i.p.v. drie 12V en vijf grounds. Als je dan gebruik maakt van 6,25A pinnen dan kom je dus ook uit op 300W. Bij drie 12V draden kom je dan overigens uit op 225W. Tegenwoordig kun je trouwens dan ook vaak prima en veilig 225W uit een 6 pins PEG connector trekken, ook al schrijft de standaard maar 75W voor. Overigens spreekt de originele standaard dan ook over twee 12V draden, terwijl je eigenlijk en alleen maar drie ziet.
Echter dat is allemaal irrelevant! De 8 pins PCIe voedingsconnector is gespecced op 150W. Dus moet je hem voor 150W gebruiken, en niet gaan hobbyen met het idee dat meer vast ook wel goed gaat. En nogmaals, het is niet die connector zelf waar ik me zorgen over maak, wel potentieel de bekabeling die eraan zit en de elektronica in de voeding.
Verwijderd
Nadenken is altijd handig, maar wordt zelden gedaan. Zolang je weet wat je doet kan het prima. En nadenken over hetgeen wat je aan het doen bent moet je eigenlijk altijd doen. Heb je dus een voeding met twee 8 pins PEG connectors aan één kabel, dan is 300W trekken door de eerste connector op de kabel meestal prima te doen. 225W is dan altijd veilig. Simpelweg omdat zoveel stroom er altijd al doorheen gaat bij het gebruik van beide connectors.Sissors schreef op maandag 24 augustus 2020 @ 20:40:
[...]
Nee sorry, maar nee. Ik schreef niet dat het niet kan, ik schreef dat je het niet moet willen. Die connector is het probleem niet, en kan prima meer aan. En ik heb nooit anders beweerd, kijk naar de EPS connector, de 8 pins variant is voor 235W, en 4 pins voor 150W. Dus ook daar zie je dat je probleemloos 300W door zo'n connector kan gooien.
Echter dat is allemaal irrelevant! De 8 pins PCIe voedingsconnector is gespecced op 150W. Dus moet je hem voor 150W gebruiken, en niet gaan hobbyen met het idee dat meer vast ook wel goed gaat. En nogmaals, het is niet die connector zelf waar ik me zorgen over maak, wel potentieel de bekabeling die eraan zit en de elektronica in de voeding.
Wat je echter niet moet doen is 300W door beide 8 pins PEG connectors trekken, terwijl ze aan één kabel met 8 draden verbonden zijn. Op het moment dat nVidia dus een verloopje mee gaat leveren moet de videokaart dan moet het verloopje eigenlijk minimaal drie PEG connectors hebben, maar beter nog vier. Waarbij je verplicht alle vier (of drie) PEG connectors aan moet sluiten, anders werkt de videokaart niet.
Alleen daarmee heb je een fool-proof verloopje. Als het verloopje twee maal 8 pins PEG connector is naar de nieuwe 12 pins MICRO-Fit connector. Dan gaan heel veel mensen twee 8 pins PEG connector pakken die op één modulaire kabel zitten. Waarbij alsnog alle stroom over drie of vier draden en pinnen moeten. Dat zal heel veel crashes veroorzaken door spanningsval in de connectors/kabels, smeltende connectors en zelfs kans op brand.
'Ze staan identiek, alleen in spiegelbeeld', hoe spiegelbeeld bedoel je?Verwijderd schreef op maandag 24 augustus 2020 @ 18:06:
[...]
Ze staan identiek, alleen in spiegelbeeld, dat doe je normaal gesproken met twee fans naast elkaar om minder turbulentie te krijgen. Als het pull zou zijn, zou het schelpje van het fanblad andersom zijn. Zodat je zeg maar lucht in het schelpje houdt. Nu is het schelpje voor pull verkeerd om waardoor de lucht er gewoon "afglijd".
Zie het als je water gaat scheppen met een kommetje die je onderste boven houdt. Dat werkt bijzonder lastig. Enige manier om dit te verbeteren is om het kommetje in een buis te doen zodat het water er niet zo snel vanaf glijd. Maar veel effectiever is door het kommetje gewoon rechtop te doen.
[Afbeelding]
https://www.extremetech.c...-the-reason-for-small-gpu
Dit plaatje van een Xbox One laat een fan zien in pull. Zoals je kunt zien staan hier de bladen wel anders in tegenstelling tot het plaatje van de nVidia videokaart waarbij de beide hetzelfde staan alleen dan in spiegelbeeld.
EVGA heeft trouwens wel meerdere videokaarten uitgebracht waarbij de fanbladen andersom staan, maar de airflow wel door de heatsink wordt geblazen. Zal vast iets van de marketingafdeling zijn, efficiënter is het iig niet. Daarom zijn ze er ook al weer van afgestapt met de huidige videokaarten.
[Afbeelding]
https://www.funkykit.com/...sion-x-software-gtx-1080/
Als je een standaard ventilator ondersteboven houd dan zie je een vergelijkbaar beeld, maar niet hetzelfde. De bladen staan bij de 3090 dan heel anders.
Ook zou het niet logisch zijn als het een gewone push ventilator is, het ontwerp is dermate anders dan die andere. Waarom dan niet simpel diezelfde ventilator achterop plakken?
Tevens draaien vele ventilatoren (inclusief de ventilator op de voorkant) CCW, dan zou de ventilator op de achterkant cw moeten draaien om push te zijn. Ook weer niet heel logisch.
Als je kijkt naar de leading edge dan moet die dus cw draaien voor push en ccw voor pull.
Daaraan zie je ook duidelijk verschil met die EVGA ventilator. Die blijft hetzelfde als vele andere ventilatoren alleen staan de bladen naar achter gebogen. (ze zijn dan wel dezelfde kant op gebogen maar anders 'gekanteld')
Die ventilator van de Xbox one is letterlijk een ventilator omgedraaid, hier zie je dan ook duidelijk het verschil.
Maw, het is geen gewone standaard ventilator. Ze hebben er iets speciaal mee gedaan. Het lijkt imo meer op een soort schoepenrad.
Hier ook nog een leuk plaatje met een push en pull ventilator.
Overigens zag ik net deze foto:

Ik had deze nog niet gezien, neem aan dat hij hier al wel langs geweest is?
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
@Verwijderd okay helder werkt dus andersom, hoe efficienter hoe minder hij uit t stopcontact trekt, ik redeneerde andersom. Dus dan zou een fatsoenlijke 650W wel voldoende zijn.
Zal hier verder niet op ingaan wat dan wel goede reviews zijn van voedingen, dan gaat t helemaal offtopic.
Tegen de tijd dat er meer bekend is over de kaarten dan zullen er vast wel een boel topics komen met voedingsvragen
Zal hier verder niet op ingaan wat dan wel goede reviews zijn van voedingen, dan gaat t helemaal offtopic.
Tegen de tijd dat er meer bekend is over de kaarten dan zullen er vast wel een boel topics komen met voedingsvragen
Nee, die is nieuw, maar die bevestigd het denk ik wel dat het legitiem is. Maar als ik snel kijk, dan is dit misschien de variant voor de RTX3080 die kleiner zou zijn.thijsco19 schreef op maandag 24 augustus 2020 @ 21:11:
Overigens zag ik net deze foto:
[Afbeelding]
Ik had deze nog niet gezien, neem aan dat hij hier al wel langs geweest is?
Ondertussen zijn mijn twijfels hierover grotendeels aan het verdwijnen. Ik denk dat zijn de bronnen goed zijn en het beeld is niet erg prettig.
Als dit klopt, oef...
- GA102 is zeer waarschijnlijk ook Samsung 8nm.
- De RTX3090 zou bijna 2GHz boost halen.
- Verbruik, tja die 350W zou nog wel eens "conservatief" kunnen zijn. Het zou heel goed meer kunnen zijn.
- High end AIB modellen zouden richting de 400W gaan en meer dan 3 slots koeling.
- De 12 pin zou kennelijk met een adapter komen met 3x8 pin, niet twee.
- Minstens 40% sneller dan de RTX2080Ti op 4K en veel betere RT.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
ok, maar werkt de kaart dan simpelweg niet bij mijn huidige voeding (coolermaster 720 slient pro)?[b]-The_Mask- in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
Je wil sowieso voor een moderne PC een moderne voeding gebaseerd op een LLC resonant converter design met DC-DC converters. Jouw voeding is met zijn double forward design met individuele spanningsregulatie eigenlijk gewoon veel te verouderd voor een moderne PC met hoog verbruik. Het is dus zeker verstandig om de voeding te vervangen.
het doet het toch wel of niet (er is toch geen tussenweg?)
Verwijderd
De ene draait linksom en de andere rechtsom als je ze naast elkaar zou leggen.thijsco19 schreef op maandag 24 augustus 2020 @ 21:11:
[...]
'Ze staan identiek, alleen in spiegelbeeld', hoe spiegelbeeld bedoel je?
Wat het idee achter deze koeler is kan ik je echt niet vertellen. Ik vind het een extreem vreemd ontwerp. Maar het idee achter een een normale dual fan oplossing waarbij de ene fan linksom draait en de andere rechtsom is het verminderen van turbulentie. Je ziet het alleen niet veel, omdat het gewoon meer kost om twee fans te ontwerpen en te produceren i.v.m. één twee maal.Ook zou het niet logisch zijn als het een gewone push ventilator is, het ontwerp is dermate anders dan die andere. Waarom dan niet simpel diezelfde ventilator achterop plakken?
Een goede 650W voeding moet zeker genoeg zijn, maar een slechte of verouderde moet je niet proberen. Verouderd is trouwens niet perse leeftijd. Een enkeling van 10 jaar oud moet nog wel kunnen, maar er zijn ook nieuwe voedingen welke je niet moet proberen.Arjant2 schreef op maandag 24 augustus 2020 @ 21:15:
@Verwijderd okay helder werkt dus andersom, hoe efficienter hoe minder hij uit t stopcontact trekt, ik redeneerde andersom. Dus dan zou een fatsoenlijke 650W wel voldoende zijn.
Het zou mij verbazen als ze meer exemplaren uitbrengen met zo'n vreemd model koeler. Dat lijkt mij echt alleen iets voor het de top GPU en dan alleen door het extreme verbruik. Anders doe je zoiets niet.DaniëlWW2 schreef op maandag 24 augustus 2020 @ 21:31:
[...]
Nee, die is nieuw, maar die bevestigd het denk ik wel dat het legitiem is. Maar als ik snel kijk, dan is dit misschien de variant voor de RTX3080 die kleiner zou zijn.
Er is een grote tussenweg tussen werkt helemaal niet of werkt goed. Jij zal ook op die tussenweg komen. De PC moet sowieso wel starten met de voeding. Extreme coil whine, onstabiele PC en verkorte levensduur van de hardware door onstabiele spanningen zijn dingen die je moet verwachten.hully schreef op maandag 24 augustus 2020 @ 21:36:
[...]
ok, maar werkt de kaart dan simpelweg niet bij mijn huidige voeding (coolermaster 720 slient pro)?
het doet het toch wel of niet (er is toch geen tussenweg?)
[ Voor 3% gewijzigd door Verwijderd op 24-08-2020 21:46 ]
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/sSueHzwUWKODKtjeZjixyBsU.jpg?f=user_large)