Ondersteund de Nvidia 10-series GPU 10-bit?

Pagina: 1
Acties:

  • jeffreyfw
  • Registratie: Juli 2010
  • Laatst online: 20-07-2025
Hallo,

Ik ben een nieuwe foto-editing PC aan het bouwen...
#ProductPrijsSubtotaal
1Intel Core i7-6700K Boxed€ 358,99€ 358,99
1Asus Z170-A€ 148,99€ 148,99
1Gigabyte GeForce GTX 1070 G1 Gaming€ 471,-€ 471,-
1WD Red WD10EFRX, 1TB€ 61,95€ 61,95
2WD Red WD40EFRX, 4TB€ 155,95€ 311,90
1NZXT S340 Wit€ 65,95€ 65,95
1Arctic Freezer i32€ 27,95€ 27,95
1Corsair Vengeance LPX CMK32GX4M2B3000C15€ 183,-€ 183,-
1Corsair RM750x€ 113,95€ 113,95
1Samsung 850 EVO 500GB€ 161,95€ 161,95
1Samsung 950 Pro 256GB€ 196,95€ 196,95
Bekijk collectie
Importeer producten
Totaal€ 2.102,58

... en ik blijf tegen 1 vraag aanlopen:

De monitor die ik ga kopen is de LG 31MU97Z-B. Een 10-bit 4k scherm.

Nu lees ik dat de meeste videokaarten geen 10-bit output hebben. Ik wil graag een Nvidia kaart, maar nu blijkt dat de complete GeForce GTX series geen 10-bit ondersteund, waardoor ik naar een Quadro zou moeten... Maar, nu kom ik 1 site tegen waar het volgende staat:
The cards also finally, a first for any GeForce products, support 10-bit per color channel. Something that the Radeon counterparts had for years. So if you have a color rich 10-bit per channel monitor you’ll finally be able to enjoy it on GeForce.
Hier wordt gezegd dat de GTX 1070 en 1080 de eerste GeForce kaarten zijn die het ook ondersteunen. Klopt dit? Ik kan dit nergens verifiëren. Het liefst wil ik niet naar Quadro (wat huiverig voor het onbekende denk ik) en in een GTX 1070 wil ik best investeren wanneer ik daarmee 10-bit aankan.

Nu kom ik her en der ook uitspraken tegen dat GeForce dit al eerder ondersteunde (vanaf Maxwell) maar die geruchten worden dan ook weer tegengesproken :?

Mijn vraag is dus, kan een GTX 1070 10-bit? Kunnen de kleinere 1060 of zelfs 1050 dit misschien ook dan?
En zo nee, welke Quadro raden jullie mij aan in een build als hierboven? Budget ligt zoals je ziet rond de 2000 euro, en het wordt met name gebruikt voor het bewerken van grote RAW bestanden in Lightroom.

Alvast bedankt!

Jeffrey

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Het probleem voorzover ik het begrijp is dat GTX'en langer 10 bits via DirectX doen, maar niet via OpenGL. Terwijl juist 10 bits in Ps, Lightroom, premiere etc via OpenGL loopt. En daar heb je dus een Pro gpu voor nodig.

een 1070 zou trouwens overkill zijn voor een photo only systeem, behalve in speciale gevallen.

Quadro zou ik eigenlijk niet snel nieuw kopen, liever 2de hands.

Misschien is een nieuwe M2000 nog wel prima en niet leip duur. Al blijft 400 euro een boel geld voor wat feitelijk een gtx 950 is.. :p

[ Voor 14% gewijzigd door maratropa op 17-11-2016 21:17 ]

specs


  • SadisticPanda
  • Registratie: Februari 2009
  • Niet online

SadisticPanda

Heet patatje :o

Vanaf de 200 reeks supporten de nvidia kaarten 10/12 bit maar enkel in directx exclusive fullscreen mode. In opengl of niet exclusive ondersteunen ze maar 8-bit. Nvidia blokkeert dit. Enkel op de quadro kaarten en de drivers ervan heb je true 10bit.

Marstek 5.12kw v151, CT003 v117, Sagecom Xs212 1P,


  • Twazerty
  • Registratie: April 2006
  • Laatst online: 11:23

Twazerty

AVCHDCoder developer

Daarnaast even uitzoeken of je monitor ook daadwerkelijk 10 bit input en weergave support. Op mijn Dell P2715Q is dat namelijk een beetje een wassen neus.

Ruisende versterker: schakel je subwoofer in.


  • jeffreyfw
  • Registratie: Juli 2010
  • Laatst online: 20-07-2025
maratropa schreef op donderdag 17 november 2016 @ 21:13:
Het probleem voorzover ik het begrijp is dat GTX'en langer 10 bits via DirectX doen, maar niet via OpenGL. Terwijl juist 10 bits in Ps, Lightroom, premiere etc via OpenGL loopt. En daar heb je dus een Pro gpu voor nodig.

een 1070 zou trouwens overkill zijn voor een photo only systeem, behalve in speciale gevallen.

Quadro zou ik eigenlijk niet snel nieuw kopen, liever 2de hands.

Misschien is een nieuwe M2000 nog wel prima en niet leip duur. Al blijft 400 euro een boel geld voor wat feitelijk een gtx 950 is.. :p
Dat is dus ook het probleem, veel geld voor weinig performance bij een Quadro.

Een 1070 is inderdaad overkill, maar die had ik puur gekozen omdat het een combinatie leek te hebben van performance & 10-bit. Waarvan dit laatste dus nog steeds niet helemaal duidelijk is of dat nu ook via OpenGL gaat (ben bang van niet).

De vraag is nu dan dus meer, is een 400+ euro Quadro (m2000 of de k2200) kaart het waard om van 10-bit gebruik te kunnen maken. Of moet ik gewoon een simpele +/- 100 euro kaart nemen voor de GPU acceleratie en thats it?

De LG 31MU97Z-B blijft een prachtige monitor, met 99% AdobeRGB (en true 10-bit trouwens)... ook wanneer ik maar van 8-bit gebruik maak.

Ik weet niet goed in hoeverre 10-bit een 'beter' maar vooral 'nuttiger' beeld geeft dan de doorsnee 8-bit.

EDIT: de m2000 die 4K ondersteund is meer dan 500 euro, de goedkopere m2000 hebben max 1920x1080. Onder de 500 euro moet wel een K2200 zijn voor 4K.
Een goedkopere Quadro om eerst 10-bit te testen is ook een idee ja. Aangezien ik dus niet eerst 10-bit heb meegemaakt.

[ Voor 8% gewijzigd door jeffreyfw op 18-11-2016 09:41 ]


  • maratropa
  • Registratie: Maart 2000
  • Niet online
aangezien er bijv. massa's fotografen hun geld verdienen op 8 bits schermen lijkt me 10 bits over het algemeen meer luxe dan echt nodig.

Je zou ook eerst eens een ouder goedkoper quadro'tje op de kop kunnen tikken om eens te kijken of 30 bits voor jou meerwaarde heeft.

[ Voor 32% gewijzigd door maratropa op 17-11-2016 23:36 ]

specs

Pagina: 1