[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 15 ... 30 Laatste
Acties:
  • 125.432 views

Acties:
  • 0 Henk 'm!

  • Jordyyyyy
  • Registratie: Januari 2010
  • Laatst online: 18-09 17:58
De GTX 780 Ti is net geïntroduceerd op nVidia's evenement. Zal wel een tegenhanger worden voor de R9 290(X) van AMD

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 126"

En hoe meer ik er nu over na denk, hoe meer me dit tegen valt van Nvidia. Ze zijn zo ontzettend dom bezig door het te beperken tot Kepler. Verkoop deze chip nu eens wat breder, zorg er voor dat Intel en AMD ook mee kunnen doen. Stop dat ding in TV's - voor de consoles is dit zo'n uitkomst, omdat die dan fijn op 1080p40 kunnen draaien als je zo'n TV hebt. De meeste devs moeten nu nog steeds de afweging tussen 1080p30 en 720p60 maken.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Jordyyyyy schreef op vrijdag 18 oktober 2013 @ 17:35:
De GTX 780 Ti is net geïntroduceerd op nVidia's evenement. Zal wel een tegenhanger worden voor de R9 290(X) van AMD
http://www.engadget.com/2013/10/18/nvidia-gtx-780-ti/

http://videocardz.com/469...ounces-geforce-gtx-780-ti

[ Voor 10% gewijzigd door calsonic op 18-10-2013 20:59 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Kijk dan mee ruit naar eventuele prijsverlagingen, Hopelijk een 780 onder de 500 euro.

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

nieuws: Nvidia kondigt GTX 780 TI-videokaart aan

Het valt me op dat men niet zo enthousiast is over de 780 Ti. Dat snap ik niet helemaal. Hij zal hetzelfde kosten als de 780 en minstens zo goed zijn als de Titan.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dat is omdat het heel duidelijk een snelle reactie op AMD is. Het feit dat ze al meteen zeggen dat hij pas vanaf november te koop zal zijn geeft aan dat ze niet verwacht hadden dat AMD ze zo het vuur aan de schenen ging leggen.

Even afgezien van het feit dat het niets nieuws gaat zijn, bij AMD krijgen we volgende week een nieuwe chip te zien en een API die grote winsten met zich mee zou brengen.

Acties:
  • 0 Henk 'm!

  • Katmi
  • Registratie: Augustus 2013
  • Laatst online: 06-09 00:17
die 780 Ti is gewoon een reactie op de Titan vs R9 290x benchmarks...

Nvidia had hun '' eigen 290x'' nodig dus ze hebben gewoon de Titan/780 chip genomen en zo geclocked dat hij sneller is dan een 780 maar toch nog genoeg dichtgeknepen dat het ook geen Titan is, dus maw hun eigen R9 290x.

Wat uiteindelijk nog grappig is aangezien de R9 290x in benchmarks sneller was in sommige games op high resolution dan de Titan.
Nu zowiezo deze move doen net na de 290x benchmarks is een kneuzenmove... toont gewoon dat ze geen vertrouwen hebben in hun normal 780 model om de R9 290x verkoop in te perken.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Katmi schreef op zaterdag 19 oktober 2013 @ 14:57:
die 780 Ti is gewoon een reactie op de Titan vs R9 290x benchmarks...

Nvidia had hun '' eigen 290x'' nodig dus ze hebben gewoon de Titan/780 chip genomen en zo geclocked dat hij sneller is dan een 780 maar toch nog genoeg dichtgeknepen dat het ook geen Titan is, dus maw hun eigen R9 290x.

Wat uiteindelijk nog grappig is aangezien de R9 290x in benchmarks sneller was in sommige games op high resolution dan de Titan.
Nu zowiezo deze move doen net na de 290x benchmarks is een kneuzenmove... toont gewoon dat ze geen vertrouwen hebben in hun normal 780 model om de R9 290x verkoop in te perken.
Onzin natuurlijk - van origine was de GK110 bedoeld voor de gtx680

Acties:
  • 0 Henk 'm!

  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 16-09 21:41
Katmi schreef op zaterdag 19 oktober 2013 @ 14:57:
die 780 Ti is gewoon een reactie op de Titan vs R9 290x benchmarks...

Nvidia had hun '' eigen 290x'' nodig dus ze hebben gewoon de Titan/780 chip genomen en zo geclocked dat hij sneller is dan een 780 maar toch nog genoeg dichtgeknepen dat het ook geen Titan is, dus maw hun eigen R9 290x.

Wat uiteindelijk nog grappig is aangezien de R9 290x in benchmarks sneller was in sommige games op high resolution dan de Titan.
Nu zowiezo deze move doen net na de 290x benchmarks is een kneuzenmove... toont gewoon dat ze geen vertrouwen hebben in hun normal 780 model om de R9 290x verkoop in te perken.
Waarom is dat een kneuzenmove? Het is toch gewoon slim om een product uit te brengen als je huidige tegen de concurrent op kan qua prestaties? Dit is toch waar concurrentie om draait lijkt me? Wellicht blijven ze de GTX780 produceren en krijgt deze een pricedrop om te kunnen concurreren met de 290?

Acties:
  • 0 Henk 'm!

  • Nas T
  • Registratie: Januari 2003
  • Laatst online: 18-09 17:07
PatrickH89 schreef op zaterdag 19 oktober 2013 @ 15:15:
[...]
Het is toch gewoon slim om een product uit te brengen als je huidige tegen de concurrent op kan qua prestaties? Dit is toch waar concurrentie om draait lijkt me?
Dat is niet mijn idee van innoveren...
Kijk eens naar Intel: die is heer en meester op het gebied qua processorprestaties, maar gaat niet heel actief met AMD concurreren. Laat die maar in de markt zitten waar de winsten laag zijn...

Ik denk dat het overkomt als je kaarten niet spelen totdat de tegenstander uitkomt. Dan onthou je de consument van mogelijkheden...

[ Voor 11% gewijzigd door Nas T op 19-10-2013 15:35 ]

vrede in rust


Acties:
  • 0 Henk 'm!

  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 16-09 21:41
Nas T schreef op zaterdag 19 oktober 2013 @ 15:34:
[...]

Dat is niet mijn idee van innoveren...
Kijk eens naar Intel: die is heer en meester op het gebied qua processorprestaties, maar gaat niet heel actief met AMD concurreren. Laat die maar in de markt zitten waar de winsten laag zijn...

Ik denk dat het overkomt als je kaarten niet spelen totdat de tegenstander uitkomt. Dan onthou je de consument van mogelijkheden...
Want alles draait om innovatie? Ik vind het persoonlijk ook fijn als een partij geen monopolie heeft en ik producten voor de laagst mogelijke prijs kan kopen. Daarvoor is het een goede move (dat is naar mijn mening ook de reden dat Intel belachelijke marges kan vragen en daar worden wij helemaal niet beter van).

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:55
Verbeteren en de naam aanpassen is toch vrij standaard?
7970->7970GHz->280X
680->770
780->780Ti is gewoon een logisch gevolg van de markt (mits de kaart het aankan natuurlijk).

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 18-09 09:23
witeken schreef op zaterdag 19 oktober 2013 @ 12:58:
nieuws: Nvidia kondigt GTX 780 TI-videokaart aan

Het valt me op dat men niet zo enthousiast is over de 780 Ti. Dat snap ik niet helemaal. Hij zal hetzelfde kosten als de 780 en minstens zo goed zijn als de Titan.
Een 780 met een custom cooler is al minstens net zo goed als een titan, en volgens mij zelfs beter. (Game performance wise)

Acties:
  • 0 Henk 'm!

  • Nas T
  • Registratie: Januari 2003
  • Laatst online: 18-09 17:07
PatrickH89 schreef op zaterdag 19 oktober 2013 @ 15:54:
[...]
Want alles draait om innovatie? Ik vind het persoonlijk ook fijn als een partij geen monopolie heeft en ik producten voor de laagst mogelijke prijs kan kopen. Daarvoor is het een goede move (dat is naar mijn mening ook de reden dat Intel belachelijke marges kan vragen en daar worden wij helemaal niet beter van).
Wie zegt dat Intel een monopolie heeft? Ze maken behoorlijk goede producten en vragen er veel geld voor. Ze weerhouden niemand om te concurreren en dat gebeurt niet omdat ze tot nu toe excelleren. Kijk maar naar wat er op de mobiele markt gebeurt: ze zijn sinds enkele jaren actief en qua prestaties de sterkst groeiende fabrikant.

Wat Nvidia doet is concurreren, niet excelleren. Nu mag jij mij wijsmaken dat jij liever een concurrerend product koopt dan een excellerend... ;)

vrede in rust


Acties:
  • 0 Henk 'm!

  • joon
  • Registratie: Januari 2003
  • Laatst online: 12-09 15:57
Heb zojuist mijn Video/Audio setup gemoderniseerd door een nieuwe Audio/Video receiver neer te zetten.
Dit werkt echt perfect, heb nu mijn audio en video via mn GTX 780 gelinkt met HDMI naar de receiver waardoor ik dus audio via mijn receiver verwerk en het beeld doorgaat naar mn TV als externe monitor.

Nu kom ik op het punt waarom ik eigenlijk in het NVidia draadje post en dat is omdat als mn display('s) gaan slapen schakelt de computer doodleuk de hdmi audio out ook uit en dit wil ik niet.
Nou heb ik een beetje gegoogled maar denk dat ik niet de correcte termen hiervoor gebruik dus hier kom ik ook niet mee verder.
Kan me niet voorstellen dat ik de enige ben met dit probleem, heeft iemand een tip voor me behalve mn schermen niet op standby laten gaan ?

[ Voor 7% gewijzigd door joon op 19-10-2013 17:29 ]


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Werelds schreef op zaterdag 19 oktober 2013 @ 13:52:
Dat is omdat het heel duidelijk een snelle reactie op AMD is. Het feit dat ze al meteen zeggen dat hij pas vanaf november te koop zal zijn geeft aan dat ze niet verwacht hadden dat AMD ze zo het vuur aan de schenen ging leggen.

Even afgezien van het feit dat het niets nieuws gaat zijn, bij AMD krijgen we volgende week een nieuwe chip te zien en een API die grote winsten met zich mee zou brengen.
Denk je dat echt? Een gpu maak je niet even binnen een paar dagen. AMD heeft 290-serie al in september aangekondigd, maar is ook nog steeds niet verkrijgbaar.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 16-09 21:41
Nas T schreef op zaterdag 19 oktober 2013 @ 17:03:
[...]

Wie zegt dat Intel een monopolie heeft? Ze maken behoorlijk goede producten en vragen er veel geld voor. Ze weerhouden niemand om te concurreren en dat gebeurt niet omdat ze tot nu toe excelleren. Kijk maar naar wat er op de mobiele markt gebeurt: ze zijn sinds enkele jaren actief en qua prestaties de sterkst groeiende fabrikant.

Wat Nvidia doet is concurreren, niet excelleren. Nu mag jij mij wijsmaken dat jij liever een concurrerend product koopt dan een excellerend... ;)
Verzin jij anders je eigen betekenis op concurrerend. Als er concurrerende producten zijn betekent dat nergens dat die niet excelleren. Bovendien wil ik niet dat er producten excelleren, in ieder geval niet voor langere tijd, dat doet de prijzen namelijk niet goed. En ja, ik denk dat Intel in het geval van een x86 concurrent die daadwerkelijk de middelen had om te concurreren een stuk harder had willen innoveren. Als consument wil je gewoon dat er concurrentie is, niet dat 1 fabrikant de beste producten maakt en dat die qua prijs/prestatie nergens meer over gaan.

Het liefst koop ik natuurlijk een excellerend product wat tevens een concurrerend product is, want als deze niet concurrerend is betaal ik veel teveel.

[ Voor 6% gewijzigd door PatrickH89 op 19-10-2013 19:02 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

witeken schreef op zaterdag 19 oktober 2013 @ 18:58:
[...]

Denk je dat echt? Een gpu hernoem je binnen een paar dagen. AMD heeft 290-serie al in september aangekondigd, maar is ook nog steeds niet verkrijgbaar.
Denk dat dit accurater is.

De GTX 780 TI is niet meer dan een GTX 780 met wellicht wat meer shaders unlocked en een iets hogere core clock. Niks speciaals.
Je bent beter af je huidige GTX780 te overclocken (indien je die hebt).

Het is vrij standaard om voor gpu fabrikanten een product ruim van te voren aan te kondigen, dit zorgt er o.a. voor dat de sales van het andere kant minder worden tijdens het wachten op het nieuwe product. Nvidia heeft dit ook gedaan met fermi, ze lieten zelfs een met schroeven in elkaar gezette versie zien :+.

Acties:
  • 0 Henk 'm!

  • fast-server
  • Registratie: April 2003
  • Laatst online: 10-09 18:33
Ze kunnen nu wel de 780TI introduceren en leveren per november , probleem is echter wel dat ze nog niet weten wat mantle performance wise gaat doen.
Stel dat mantle een boost geeft van 25% in frostbite en activision games etc. wat gaat Nvidia dan doen?
Ze kunnen wel een OC versie van de titan gaan verkopen met 4GB vram als een GTX790 voor 550 euro maar daar zijn deze GPU's te duur voor.

Ze hadden beter kunnen wachten tot na de "Amd Developer Summit in November" waar mantle uit de doeken wordt gedaan.

Nu is het meer "een kat in het nauw maakt rare sprongen"

PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 09:32

OMD

Je begint je stelling met stel dat....

Er is niets bekend over welke performance winst mantle met zich mee brengt.
Het is daarom ook moeilijk te zeggen wat er gaat gebeuren met nvidia komende maanden.

Het is wel zo dat nvidia's tegenhangers van de R9290X alweer een tijdje meedraaien. Wellicht komt met de volgende generatie weer een flinke boost t.o.v current gen.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

OMD schreef op zaterdag 19 oktober 2013 @ 20:52:
Je begint je stelling met stel dat....

Er is niets bekend over welke performance winst mantle met zich mee brengt.
Het is daarom ook moeilijk te zeggen wat er gaat gebeuren met nvidia komende maanden.

Het is wel zo dat nvidia's tegenhangers van de R9290X alweer een tijdje meedraaien. Wellicht komt met de volgende generatie weer een flinke boost t.o.v current gen.
Iets wat AMD zelf zei is dat ze niet Mantle hebben ontworpen voor een aantal procenten winst. Ik ga dan al van minimaal 10% uit en in het geval van een cpu die minder sterk is in singlethreaded performance maar wel veel cores heeft meer (anders zou het cpu bound zijn).

@hieronder
Is ook niks verkeerd aan :p (imho).

[ Voor 3% gewijzigd door Sp3ci3s8472 op 19-10-2013 21:51 ]


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Nog steeds zie ik het probleem niet, en dat het een "rare sprong" zou zijn. Nvidia wist dat AMD rond oktober nieuwe kaarten zou uitbrengen, dus maakten ze een nieuw competitief vlaggenschip klaar om het tegen AMD op te nemen. Is niet mis mee, toch? Om een voorbeeld uit een ander gebied te namen: Canon en Nikon brengen ook vaak elkaars concurrerende dslr's binnen enkele maanden of zelfs weken van elkaar uit.

Of het gaat om een soort rebrand is ook nog niet zeker te zeggen, want de kloksnelheid, of aantal ingeschakelde smx'en zijn nog niet bekend. Allicht zal het niet beter zijn om een 780 te kopen en te overklokken, aangezien de 780 Ti dezelfde prijs zal hebben.

En Mantle... tot nu toe heeft enkel BF4 ondersteuning, en over de winst in performance is helemaal niets bekend. Ik weet niet of er echt veel devs staan te springen om 1 reeksje videokaarten op low-level te gaan ondersteunen. Zoals vaak is aangehaald in het next-gen consoles-topic, zouden devs niet speciaal voor 1 console (Ps4, die zo'n 50% sneller is) willen optimaliseren. Dus dat devs massaal Mantle, dat in vergelijking met de Ps4 een veel kleiner percentage videokaarten ondersteunt, lijkt me niet zo zeker. Zelfs over andere Frostbite 3-games zoals NFS:R, is niet bekend dat ze Mantle ondersteunen.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Wat ik wel weet is dat nogal wat goed aangeschreven mensen erg positief zijn over G-sync.

Het is dan ook nogal jammer dat dit weer proprietary is. Ik word daar zo moe van. Waarom kan nvidia die technologie niet gewoon voor een normale prijs in licentie geven. Dan wint iedereen. :(

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Is G-sync in feite niets meer dat je monitor mee schaalt met de fps die jij in game haalt? Dus stel ik haal 66fps, dan is mijn refreshrate op dat moment ook 66 hertz. Op deze manier voorkom je input lag die je krijgt door double of tripple buffering. Heb je niet meer dezelfde limitaties die v-sync geeft namelijk dat je een bepaalt aantal fps moet hebben in het geval van double buffering 60, 30 of 15.

Het zou inderdaad gewoon erg mooi zijn als het voor iedereen werkt. Het zou me niks verbazen dat je je vendor code kan spoofen en dat het gewoon werkt op alle kaarten, zei het Nvidia, Intel, AMD.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op zaterdag 19 oktober 2013 @ 21:49:
Is G-sync in feite niets meer dat je monitor mee schaalt met de fps die jij in game haalt? Dus stel ik haal 66fps, dan is mijn refreshrate op dat moment ook 66 hertz. Op deze manier voorkom je input lag die je krijgt door double of tripple buffering. Heb je niet meer dezelfde limitaties die v-sync geeft namelijk dat je een bepaalt aantal fps moet hebben in het geval van double buffering 60, 30 of 15.
Ja volgensmij wel. Anandtech is bijv. nogal positief en schrijft:

"Switching gears NVIDIA also ran a real world demonstration by spinning the camera around Lara Croft in Tomb Raider. The stutter/tearing effects weren't as pronounced as in NVIDIA's test case, but they were both definitely present on the traditional system and completely absent on the G-Sync machine. I can't stress enough just how smooth the G-Sync experience was, it's a game changer."

The combination of technologies like GeForce Experience, having a ton of GPU performance and G-Sync can really work together to deliver a new level of smoothness, image quality and experience in games. We've seen a resurgence of PC gaming over the past few years, but G-Sync has the potential to take the PC gaming experience to a completely new level.
Het zou inderdaad gewoon erg mooi zijn als het voor iedereen werkt. Het zou me niks verbazen dat je je vendor code kan spoofen en dat het gewoon werkt op alle kaarten, zei het Nvidia, Intel, AMD.
Hoop ik, maar ben bang van niet. Schijnt vooralsnog de monitor ook behoorlijk wat duurder te maken.

Overigens, het verslag op anandtech van de Q&A met John Carmack, Tim Sweeney and Johan Andersson is behoorlijk interessant vind ik. Ze vinden alle drie G sync belangrijker dan 4k monitoren, gaan in op mantle etc..

[ Voor 7% gewijzigd door Help!!!! op 19-10-2013 23:08 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 09:32

OMD

Sp3ci3s8472 schreef op zaterdag 19 oktober 2013 @ 21:32:
[...]


Iets wat AMD zelf zei is dat ze niet Mantle hebben ontworpen voor een aantal procenten winst. Ik ga dan al van minimaal 10% uit en in het geval van een cpu die minder sterk is in singlethreaded performance maar wel veel cores heeft meer (anders zou het cpu bound zijn).

@hieronder
Is ook niks verkeerd aan :p (imho).
Ze hebben inderdaad zoiets vermeld. Ze hebben vermeld dat ze het niet voor 3 of 4 procent winst wilde ontwikkelen. Meer dan dat is er volgens mij niet vermeld, correct me if i'm wrong.

Er zijn nog geen technische specificaties bekend over de Ti versie. Dat zal komende dagen wel duidelijk worden. Volgens mij werd er tijdens het Nvidia event vermeld dat er kaarten onderweg zijn naar de bekende reviewers.

Zal me niets verbazen als die 24 oktober bekend worden gemaakt ( dat is toch de dag dat de reviews van de 290X online mogen? )

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • fast-server
  • Registratie: April 2003
  • Laatst online: 10-09 18:33
witeken schreef op zaterdag 19 oktober 2013 @ 21:33:

En Mantle... tot nu toe heeft enkel BF4 ondersteuning, en over de winst in performance is helemaal niets bekend. Ik weet niet of er echt veel devs staan te springen om 1 reeksje videokaarten op low-level te gaan ondersteunen. Zoals vaak is aangehaald in het next-gen consoles-topic, zouden devs niet speciaal voor 1 console (Ps4, die zo'n 50% sneller is) willen optimaliseren. Dus dat devs massaal Mantle, dat in vergelijking met de Ps4 een veel kleiner percentage videokaarten ondersteunt, lijkt me niet zo zeker. Zelfs over andere Frostbite 3-games zoals NFS:R, is niet bekend dat ze Mantle ondersteunen.
Wie zegt dat de XBOX One geen mantle ondersteuning heeft? zou maar zo kunnen zijn dat deze DX als backup heeft. dit zal MS echter niet zo snel toegeven aangezien DX hun eigen kindje is.
Anand heeft ook al het vermoeden dat de mantle API voor de PC zomaar van de XBOX One kan afkomen.
Ryan Smith - Tuesday, October 15, 2013
It's our belief that Mantle is the Xbox One's low level API brought to the PC; but it's not a low level PC API brought to the Xbox One. The symmetric property wouldn't apply here.
Het lijkt er nu dus al sterk op dat beide consoles de API ondersteunen, voor game ontwikkelaars op de consoles is dit natuurlijk win-win aangezien een game wel erg makkelijk te porten is vanaf de One naar de PC.

Mantle is een beetje bedoeld als 3dfx glide maar dan zonder de bekende nadelen, in UT gaf glide t.o.v. Direct3d toch een derde meer fps (60fps ipv 45fps) op 1024x768 32bit ( good old times :P )

NFT:R stond trouwens wel op de AMD sheet klik

Activision heeft ook al aangegeven dat ze mantle willen gaan ondersteunen, dus het is niet alleen Dice.

Ik verwacht zelf op basis van glide en de verdriedubbeling van het aantal drawcalls (in BF4) een boost tussen de 20 en 35%

Het zou toch mooi zijn als er 1 nieuwe standaard zou komen zonder de DirectX overhead? zolang deze standaard open is zijn het de consumenten die winnen.

[ Voor 5% gewijzigd door fast-server op 19-10-2013 22:39 ]

PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Je eerste zin: http://www.anandtech.com/show/7420/microsoft-comments-on-state-of-direct3d-mantle-support-names-xbox-one-api-direct3d-11x

NFS:R is gewoon een Frostbit 3-game, dat wilt niet zeggen dat er zoals BF4 ook een update met Mantle-ondersteuning voor komt.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

It’s not that Mantle is the initial language with which developers are writing their games on each platform, as some have surmised; the point of Mantle is that it’s easy to reuse, in whole or in part, the development effort expended on the next-generation consoles when bringing the same game to life on the PC. This is because Mantle allows developers to use the same features and programming techniques they are already utilizing for next-gen game consoles. And while the initial iteration of Mantle is intended specifically for PCs, it has been designed from the beginning to be extensible to other platforms as well.
Bron: http://community.amd.com/community/amd-blogs/amd-gaming/blog/2013/10/17/the-four-core-principles-of-amd-s-mantle

Wat dus het volgende geeft, je kan voor een pc dus op een vergelijkbare manier programmeren als voor een Xbox One of PS4. Dit kan het poorten ook een stuk makkelijker maken voor GNC kaarten.

Zou wel grappig (en handig) zijn als Nvidia de kaarten op dezelfde dag aan de reviewers beschikbaar stelt als AMD de 290(x) dan kunnen mensen meteen kijken wat hen het meest aanspreekt.

@Help!!!!
Wat ik bedoelde met spoofen is dat je de monitor (moet dus wel een zijn met die chip) voor de gek houd terwijl je geen Nvidia kaart hebt.

[ Voor 9% gewijzigd door Sp3ci3s8472 op 19-10-2013 23:06 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sp3ci3s8472 schreef op zaterdag 19 oktober 2013 @ 21:49:
Is G-sync in feite niets meer dat je monitor mee schaalt met de fps die jij in game haalt? Dus stel ik haal 66fps, dan is mijn refreshrate op dat moment ook 66 hertz. Op deze manier voorkom je input lag die je krijgt door double of tripple buffering. Heb je niet meer dezelfde limitaties die v-sync geeft namelijk dat je een bepaalt aantal fps moet hebben in het geval van double buffering 60, 30 of 15.
Even crue samenvatten: Het verlegt de verantwoordelijkheden. Je monitor en GPU draaien normaal autonoom; de GPU rendert z'n zooi en stopt het in de framebuffer en de monitor haalt elke 16,67ms het frame dat op dat moment in die framebuffer zit en geeft dan even door dat hij dat gedaan heeft. De monitor boeit het geen reet of dat een oud of nieuw frame is, hij verwacht gewoon een frame daar. De GPU boeit het ook geen reet wanneer dat frame er uit gehaald wordt.

V-Sync verplicht de GPU vervolgens om niks in de framebuffer te stoppen totdat de monitor het laatste frame er volledig uit heeft gehaald. Double en triple buffering voegen gewoon twee framebuffers toe; bij double wordt er in de tweede buffer het nieuwe frame gezet en kopiëert hij dat naar de primary als de monitor het frame er uit heeft gehaald (of ze verwisselen de twee buffers). De GPU moet dan echter nog steeds wachten tot dat gebeurd is voor hij iets in de tweede buffer kan stoppen, dus bij triple buffering komt er dan een derde bij zodat de GPU altijd een buffer heeft waar hij z'n zooi in kwijt kan.

G-Sync draait het om, de GPU krijgt de controle. Wanneer de GPU een frame klaar heeft, wordt dit naar de monitor gestuurd - er is geen polling meer. Daarom is DisplayPort ook noodzakelijk; HDMI en DVI werken allebei op vaste klok signalen (1 van de pinnen in de stekker is ook puur dat signaal), terwijl DisplayPort van nature al geen vaste klok heeft. Er zit wel een klok draad in de stekker, maar daar hoeft geen vaste timer achter te zitten.
Het zou inderdaad gewoon erg mooi zijn als het voor iedereen werkt. Het zou me niks verbazen dat je je vendor code kan spoofen en dat het gewoon werkt op alle kaarten, zei het Nvidia, Intel, AMD.
Sp3ci3s8472 schreef op zaterdag 19 oktober 2013 @ 23:06:
@Help!!!!
Wat ik bedoelde met spoofen is dat je de monitor (moet dus wel een zijn met die chip) voor de gek houd terwijl je geen Nvidia kaart hebt.
Na de samenvatting hierboven denk ik dat het wel duidelijk is waarom dit niet kan, maar toch voor de volledigheid even: er moet een stuk software aanwezig zijn dat dat refresh signaal over DP naar buiten stuurt. De monitor kijkt niet meer naar de GPU; hij *wacht* juist tot hij een signaal krijgt.

Een vendor ID spoofen heeft dus geen zin; je moet ook de software van Nvidia er naast hebben. Ik gok dat dit gewoon in de driver zit, dus helaas pindakaas, zo eenvoudig is het niet :)

De enige manier waarop spoofen zou kunnen werken is als de aansturing bij de monitor fabrikanten komt te liggen en het dus HUN driver is die er voor zorgt; en dan nog zal er dan wat reverse engineering plaats moeten vinden om. Iets zegt me dat dat niet het geval gaat zijn ;)

[ Voor 4% gewijzigd door Werelds op 20-10-2013 00:32 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op zondag 20 oktober 2013 @ 00:29:
[...]
Na de samenvatting hierboven denk ik dat het wel duidelijk is waarom dit niet kan, maar toch voor de volledigheid even: er moet een stuk software aanwezig zijn dat dat refresh signaal over DP naar buiten stuurt. De monitor kijkt niet meer naar de GPU; hij *wacht* juist tot hij een signaal krijgt.

Een vendor ID spoofen heeft dus geen zin; je moet ook de software van Nvidia er naast hebben. Ik gok dat dit gewoon in de driver zit, dus helaas pindakaas, zo eenvoudig is het niet :)

De enige manier waarop spoofen zou kunnen werken is als de aansturing bij de monitor fabrikanten komt te liggen en het dus HUN driver is die er voor zorgt; en dan nog zal er dan wat reverse engineering plaats moeten vinden om. Iets zegt me dat dat niet het geval gaat zijn ;)
Ah zo :p, goede uitleg.

Ik dacht dat de kaart gewoon een aantal frames per seconde zou uitsturen en dat het enige wat de chip zou doen is vertellen wat de refreshrate is. Maar zoals jij al zegt moet er vanuit de gpu kant (driver) ook de refresh rate worden verandert, daar had ik even overheen gekeken.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, dat is het nu juist, er is geen refresh rate met dit systeem. Daarom is er aan de monitor kant een nieuwe controller nodig. Je frame rate is de "refresh" rate. Elk frame dat gerenderd wordt zorgt voor een refresh. Met uiteraard dubbele frames om minimaal 30 te halen en gedropte frames om onder het maximum van het LCD te blijven :)

Acties:
  • 0 Henk 'm!

  • Nas T
  • Registratie: Januari 2003
  • Laatst online: 18-09 17:07
Hoe dan ook, de reactie van Anandtech was zéér positief, wat zij zagen maakte een wereld van verschil.
Nu is het natuurlijk in een omgeving weergegeven waarin Nvidia de hand heeft, maar goed, de kijkers daar zijn ook niet stom dus het is wachten hoe dit in de praktijk uitpakt.

Ik ben wel blij dat er al een aantal bekende namen zichtbaar waren zoals Asus, Philips en Benq, ik hoop dat Dell ook mee gaat doen en een aantal IPS schermpjes van deze techniek voorziet.
De techniek klinkt niet nodeloos ingewikkeld, dua ik hoop niet dat er gelijk een premium van €100+ bovenop gaat moeten.

vrede in rust


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Katmi schreef op zaterdag 19 oktober 2013 @ 14:57:
die 780 Ti is gewoon een reactie op de Titan vs R9 290x benchmarks...

Nvidia had hun '' eigen 290x'' nodig dus ze hebben gewoon de Titan/780 chip genomen en zo geclocked dat hij sneller is dan een 780 maar toch nog genoeg dichtgeknepen dat het ook geen Titan is, dus maw hun eigen R9 290x.

Wat uiteindelijk nog grappig is aangezien de R9 290x in benchmarks sneller was in sommige games op high resolution dan de Titan.
Nu zowiezo deze move doen net na de 290x benchmarks is een kneuzenmove... toont gewoon dat ze geen vertrouwen hebben in hun normal 780 model om de R9 290x verkoop in te perken.
Zijn hele andere prijs ranges. De 290x gaat duurder dan de 780gtx worden zijn de geruchten en de 290 rond de 780 prijzen. Nvidia positioneerd er dus nog alleen eenkaart tussen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nas T schreef op zondag 20 oktober 2013 @ 10:00:
De techniek klinkt niet nodeloos ingewikkeld, dua ik hoop niet dat er gelijk een premium van €100+ bovenop gaat moeten.
Wel dus :)

ASUS heeft de G-Sync versie van hun VG248QE al bevestigd: $399. De "standaard" monitor kost nu $280 daaro. Dat is dus $120 extra voor wat nog steeds een schijt TN panel is - en zelfs op een oud model durven ze er dus zo veel extra voor te vragen. Let wel, de G-Sync controller vervangt een deel van de bestaande hardware in de monitor, dus in werkelijkheid vragen ze er zelfs meer dan $120 voor. Reken maar dat toekomstige modellen nog meer gaan kosten.

Hier kost die monitor nu zo'n 300 Euro, ik denk dat wij wel mogen rekenen op 450. En dan heb je een monitor waar je een hoop geld op bij hebt gelegd voor een feature die alleen met Nvidia gaat werken. Er zullen vast wel idioten zijn die dat doen (omdat ze geld te veel hebben of sowieso kleppen voor hun ogen hebben en alleen Nvidia kopen), net als met 3D - maar objectief gezien is dat gewoon echt een domme actie :)

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 09:32

OMD

Objectief gezien is dat een hele domme actie
:'(

Dat is niet obectief, niet suggestief maar subjectief... Het is namelijk jouw mening.
Dit is niet te onderbouwen met feiten ben ik bang.

Ik vind namelijk van niet dat alleen mensen die oogkleppen voor hebben of teveel geld hebben kiezen voor zo een monitor. Er zijn gewoon echt mensen die enkel en alleen Nvidia kaarten kopen net als iemand een favoriet automerk heeft.

Ik hoor daar persoonlijk niet bij aangezien ik steeds switch van kamp :9


Het is een mooie techniek waar een aantal reviewers best over te spreken zijn. Ik ben benieuwd hoe het zich uitpakt en wellicht omdat ik geld te veel heb :o koop ik wel zo een monitor. Ik wacht de reviews wel even af.

[ Voor 3% gewijzigd door OMD op 20-10-2013 13:33 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op zondag 20 oktober 2013 @ 13:31:
:'(

Dat is niet obectief, niet suggestief maar subjectief... Het is namelijk jouw mening.
Dit is niet te onderbouwen met feiten ben ik bang.
Tuurlijk wel ;)

Je betaalt meer voor een stukje functionaliteit en dat stukje functionaliteit beperkt de keuze in een deel de rest van de hardware. Met andere woorden, door geld in dat stukje functionaliteit te pompen op deze manier lever je je over aan de grillen van Nvidia. Je kunt alleen hun producten kopen; zij kunnen de prijzen opdrijven of de ondersteuning beperken tot bepaalde GPUs/configuraties - en dat hebben ze meer dan eens gedaan. Het is of dat, of je gaat eigenwijs toch weer voor een kaart van iemand anders in de toekomst en dan kun je dat stukje functionaliteit waar je voor hebt betaald niet gebruiken.

Objectief is dat gewoon een onzinnige aankoop. Je beperkt je mogelijkheden enorm. Begrijp me niet verkeerd, ik wil dit heel graag hebben. Maar niet als het me alleen tot Nvidia beperkt. Ik schakel te graag tussen de twee fabrikanten. Nogmaals, ik ga ook geen game kopen omdat er Mantle in zit of omdat er PhysX in zit (sterker nog, dat laatste kan me wel eens weg drijven :P). Zo wil ik ook geen GPU hoeven kopen omdat het Nvidia is en G-Sync heeft.
Ik vind namelijk van niet dat alleen mensen die oogkleppen voor hebben of teveel geld hebben kiezen voor zo een monitor. Er zijn gewoon echt mensen die enkel en alleen Nvidia kaarten kopen net als iemand een favoriet automerk heeft.
Mja maar dat bedoel ik dus; er zijn heel veel mensen die gewoon blind Nvidia kopen ongeacht hoe veel sneller AMD wellicht is op dat prijs punt.

Mensen die blind voor een auto merk kiezen zijn net zo dom - elk model en generatie van die fabrikant is anders. Daar kunnen veel VW rijders die de eerste generatie 1.4 TSI's reden je wel iets meer over vertellen bijvoorbeeld ;)

[ Voor 9% gewijzigd door Werelds op 20-10-2013 14:12 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Nu online
Werelds schreef op zondag 20 oktober 2013 @ 12:40:
[...]

Wel dus :)

ASUS heeft de G-Sync versie van hun VG248QE al bevestigd: $399. De "standaard" monitor kost nu $280 daaro. Dat is dus $120 extra voor wat nog steeds een schijt TN panel is - en zelfs op een oud model durven ze er dus zo veel extra voor te vragen. Let wel, de G-Sync controller vervangt een deel van de bestaande hardware in de monitor, dus in werkelijkheid vragen ze er zelfs meer dan $120 voor. Reken maar dat toekomstige modellen nog meer gaan kosten.

Hier kost die monitor nu zo'n 300 Euro, ik denk dat wij wel mogen rekenen op 450. En dan heb je een monitor waar je een hoop geld op bij hebt gelegd voor een feature die alleen met Nvidia gaat werken. Er zullen vast wel idioten zijn die dat doen (omdat ze geld te veel hebben of sowieso kleppen voor hun ogen hebben en alleen Nvidia kopen), net als met 3D - maar objectief gezien is dat gewoon echt een domme actie :)
Je kan g sync ook in 2560x1440 ips monitoren verwachten, waarschijnlijk naast een goedkoper niet gsync model, tot 4K volgens de slides, misschien dat het ding daarom ook zo duur is.

"objectief echt een domme actie"? sommige mensen willen dit gewoon, als je daardoor voorlopig vendor lockin hebt so be it, en als je switched is het niet alsof je monitor het gelijk niet meer doet, heeft gewoon een 100,- feature die je niet gebruikt, voor de doelgroep is dit peanuts. Amd doet ook aan vendor lockin met mantle en hun koptelefoon audio chipje.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Werelds schreef op zondag 20 oktober 2013 @ 12:40:
[...]

Wel dus :)

ASUS heeft de G-Sync versie van hun VG248QE al bevestigd: $399. De "standaard" monitor kost nu $280 daaro. Dat is dus $120 extra voor wat nog steeds een schijt TN panel is - en zelfs op een oud model durven ze er dus zo veel extra voor te vragen. Let wel, de G-Sync controller vervangt een deel van de bestaande hardware in de monitor, dus in werkelijkheid vragen ze er zelfs meer dan $120 voor. Reken maar dat toekomstige modellen nog meer gaan kosten.

Hier kost die monitor nu zo'n 300 Euro, ik denk dat wij wel mogen rekenen op 450. En dan heb je een monitor waar je een hoop geld op bij hebt gelegd voor een feature die alleen met Nvidia gaat werken. Er zullen vast wel idioten zijn die dat doen (omdat ze geld te veel hebben of sowieso kleppen voor hun ogen hebben en alleen Nvidia kopen), net als met 3D - maar objectief gezien is dat gewoon echt een domme actie :)
Je moet natuurlijk niet de laagste prijs met een adviesprijs gaan vergelijken ;). Als ik in de PW kijk kostte die monitor in het begin zo'n 340 euro, dus waarschijnlijk een adviesprijs van 350 euro. Dat geeft toch al een verschil van 50 euro in de vergelijking van verschil in prijs. Nvidia heeft gezegd de prijs van de module tot onder de 100 dollar te willen reduceren. Ik zou dan ook rekenen op een verschil in adviesprijs van 100 euro.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Maar goed. E100 op een monitor van E300 is toch wel significant te noemen.

Ik zie liever dat nvidia alleen de tech licensed zodat iedereen het kan gebruiken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op zondag 20 oktober 2013 @ 14:20:
Amd doet ook aan vendor lockin met mantle en hun koptelefoon audio chipje.
Echter is dat 1 enkel product. Mantle forceert je niet om ook een speciale monitor te hebben die ALLEEN met AMD werkt.

En koptelefoon audio chipje? Volgens mij begrijp jij niet wat TrueAudio doet :P

Even afgezien van het feit dat ook TrueAudio geen enkele invloed op al je andere hardware heeft - sterker nog, je kunt het gewoon met je onboard sound gebruiken, ongeacht wat dat is aangezien de geluidsverwerking plaats vindt voordat het geluid naar je output device gestuurd wordt.
witeken schreef op zondag 20 oktober 2013 @ 15:16:
[...]

Je moet natuurlijk niet de laagste prijs met een adviesprijs gaan vergelijken ;). Als ik in de PW kijk kostte die monitor in het begin zo'n 340 euro, dus waarschijnlijk een adviesprijs van 350 euro. Dat geeft toch al een verschil van 50 euro in de vergelijking van verschil in prijs. Nvidia heeft gezegd de prijs van de module tot onder de 100 dollar te willen reduceren. Ik zou dan ook rekenen op een verschil in adviesprijs van 100 euro.
"Nvidia heeft gezegd" - wat je er even bij vergeet te vermelden is op termijn. Uiteindelijk willen ze daar belanden, voorlopig dus nog niet. En als je realistisch wilt zijn; de basis monitor is hier dus duurder in euros kost dan hij in de VS in dollars kost. Nvidia's prijzen zijn tot nu toe altijd 1 op 1 geweest naar Europa toe, dus 120 Euro mag je minimaal wel verwachten. Dan komt jouw 340 al meteen op 460. Echter zit je hier niet alleen met Nvidia, er zit ook nog een monitor fabrikant tussen. En die willen hier in Europa vaak ook aardig wat meer geld uit hun producten halen dan in de VS. En dan is dit nog steeds een TN panel. Stel je eens voor wat een 1440p IPS panel met deze chip er achter moet gaan kosten :)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Nu online
Werelds schreef op zondag 20 oktober 2013 @ 16:09:
[...]
Echter is dat 1 enkel product. Mantle forceert je niet om ook een speciale monitor te hebben die ALLEEN met AMD werkt.
Nah, mantle is vergelijkbaar imo, stel je koopt een spel met mantle doet ie het nog steeds met een nvidia kaart via dx11 alleen minder vloeiend, stel je koopt een monitor met gsync dan doet de monitor het nog steeds met een amd kaart alleen minder vloeiend.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op zondag 20 oktober 2013 @ 16:36:
[...]

Nah, mantle is vergelijkbaar imo, stel je koopt een spel met mantle doet ie het nog steeds met een nvidia kaart via dx11 alleen minder vloeiend, stel je koopt een monitor met gsync dan doet de monitor het nog steeds met een amd kaart alleen minder vloeiend.
Echter koop je dat spel niet vanwege Mantle (even afgezien van het feit dat alle developers die het gaan gebruiken echt wel zorgen dat DX11 speelbaar blijft). Die monitor koop je wel vanwege G-Sync.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PCper heeft een aardig artikel geschreven over G-Sync en de geschiedenis achter de refreshrate.

http://www.pcper.com/revi...al-Benefits-New-Interface

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Werelds schreef op zondag 20 oktober 2013 @ 16:09:
En dan is dit nog steeds een TN panel. Stel je eens voor wat een 1440p IPS panel met deze chip er achter moet gaan kosten :)
Dit is een 144Hz paneel. Lijkt me dus logisch dat het duurder is dan een regulier tn-paneel. Een 1440p IPS-paneel met G-sync zou normaal toch de gewone prijs + de prijs van G-sync moeten zijn?

Persoonlijk vind 100 euro nogal veel. Ik ben benieuwd of het in het dagelijks gebruik inderdaad zo een innovatieve feature is als Anand beweert.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is niet alleen Anand die erg enthusiast is. Ook andere reviewers en mensen als John Carmack, Tim Sweeney en Johan Andersson zijn dat.

Ik geloof er absoluut wel in maar prijs ligt inderdaad nogal (te) hoog en imho moet dit geen proprietary ding worden maar voor de hele industrie toegangkelijk!

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
witeken schreef op zondag 20 oktober 2013 @ 18:27:
[...]

Dit is een 144Hz paneel. Lijkt me dus logisch dat het duurder is dan een regulier tn-paneel. Een 1440p IPS-paneel met G-sync zou normaal toch de gewone prijs + de prijs van G-sync moeten zijn?
En vergelijk nu eens de prijs van een gemiddeld 120/144 Hz TN paneel met een 1440p IPS paneel? ;)

Je komt dan al rap bij de 550 te zitten en dat is gewoon te veel voor een monitor waar het primaire verkooppunt zo beperkt is. En voor een goedkopere TN versie is het gewoon zonde als je bereid bent daar je geld tegenaan te gooien, want de beeldkwaliteit is gewoon alsnog van TN kwaliteit. Dan kun je beter een fatsoenlijke IPS monitor aanschaffen, waar je tenminste ziet wát er niet 100% vloeiend is :P

De techniek is geweldig, maar tenzij Nvidia het open gooit wordt het gewoon net zoiets als 3D. Eventjes hip, maar daarna vergeet iedereen het weer omdat ze tegen vendor beperkingen aan lopen. Surround en Eyefinity hebben een grotere basis, omdat het makkelijker toegankelijk is.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Nvidia G-sync synchroniseert monitor en videokaart

"G-Sync, een combinatie van hard- en software, zorgt ervoor dat een monitor en videokaart volledig synchroon werken. Daardoor is schokken (stuttering) en tearing volgens Nvidia volledig verleden tijd en krijg je 100% soepele gameplay zonder artefacten."

[ Voor 44% gewijzigd door madmaxnl op 20-10-2013 19:01 ]


Acties:
  • 0 Henk 'm!

  • fast-server
  • Registratie: April 2003
  • Laatst online: 10-09 18:33
Help!!!! schreef op zondag 20 oktober 2013 @ 18:33:
Het is niet alleen Anand die erg enthusiast is. Ook andere reviewers en mensen als John Carmack, Tim Sweeney en Johan Andersson zijn dat.

Ik geloof er absoluut wel in maar prijs ligt inderdaad nogal (te) hoog en imho moet dit geen proprietary ding worden maar voor de hele industrie toegangkelijk!
Die speciale hardware chip is puur een centen verhaal, ik denk dat met een signaal over de signaal kabel precies het zelfde kan als monitor fabrikanten een kleine hardware en software matige aanpassing zouden doen in hun monitoren. (Is goedkoper voor iedereen)

Denk dat ze beter kunnen kiezen voor een FRAND oplossing zodat ze iets van 2% van iedere verkochte monitor kunnen opstrijken.
Je krijgt dan immers geld van AMD en Nvidia gebruikers die zo'n monitor kopen (grotere doelgroep = meer $)
Een ander voordeel is dat eventuele AMD gebruikers niet geforceerd worden om een Nvidia kaart te moeten kopen als ze deze techniek willen gebruiken en dat werkt meestal positief uit.

Nu hebben de meeste mensen zo iets van: Mooi! ohw wacht, gesloten Nvidia only... laat maar.

PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Nu online
fast-server schreef op zondag 20 oktober 2013 @ 19:18:
[...]


Die speciale hardware chip is puur een centen verhaal, ik denk dat met een signaal over de signaal kabel precies het zelfde kan als monitor fabrikanten een kleine hardware en software matige aanpassing zouden doen in hun monitoren. (Is goedkoper voor iedereen)

Denk dat ze beter kunnen kiezen voor een FRAND oplossing zodat ze iets van 2% van iedere verkochte monitor kunnen opstrijken.
Je krijgt dan immers geld van AMD en Nvidia gebruikers die zo'n monitor kopen (grotere doelgroep = meer $)
Een ander voordeel is dat eventuele AMD gebruikers niet geforceerd worden om een Nvidia kaart te moeten kopen als ze deze techniek willen gebruiken en dat werkt meestal positief uit.

Nu hebben de meeste mensen zo iets van: Mooi! ohw wacht, gesloten Nvidia only... laat maar.
Ik denk dat die module zo duur is omdat het ook een hardware scaler is die op 4K 60Hz werkt. Goed, zal wel goedkoper worden op den duur.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

haarbal schreef op zondag 20 oktober 2013 @ 20:10:
[...]

Ik denk dat die module zo duur is omdat het ook een hardware scaler is die op 4K 60Hz werkt. Goed, zal wel goedkoper worden op den duur.
Zulke chips zijn echt goedkoop te maken. Waarschijnlijk zijn de productie kosten niet meer dan 5-10 euro (volgens mij overschat ik het dan al behoorlijk), verkopen ze de chip aan monitor fabrikanten voor 40 euro en dan krijgt de fabrikant de rest.
Dit soort chips die zijn meestal niet programmeerbaar en daardoor ook goedkoop om te maken, ze zijn in een ding heel goed en dat is in dit geval "G-Sync" en alles wat daaronder valt.

Edit: Dit zijn natuurlijk productie kosten, waarschijnlijk wil Nvidia ook zijn research kosten terugverdienen :P.

[ Voor 7% gewijzigd door Sp3ci3s8472 op 20-10-2013 23:35 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
fast-server schreef op zondag 20 oktober 2013 @ 19:18:
Die speciale hardware chip is puur een centen verhaal, ik denk dat met een signaal over de signaal kabel precies het zelfde kan als monitor fabrikanten een kleine hardware en software matige aanpassing zouden doen in hun monitoren. (Is goedkoper voor iedereen)
Dat is precies wat G-Sync is. Er moet echter ook aan de GPU software gesleuteld worden en dat is iets waar monitor fabrikanten geen zin hebben om te gaan lobbyen. Althans, tot nu toe.

Maar dan nog kan het alleen via DisplayPort en dat hebben de meeste monitors nog steeds niet :)

[ Voor 13% gewijzigd door Werelds op 21-10-2013 09:40 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Wellicht kan AMD eenvoudig haar G-sync variant incl. software ontwikkelen (misschien verhinderen patenten dit) en deze min of meer free of charge/kostprijs aanbieden aan een ieder die het wil gebruiken.

Lijkt me aantrekkelijker voor monitorfabrikanten dan de nvidia propositie.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Gezien AMD's recente geschiedenis zou ik daar helemaal niet van op kijken eerlijk gezegd. Sinds Read aan het hoofd staat en zo'n beetje alle teams overhoop zijn gegooid is er heel veel verbeterd en vooral ook gericht op wat consumenten willen. Ze gaan ook weer pro-actief de workstation markt bewerken.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Nu online
Als schermen zouden syncen met de videokaart ipv andersom zou het hele probleem er niet zijn, misschien bouwen ze zoiets in als displayport nog eens een refresh krijgt. Dan hoeft het amper iets te kosten.
Maar goed, was blijkbaar moeilijk voor elkaar te krijgen, dus zet nvidia nu een brute force methode in de markt. Prijzig maar effectief. Ik vind het prima, het werd tijd dat er een oplossing kwam.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dat zou ook heel goed kunnen. Wellicht dat VESA dit nu een standaard methode in DP 1.3 of 2.0 maakt. Sterker nog, dat zou de ultieme oplossing zijn, gelet op royalties en dergelijke.

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Een (het laatste) stukje uit de Q&A met Tim Sweeney, Johan Andersson en John Carmack op het Nvidia event. Je moet vanonder beginnen lezen. Het begint bij Mantle.
Bron + volledige Q&A: AnandTech: Tim Sweeney, Johan Andersson & John Carmack @ NV Montreal - Live Blog.

03:05PM EDT - Q&A is over now, thank you all for reading!

03:04PM EDT - Sweeney: the next-gen of games will be developer centric, not retail centric

03:04PM EDT - Sweeney: it's a great time to be a game developer, distribution systems like steam (or just the web), not having to deal with the publisher or retailer you can do an enormous amount and build a company now like I did Epic back in 1991 without investors, this is a great time for this, the pace of innovation in the industry with mobile devices and oculus it's going to be a very interesting time to see all of this come together

03:03PM EDT - Carmack: all of us our building the future we want to see

03:03PM EDT - If there's anything in the game industry you'd hold your breath for a decade for, what would it be?

03:03PM EDT - Johan: I'll use both

03:03PM EDT - Carmack: I've got a lightboost monitor on my desktop, it'll probably move to G-Sync

03:02PM EDT - Sweeney: we primarily use NV hardware at Epic, and we buy most of it

03:02PM EDT - NV: we haven't precluded that

03:02PM EDT - Carmack: is G-Sync hardware licensable?

03:02PM EDT - Johan: I would play the game on both

03:01PM EDT - Is it thus fair to say that you'll be playing the games you're developing on NVIDIA hardware from this point on due to the enthusiasm for G-Sync?

03:01PM EDT - Ryan: Me too!

03:00PM EDT - I sort of want all life decisions to be handled by a panel consisting of Tim Sweeney, Johan Andersson and John Carmack

02:58PM EDT - Everyone seems to agree that Mantle alone isn't bad, if everyone builds their own it's bad, but hopefully it influences OpenGL/DX direction

02:57PM EDT - Sweeney is totally taking over the control of the panel now and asking everyone else questions this is awesome

02:57PM EDT - Johan: We see lots of stalls, performance gone missing, we want to learn how to program a machine on a really low level that has a good architecture for it

02:56PM EDT - Johan: They wouldn't have to pay us anything to use it, I've been pitching these ideas to any vendor for years

02:56PM EDT - Can you tell us how much they paid for you to use Mantle?

02:54PM EDT - He will magically know the answer at AMD's developer conference?

02:54PM EDT - Wow it sounds like Johan just played the NDA card on Sweeney??

02:54PM EDT - Johan: it's too early to quantify that, we'll have a lot more info in mid-November

02:54PM EDT - Sweeney: Johan, you've used the API, what's the cost in man-years and ultimate gain of using Mantle?

02:53PM EDT - Johan: if NV and Intel and Qualcomm did their own APIs, that would be a bad future, MS and Khronos play an important part in all of this, I hope Mantle will be quite influential in many of these aspects, what we're doing with AMD is just a start

02:53PM EDT - Johan: it's not a replacement, the idea is that we can solve some of the long term problems we have been having on the PC, those are things we can experiment and work with Mantle, this is another avenue, opening up something we're quite familiar with, we've spent the last few years working on next-gen consoles, even though we're not done with our work with it, I still see it as a success even right now because of these conversations and the amount of development and enthusiasm (and the opposite) - it's been a bit stale in the PC graphics space, MS switched focus for quite some time, but now going forward it's an exciting opportunity

02:51PM EDT - Sweeney: there's some good ideas in Mantle we really liked the idea of having low overhead access to the GPU, if you look back at DX/OGL, there's a lot of overhead in those APIs and the fact that they date back to the old SGI model of rendering which is very different than the current model, potentially unified memory, good ideas there I hope it really helps the OGL community and MS evolve their APIs. Would I like to have a low level API? Yes. Five of them? Absolutely not. To have yet another API on the PC that's still different than the DX API and OpenGL, and OpenGL ES and different than PS4 low level API, I don't think it's a good idea.

02:49PM EDT - Carmack: Mantle only became interesting because of their dual console wins, the landscape does matter that they have both major console wins with similar architectures, not a stupid thing that AMD is doing at this point, could have some implications for Steam, if MS and Sony embraced it that would be very powerful for AMD but it doesn't look like they're going to (at least MS), if I was still doing all of the major tech coding I probably would not be embracing Mantle right now but there would be days where it would be extremely tempting

02:48PM EDT - Carmack: My opinion is, in terms of action items, should NV have a response to Mantle? Unequivocally no, a horrible mistake if NV got panicked by this and made some lower level API, you already have good low level access through NV GPU extensions, give you as much performance as you want if you're fine with proprietary extensions

02:47PM EDT - What do you think of AMD's Mantle?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Nvidia GTX780 voor 389 euro bij Informatique.nl
http://www.informatique.n...force-gtx-780-3072mb.html

Acties:
  • 0 Henk 'm!

  • Bart1983
  • Registratie: September 2004
  • Laatst online: 08:42
Vraag me af wat daar aan de hand is. Durf hem eigenlijk niet te bestellen voor die prijs :?

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Levertijd onbekend, dus zodra ze erachter komen zal die voorlopig in voorraad zijn denk ik. Maar je zou het kunnen proberen.
Waarom zijn jullie zo negatief over G-Sync? Het zal inderdaad niet goedkoop worden maar ik vind de techniek ronduit revolutionair. Met een huidige monitor is het verschil tussen 30 FPS en alles tussen de 30 en 60 een beetje onduidelijk. Een monitor die zijn refreshrate kan verlagen om vervolgens wél 40 FPS kan weergeven is heel erg interessant, juist om net even die hogere kwaliteitsinstellingen te halen zonder dat je overdreven last hebt van framedrops - ze blijven er wel maar zijn minder hinderlijk. Ik zelf hoef bijvoorbeeld niet per sé 60 FPS te halen - iets boven de 30 is over het algemeen prima. Maar voor een fatsoenlijke ervaring zonder tearing of lag moet je nu wel 60 FPS halen, en dat kan zonde zijn.
Mij lijkt (de techniek achter) G-Sync dus ideaal voor GPU's: zij het om extra flexibel te zijn of energie te besparen ofzo. Ik vind alleen niet dat het alleen nuttig is op 120Hz schermen, het had van mij ook best op een 60 Hz scherm gemogen.
Een propriëtaire techniek is inderdaad jammer, maar nVidia heeft er toch echt zelf geld in gestoken en mag dat toch wel terugverdienen lijkt mij. En als je het niet ziet zitten omdat je (ook) AMD gebruikt, dan koop je een monitor zonder. Ik zou een monitor onder de 250 euro met G-Sync best willen overwegen.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Bart1983 schreef op donderdag 24 oktober 2013 @ 20:35:
[...]


Vraag me af wat daar aan de hand is. Durf hem eigenlijk niet te bestellen voor die prijs :?
Heb hem besteld onder rembours - we zullen het gaan zien...

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Mij leek het dat deze techniek net het nuttigst is onder de 60Hz, aangezien alles boven de 60Hz sowieso al een bonus is. Onder de 60Hz zou het net vloeiender worden?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
deraco96 schreef op donderdag 24 oktober 2013 @ 21:47:
Waarom zijn jullie zo negatief over G-Sync? Het zal inderdaad niet goedkoop worden maar ik vind de techniek ronduit revolutionair.
Is ook zo. Maar met de huidige stand van zaken is het net zo boeiend als 3D. Beperkte hardware op twee fronten.
Een propriëtaire techniek is inderdaad jammer, maar nVidia heeft er toch echt zelf geld in gestoken en mag dat toch wel terugverdienen lijkt mij.
Tuurlijk. Maar ze hadden meer kunnen verdienen door dit ten eerste te ondersteunen op AMD, Intel naast hun eigen kaarten. Boor je een grotere markt aan, grotere doelgroep -> meer verkocht. Daarnaast ook door het te verkopen aan TV fabrikanten, voor consoles is dit geweldig. Ik weet niet waar hun marketing en sales mee bezig zijn, niet hun werk in elk geval. Domme actie.
Ik zou een monitor onder de 250 euro met G-Sync best willen overwegen.
Vergeet dat maar :P

[ Voor 3% gewijzigd door Werelds op 24-10-2013 22:03 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Bart1983 schreef op donderdag 24 oktober 2013 @ 20:35:
[...]


Vraag me af wat daar aan de hand is. Durf hem eigenlijk niet te bestellen voor die prijs :?
Heb net een orderbevestiging gehad van een medewerker van Informatique.nl
De kaart wordt voor 401,50 incl rembourskosten verzonden zodra hij bij hen binnen is.

Acties:
  • 0 Henk 'm!

  • SinjiOnO
  • Registratie: December 2012
  • Laatst online: 09-09 14:09
Zo, die prijs... !

Persoonlijk ga ik nog even wachten om te zien wat er gaat gebeuren met de prijzen van de GTX780 door de komst van de R9 290X

[ Voor 47% gewijzigd door SinjiOnO op 24-10-2013 22:33 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
calsonic schreef op donderdag 24 oktober 2013 @ 22:04:
[...]


Heb net een orderbevestiging gehad van een medewerker van Informatique.nl
De kaart wordt voor 401,50 incl rembourskosten verzonden zodra hij bij hen binnen is.
Denk dat je hem wel een week of misschien zelfs wel twee weken als je geluk hebt voor Sint Juttemis binnen hebt. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SinjiOnO
  • Registratie: December 2012
  • Laatst online: 09-09 14:09
De prijs is inmiddels terug naar 600+ euro

http://www.informatique.n...force-gtx-780-3072mb.html

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Ze zullen hem naar alle waaarschijnlijkheid ook wel niet gaan leveren voor die 400 euro maar wie niet waagt die niet wint ;)

En eigenlijk zit ik te wachten op de 780Ti die binnenkort wordt gelanceerd.

[ Voor 12% gewijzigd door calsonic op 25-10-2013 08:35 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Help!!!! schreef op zondag 20 oktober 2013 @ 18:33:
Het is niet alleen Anand die erg enthusiast is. Ook andere reviewers en mensen als John Carmack, Tim Sweeney en Johan Andersson zijn dat.

Ik geloof er absoluut wel in maar prijs ligt inderdaad nogal (te) hoog en imho moet dit geen proprietary ding worden maar voor de hele industrie toegangkelijk!
Dat is ook het probleem wat iker mee heb.
Daarnaast ook de keuze qua monitoren.

Ik zit bv helemaal niet op TN schermen te wachten. En wil eigenlijk een 4K 30" als volgend scherm hebben.

Daarnaast is de vraag hoeveel duurder een scherm in met deze techniek. En of het scherm bv ook veel meer gaat verbruiken.

Als het straks ook met Intel en AMD kaarten te gebruiken is en veel monitors het ondersteunen zie ik het zeker een succes worden. Blijft het nVidia only en monitor specifiek met weinig keuze, wordt het denk ik erg lastig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Astennu schreef op vrijdag 25 oktober 2013 @ 11:04:
Ik zit bv helemaal niet op TN schermen te wachten. En wil eigenlijk een 4K 30" als volgend scherm hebben.
Ik zit al jaren lang te wachten totdat we van LCD monitoren af zijn en op iets van FED/SED/OLED of iets nog beters over gaan dat hopelijk net zo lekker werkt als een CRT scherm dus ik zit al helemaal niet te wachten op overpriced TN meuk :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

Ik kan alleen de officieele Nvidia driver van Asus op de Asus site installeren.
De standaard Nvidia driver van Nvidia van de Nvidia site wil niet installeren.

http://support.asus.com/D...?SLanguage=nl-nl&m=G750JX

Hier moet ik mijn drivers downloaden en de nieuwste versie op die site is : 311.83

De nieuwste standaard driver op de Nvidia site is : 327.23

Asus is ook laat met de nieuwste drivers erop te zetten en die heb ik juist nodig voor games als Battlefield 4.

Wat nu?

Mijn laptop is een G750JX met GTX 770M Nvidia GPU.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Nvidia drivers download je van de Nvidia website
Daar staat 331.58 WHQL voor jouw laptop.

http://www.nvidia.com/Download/index.aspx?lang=en-us

[ Voor 17% gewijzigd door calsonic op 27-10-2013 12:54 ]


Acties:
  • 0 Henk 'm!

Verwijderd

calsonic schreef op zondag 27 oktober 2013 @ 12:46:
Nvidia drivers download je van de Nvidia website
Daar staat 331.58 WHQL voor jouw laptop.

http://www.nvidia.com/Download/index.aspx?lang=en-us
Bedankt , dit had ik al eerder geprobeerd (paar maandjes terug)
Maar toen gaf die driver aan dat ie niet compatible was met mijn hardware.

Ik denk net ik probeer het met deze nieuwere driver en verrek het is gelukt.

Niet meer hoeven wachten op die trage Asus drivers.

Die zaten nog op 3.11

Held van de dag : calsonic

_/-\o_

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Eindelijk! SHADOWPLAY!

http://www.mordorhq.com/s...udes-ShadowPlay)&p=250592

En wat een geweldige recorder is dat, zonder performance drop opnemen op 1080p 60 fps.
Afterburner, Fraps, DXTory etc kunnen allemaal de prullenbak in.
Momenteel wat test footage aan het uploaden, ziet er strak uit.

[ Voor 55% gewijzigd door unfor op 27-10-2013 16:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op zondag 27 oktober 2013 @ 14:20:
Eindelijk! SHADOWPLAY!

http://www.mordorhq.com/s...udes-ShadowPlay)&p=250592

En wat een geweldige recorder is dat, zonder performance drop opnemen op 1080p 60 fps.
Afterburner, Fraps, DXTory etc kunnen allemaal de prullenbak in.
Momenteel wat test footage aan het uploaden, ziet er strak uit.
Shadowplay lijkt me wel wat ja.

Die beta staat nog niet op de Nvidia site.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
http://wccftech.com/nvidi...-monitors-brands-q3-2014/

Helaas pindakaas. ASUS doet maar weinig non-TN monitors, de paar die ze doen zijn of slecht, of pijnlijk duur - en dat is dan nog zonder G-Sync mee verrekend. Ze kunnen zich in elk geval niet meten met een Dell, Eizo of LG. Die drie merken leveren kwalitatief betere monitors voor minder geld.

Aan de andere kant betekend dat jaar exclusiviteit hopelijk wel dat andere fabrikanten gewoon hun eigen ding gaan doen. Ik hoop het echt, want deze exclusiviteit rotzooi is gewoon vervelend voor ons als consument. Wellicht dat we over een jaar iets anders hebben en dat G-Sync als product gewoon een snelle dood sterft. Bah.

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21

Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
ik kom toevallig op deze topic
maar je gaat me toch niet zeggen dat een 3770K meer punten haalt dan een 3930K
daar klopt in mijn ogen iets niet

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
nvidia666 schreef op zondag 27 oktober 2013 @ 21:36:
[...]


ik kom toevallig op deze topic
maar je gaat me toch niet zeggen dat een 3770K meer punten haalt dan een 3930K
daar klopt in mijn ogen iets niet
Dat komt wel vaker voor in dit topic, een 3770K is 3,5Ghz en de 3930K is 3,2Ghz als 3DMark geen gebruik maakt van die twee extra core's dan is die 3770K dus sneller ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Wanneer komt de 331.65 beta driver met Shadowplay uit?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Is gisteren al gelekt, zal vandaag uit komen. Zie http://www.neogaf.com/forum/showthread.php?t=704908

Kwaliteit is goed, bestandsgrootte is in orde. Alleen jammer dat het opnemen fout gaat :P

Ze nemen de frames duidelijk recht van de render pipeline af, zonder daarbij naar timing te kijken. Het gevolg is dat je frames met frame times van 12 en 20ms achter elkaar afgespeeld ziet worden op 16ms. Dat zorgt voor zowel haperingen als versnellingen in het beeld, wat gewoon ronduit belachelijk is.

Ik ben een clip aan het uploaden waarin je dit heel duidelijk ziet, zal hem hier ook wel linken :)


Edit: bij deze: https://mega.co.nz/#!24ww...9GiGXuU9kdEZ704d2RfkLAO7A

[ Voor 7% gewijzigd door Werelds op 28-10-2013 09:53 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Nu online
Werelds schreef op maandag 28 oktober 2013 @ 09:47:
Is gisteren al gelekt, zal vandaag uit komen. Zie http://www.neogaf.com/forum/showthread.php?t=704908

Kwaliteit is goed, bestandsgrootte is in orde. Alleen jammer dat het opnemen fout gaat :P

Ze nemen de frames duidelijk recht van de render pipeline af, zonder daarbij naar timing te kijken. Het gevolg is dat je frames met frame times van 12 en 20ms achter elkaar afgespeeld ziet worden op 16ms. Dat zorgt voor zowel haperingen als versnellingen in het beeld, wat gewoon ronduit belachelijk is.

Ik ben een clip aan het uploaden waarin je dit heel duidelijk ziet, zal hem hier ook wel linken :)


Edit: bij deze: https://mega.co.nz/#!24ww...9GiGXuU9kdEZ704d2RfkLAO7A
Het maakt niet uit waar je de frames afneemt. Als de frames niet gesynct zijn met de refresh van een monitor zal het nooit helemaal vloeiend zijn.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 16-09 16:52
In duitsland zijn 780 al te krijgen nu voor 450 euro, hoop dat het ook snel hier komt :)

540 euro voor een 780 lightning :o

Weet niet hoelang ik op de aftermarkt coolers van de 290x kan wachten voor deze prijs |:(

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op maandag 28 oktober 2013 @ 12:58:
Het maakt niet uit waar je de frames afneemt. Als de frames niet gesynct zijn met de refresh van een monitor zal het nooit helemaal vloeiend zijn.
Als je ze elke 16.67ms uit de primaire framebuffer neemt is dat hetzelfde - zowel met als zonder VSync is dat hoe een monitor aan z'n frames komt ;)

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
gtx780 nu al verkrijgbaar vanaf 427 euro

http://tweakers.net/categ...gsS8xRsopWMrO0MFSKra2tBQA

Acties:
  • 0 Henk 'm!

Verwijderd

Tja, dan heb je gelijk weer een leuk alternatief voor de R9 290X;

- pricewatch: Palit GeForce GTX 780 Super JetStream

Sneller dan een Titan en sowieso gelijk aan een 290X (tot 1600p), maar zuiniger, veel stiller en koeler en 3 games erbij.

Acties:
  • 0 Henk 'm!

  • Aardwolf
  • Registratie: Maart 2010
  • Laatst online: 18-09 15:41
Waar ik op hoop is dat de Titan nog in prijs zakt, tbv computing, maar dat zal wel niet. :/

Acties:
  • 0 Henk 'm!

  • User
  • Registratie: Juli 2006
  • Laatst online: 18-09 20:18

User

S3

Verwijderd schreef op maandag 28 oktober 2013 @ 13:52:
Tja, dan heb je gelijk weer een leuk alternatief voor de R9 290X;

- pricewatch: Palit GeForce GTX 780 Super JetStream

Sneller dan een Titan en sowieso gelijk aan een 290X (tot 1600p), maar zuiniger, veel stiller en koeler en 3 games erbij.
Jammer dat ie 3 slots in beslag neemt, zit ik eigenlijk niet op te wachten. Aan de andere kant, ik game op 1080p, meer dan 1 videokaart ben ik toch niet nodig. :P

Ik was van plan om een non-reference 290x te gaan halen, maar deze price drop maakt de 780 ineens best interessant.

Dilemma :'(

Acties:
  • 0 Henk 'm!

Verwijderd

De Gigabyte is 2-slots en ook standaard overclockt. Wachten op de non-reference 290x kan ook, nadeel is dat het totaal niet duidelijk is wanneer die komen. Heb ergens december gelezen... Kan ook wel kloppen, want de reference modellen die nu in de prijsvergelijkers staan, komen volgens mij ook pas na half november op voorraad.

[ Voor 73% gewijzigd door Verwijderd op 28-10-2013 14:16 ]


Acties:
  • 0 Henk 'm!

  • User
  • Registratie: Juli 2006
  • Laatst online: 18-09 20:18

User

S3

Verwijderd schreef op maandag 28 oktober 2013 @ 14:12:
De Gigabyte is 2-slots en ook standaard overclockt. Wachten op de non-reference 290x kan ook, nadeel is dat het totaal niet duidelijk is wanneer die komen. Heb ergens december gelezen... Kan ook wel kloppen, want de reference modellen die nu in de prijsvergelijkers staan, komen volgens mij ook pas na half november op voorraad.
Maakt de keus maar lastiger ja. :P

Ik neig nog steeds naar de 290x ivm Mantle en TrueAudio, maar ik zit niet te wachten op 95°C in mijn kast. Ik wil binnenkort ook nog wat met encryptie gaan doen, en dan is OpenCL stomweg beter dan CUDA.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
User schreef op maandag 28 oktober 2013 @ 14:11:
[...]
Jammer dat ie 3 slots in beslag neemt, zit ik eigenlijk niet op te wachten. Aan de andere kant, ik game op 1080p, meer dan 1 videokaart ben ik toch niet nodig. :P

Ik was van plan om een non-reference 290x te gaan halen, maar deze price drop maakt de 780 ineens best interessant.

Dilemma :'(
Ik zou nog even geduld hebben als ik jou was want volgende maand komt de 780Ti uit en eens zien was de prijzen daarvan gaan worden.

Acties:
  • 0 Henk 'm!

  • Firedre
  • Registratie: Maart 2004
  • Laatst online: 18-09 06:05

Acties:
  • 0 Henk 'm!

  • User
  • Registratie: Juli 2006
  • Laatst online: 18-09 20:18

User

S3

calsonic schreef op maandag 28 oktober 2013 @ 14:38:
[...]


Ik zou nog even geduld hebben als ik jou was want volgende maand komt de 780Ti uit en eens zien was de prijzen daarvan gaan worden.
Ja, dat wordt me dus te duur. :-( Ik zat zelf te denken aan €500-550, meer kan ik gewoon niet verantwoorden.

Ik zit nu op een MSI 670 OC, die kan dus nog wel even mee. Ik denk dat ik maar even geduld moet hebben.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
User schreef op maandag 28 oktober 2013 @ 14:47:
[...]


[...]
Ja, dat wordt me dus te duur. :-( Ik zat zelf te denken aan €500-550, meer kan ik gewoon niet verantwoorden.

Ik zit nu op een MSI 670 OC, die kan dus nog wel even mee. Ik denk dat ik maar even geduld moet hebben.
Hij zal zon beetje dezelfde prijs gaan krijgen als de R9 290X omdat die 2 tegen elkaar op zullen gaan.
Mocht de 780Ti iets sneller zijn dan mag hij ook wel iets duurder zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Net 331.65 geinstalleerd speciaal voor Shadowplay blijkt het alleen voor desktop GTX 600/700 te zijn.

Of mis ik wat?

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Verwijderd schreef op maandag 28 oktober 2013 @ 15:35:
Net 331.65 geinstalleerd speciaal voor Shadowplay blijkt het alleen voor desktop GTX 600/700 te zijn.

Of mis ik wat?
Is ook gewoon voor jouw laptop lijkt mij

http://www.nvidia.co.uk/Download/Find.aspx?lang=en-uk

Acties:
  • 0 Henk 'm!

  • S.J_84
  • Registratie: April 2010
  • Laatst online: 12-06-2024
Verwijderd schreef op maandag 28 oktober 2013 @ 13:52:
Tja, dan heb je gelijk weer een leuk alternatief voor de R9 290X;

- pricewatch: Palit GeForce GTX 780 Super JetStream

Sneller dan een Titan en sowieso gelijk aan een 290X (tot 1600p), maar zuiniger, veel stiller en koeler en 3 games erbij.
Zat al naar dit kaartje te kijken, maar wou even wachten wat de 290x ging doen.
Maar het maakt de keuze net zoals voor velen wat moeilijker.

Helemaal omdat mijn huidige videokaart net naar MSI is, dus duurt nog even voordat die terug is.
(Zat al wel aan upgrade te denken)

Ik weet niet hoe die prijs zich vertaald naar de nederlandse markt van de TI versie, maar vind dan de Palit erg lekker voor die prijs,-

Echt ik haat luxeproblemen :)

Acties:
  • 0 Henk 'm!

Verwijderd

Tja, de adviesprijs van de GTX780 ligt nu dus op $499,-, maar is nu al te krijgen vanaf ~€430,-

Als de GTX780 Ti een adviesprijs krijgt van $699,- kunnen we verwachten dat de prijzen dus rond de €650,- zullen liggen, wat dezelfde introductieprijs was als die van de GTX780 in mei.

[ Voor 15% gewijzigd door Verwijderd op 28-10-2013 16:10 ]

Pagina: 1 ... 15 ... 30 Laatste

Dit topic is gesloten.