Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 00:20
choogen schreef op maandag 4 juni 2018 @ 19:27:
Computex: Nvidia Volta pas 'over lange tijd' beschikbaar voor gamers:
https://nl.hardware.info/...d-beschikbaar-voor-gamers
Kan dit niet een manier zijn om de huidige kaarten te verkopen? Als ze zouden zeggen dat de nieuwe kaarten binnenkort eraan komen, dan worden de huidige kaarten misschien veel minder verkocht.

Note: Deze persoon wacht eigenlijk op de nieuwe generatie videokaarten, dus denkt misschien net iets anders ;)

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

RobinNL schreef op maandag 4 juni 2018 @ 20:48:
[...]


Kan dit niet een manier zijn om de huidige kaarten te verkopen? Als ze zouden zeggen dat de nieuwe kaarten binnenkort eraan komen, dan worden de huidige kaarten misschien veel minder verkocht.

Note: Deze persoon wacht eigenlijk op de nieuwe generatie videokaarten, dus denkt misschien net iets anders ;)
Dat sluit ik zeker niet uit, misschien dat zo'n CEO zich met zijn uitspraak strategisch heeft willen uitdrukken. Ondertussen blijven wij hier allemaal in het duister tasten over wanneer de nieuwe Nvidia-generatie er dan wel komt...Zit zelf ook naar een nieuwe kaart te kijken en heb net als jij geen zin om achteraf op precies het verkeerde moment nog een oude Pascal kaart gekocht te hebben.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk niet dat Jen-Hsun Huang zomaar deze uitspraak heeft gedaan. Reken dus inderdaad maar op 2019.
Dan gaan ze in een vergelijkbaar tijdsframe komen als AMD's Navi. of AMD gaat zelfs eerder zijn als Navi echt de langverwachte MCM blijkt te zijn. Dan hebben ze waarschijnlijk ookl veel minder last van slechte yield. Verder lijkt AMD 7nm te gaan "testen" met Vega 20. Dat trucje hebben ze wel vaker toegepast in het verleden zoals met de overgang naar 40nm met hun 4770 en daarna pas de 5000 series. Ondertussen ging Nvidia echt keihard af met Fermi.

Verder was slechte yields het eerste dat bij mij in mijn hoofd schoot nadat ik het nieuws zag. TSMC mag dan als eerste zijn met hun 7nm procede, het blijft dit jaar nog een DUV only procedé. Volgens jaar komt als het goed is de EUV laag online met 7nm+, en dan zal de productie simpeler en goedkoper worden. Zeker de grotere chips waar Nvidia meestal mee begint, kunnen wel eens absoluut verschrikkelijke yields hebben de komende maanden. AMD schatte de kosten per wafer al in op een verdubbeling, en voor Nvidia zal dit hetzelfde zijn. De chips gaan ook niet door de helft qua formaat dus winst per wafer gaat in ieder geval onder druk komen te staan. Komen er ook nog eens verschrikkelijke yields bij, dan heeft het weinig zin om te introduceren. Serieuze concurrentie is er toch niet. Beter om dan nog ruim een halfjaar Pascal te doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op maandag 4 juni 2018 @ 20:44:
Dus waarschijnlijk pas in 2019? En wanneer komt AMD met een nieuwe serie?

Misschien komen ze wel rond dezelfde tijd uit.
Vega 20 zou deze Computex aangekondigd worden, dan weten we meer. Vooralsnog zou deze GPU alleen gebruikt worden voor Instinct videokaarten (specifiek gericht op machine learning). Vega 20 is Vega 10 op TSMC/GF's(?) 7nm productie procedé.

Wellicht dat we er ook nog een game variant van gaan zien, maar dat lijkt me sterk :z

Als deze kaart sneller is dan een GTX1080Ti dan zie ik niet in waarom AMD deze kaart niet asap ook op de markt brengt als game kaart. Ergo, dat zal dan dus ook wel niet.

[ Voor 3% gewijzigd door madmaxnl op 05-06-2018 11:02 ]


Acties:
  • +1 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
NVIDIA launching its next-gen GeForce GTX 1180 on July 30

Staat haaks op de antwoorden van Jen-Hsun Huang paar dagen terug. Zou wel weer logisch zijn gezien de launch van de nieuwe G-sync hdr schermen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zou onlogisch zijn, alleen al omdat er nog werkelijk niks gelekt of bekend is. Terwijl er bij nVidia altijd zeer veel bekend is voor de launch.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 00:20
Is inmiddels weggehaald en vervangen door TBD.

http://www.hotchips.org/program/ (Conf. Day1 @ 11:30 AM)

[ Voor 7% gewijzigd door RobinNL op 05-06-2018 17:02 ]

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Fyi:

NVIDIA Has a DisplayPort Problem Which Only a BIOS Update Can Fix

Even getest en geeft update required bij mij. Maar niet gedaan omdat ik geen issues heb.

Mooie samenvatting over de next gen gforce:
When to expect GeForce GTX 2080? :P

[ Voor 72% gewijzigd door Help!!!! op 08-06-2018 19:08 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Dan maar hopen dat de stroom niet net uitvalt wanneer je flasht. De kans is klein in Nederland maar toevallig maakte ik het een paar weken geleden mee dat de stroom uitviel terwijl ik net mijn computer had aangezet. Ik was even bang dat mijn voeding (8 jaar oude OEM-voeding) het had begeven.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Veel Pascal kaarten hebben een dual bios en als je nog 'n tweede videokaart hebt liggen of 'n pc met een iGPU kun je hem zelfs zonder dubbele bios herstellen. Daar zou ik me echt 0 zorgen om maken...

Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Verwijderd schreef op zaterdag 9 juni 2018 @ 01:21:
[...]

Dan maar hopen dat de stroom niet net uitvalt wanneer je flasht. De kans is klein in Nederland maar toevallig maakte ik het een paar weken geleden mee dat de stroom uitviel terwijl ik net mijn computer had aangezet. Ik was even bang dat mijn voeding (8 jaar oude OEM-voeding) het had begeven.
Ik blijf het dan ook verbazingwekkend vinden dat mensen duizenden €'s uitgeven aan hun gaming rig, en dan niet even € 100,- aan een UPS voor een stabiele stroomvoorziening....

@Verwijderd Misschien nog eens het forum doorzoeken dan ;) Toegegeven, dit gaat wel meestal over slechte voedingen, maar onstabiele stroomvoorzieningen zijn samen met hitte denk ik de meest voorkomende reden dat (gaming) rigs stuk gaan....

[ Voor 17% gewijzigd door zion op 09-06-2018 13:28 ]

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • jopie
  • Registratie: Juli 1999
  • Laatst online: 23:56
Misschien ook omdat je niet vaak hoort dat de gaming rig van duizenden euro's kapot gaat door een onstabiele stroomvoorziening?

Acties:
  • 0 Henk 'm!

Verwijderd

zion schreef op zaterdag 9 juni 2018 @ 11:52:
[...]

Ik blijf het dan ook verbazingwekkend vinden dat mensen duizenden €'s uitgeven aan hun gaming rig, en dan niet even € 100,- aan een UPS voor een stabiele stroomvoorziening....
Het is een afweging van een risico om een keer €100-900 te betalen voor een defecte BIOS (als het niet te herstellen is) en 1 keer 100% zeker €100 betalen voor een UPS. Gelukkig is het in Nederland niet zo'n gekke afweging dat je niet een UPS koopt als je niet al te dure gaminghardware hebt en zelden een BIOS flasht. Tussen 2001 en 2015 was er 0,005% van de tijd een stroomstoring (bron: CEER), dat is 4-4,5 uur per 10 jaar. Ik ben er meer over gaan nadenken naar aanleiding van Ryzen (meer algemeen, nieuwe platforms) waarbij je al snel een paar keer de BIOS van je moederbord wil flashen. Ik heb momenteel ook geen UPS, ik ben me bewust van het risico en dat bedrijven geen schade vergoeden tenzij de rechter hen opdraagt om dat te doen. Je kan het risico minimaliseren door 's avonds of 's nachts (geen werkzaamheden waarbij mensen kunnen prutsen en lijnen kunnen beschadigen, lage load op het stroomnet) bij goed weer zoiets te doen in plaats van overdag of wanneer er blikseminslagen zijn en het stortregent.

Overigens zit er slechts een i5-750 en een HD 7850 in mijn PC, no way dat ik met die OEM-voeding mijn toekomstige hardware van stroom ga voorzien. ;)

[ Voor 37% gewijzigd door Verwijderd op 09-06-2018 14:43 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 23:43
Jammer dat 't nog zo lang duurt tot de nieuwe gen gpu's komt, ik wou dat 't sneller kwam zodat de MSI GTX 1080TI wat goedkoper was ik vind 900 euro echt teveel voor een kaart die al wat ouder is :')

Acties:
  • 0 Henk 'm!

  • Skybiker
  • Registratie: Januari 2003
  • Laatst online: 05-10 05:01
MetalSonic schreef op zaterdag 9 juni 2018 @ 15:27:
Jammer dat 't nog zo lang duurt tot de nieuwe gen gpu's komt, ik wou dat 't sneller kwam zodat de MSI GTX 1080TI wat goedkoper was ik vind 900 euro echt teveel voor een kaart die al wat ouder is :')
Daarom heb ik voor een 1070 gekozen, hier maak ik wel weer iemand blij mee als de nieuwe gpu's komen en ze een beetje normaal geprijsd zijn.

De 1070 ti samen met een gsync monitor helpt mij nog wel even vooruit.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 23:43
rappejap schreef op zaterdag 9 juni 2018 @ 16:45:
[...]


Daarom heb ik voor een 1070 gekozen, hier maak ik wel weer iemand blij mee als de nieuwe gpu's komen en ze een beetje normaal geprijsd zijn.

De 1070 ti samen met een gsync monitor helpt mij nog wel even vooruit.
Ik heb nu een 980 , naar 1070 voelt niet echt als een goede upgrade. Ik weet niet wat jouw vorige kaart was?

Acties:
  • 0 Henk 'm!

  • Skybiker
  • Registratie: Januari 2003
  • Laatst online: 05-10 05:01
MetalSonic schreef op zaterdag 9 juni 2018 @ 22:53:
[...]

Ik heb nu een 980 , naar 1070 voelt niet echt als een goede upgrade. Ik weet niet wat jouw vorige kaart was?
Mijn vorige kaart was een GTX 660, die stamde nog uit 2013 in mijn oude systeem.

Nu heb ik onlangs een nieuw systeem gebouwd maar ben bewust voor de 1070 ti gegaan, de 1080 ti was gewoon te overdreven geprijsd.

Het verschil kon toen bij mijn nieuwe Predator X34p monitor, waar de Gsync alles alsnog soepel speelbaar houd.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

MetalSonic schreef op zaterdag 9 juni 2018 @ 15:27:
Jammer dat 't nog zo lang duurt tot de nieuwe gen gpu's komt, ik wou dat 't sneller kwam zodat de MSI GTX 1080TI wat goedkoper was ik vind 900 euro echt teveel voor een kaart die al wat ouder is :')
De vaart is er idd steeds verder uitgegaan, Pascal gaat alweer een tijdje mee en straks eerst weer een half jaar een 1180 die mogelijk slechts maar iets sneller is dan een 1080Ti (dx9-11, low level api's misschien iets meer, zie Volta TitanV) en dan pas weer een Ti/Titan met de volle chip.

Ik ben zelf weer teruggegaan van RX Vega 64 Cf naar een 2e hands 1080Ti Sli combo, deze vloeistof gekoeld met een kraken mounting kit en Corsair AIO setje en zo heb je toch een aardige bak met perf. GPU's lopen nu stil en steady op 2000/6000 mhz core/mem en met enkele custom Sli profielen ook nog een aantal extra games van SLI kunnen voorzien :)

[ Voor 3% gewijzigd door edward2 op 10-06-2018 16:57 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Blijft zeker jammer dat het lang duurt. Aan de andere kant, heb vrij snel na launch een 1080Ti gekocht en heb wel lang waar voor mijn geld.

Heel benieuwd wat strategie nVidia precies wordt maar lijkt me dat de echte performance winst pas op 7nm komt. Hopelijk gaan ze niet eerst nog een opgepoetste 12/14nm ? versie launchen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Dat is natuurlijk onzin :p. Je hebt sowieso al te veel betaald, omdat de prijzen (ook voor de mining hype) sterk omhoog zijn gegaan door gebrek aan innovatie en dus concurrentie.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +7 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Acties:
  • 0 Henk 'm!

  • Bloedvat
  • Registratie: Januari 2011
  • Laatst online: 18:07
Lees ik goed dat we de nieuwe kaarten medio augustus/september "in de winkel" kunnen verwachten? (en m.a.w. dat de prijzen van de 1080ti tegen die tijd zeer waarschijnlijk zullen kelderen)
Of heb ik het verkeerd begrepen en is mijn conclusie wat kort door de bocht/wishful thinking?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Bloedvat schreef op zaterdag 16 juni 2018 @ 10:12:
[...]

Lees ik goed dat we de nieuwe kaarten medio augustus/september "in de winkel" kunnen verwachten?
Ja waarschijnlijk kun je dan de eerste of eerste twee videokaarten van de nieuwe generatie verwachten en dat is dan bij nVidia de laatste generaties de Gx104 geweest. Dus de opvolgers van de GTX 1070 en GTX 1080.
(en m.a.w. dat de prijzen van de 1080ti tegen die tijd zeer waarschijnlijk zullen kelderen)
Nee dat gebeurt nooit echt. Er wordt eigenlijk wel gezorgd dat de voorraad van de vorige generatie weg gewerkt is. Hierdoor raken ze de oude generatie, waarvan er dus niet zoveel meer zijn, wel kwijt voor weinig bijzondere prijzen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

Verwijderd

Dezelfde strategie als bij Intel dus: de levering goed controleren en zodoende de prijs relatief constant houden.
Het is nog erger dan dat ik dacht. Nu weten we waar het oog in het logo van Nvidia vandaan komt: Jealousy, the green-eyed monster. Mafiapraktijken met countersueing en niet op feiten gebaseerd zwartmaken van de concurrent, PhysX via CPU nog eens extra cripplen door een tragere instructieset te gebruiken, Ubisoft dwingen om de DX 10.1 suport te verwijderen omdat het beter werkte voor ATI-kaarten (thanks) ...
Het rookeffect in Assassin's Creed Revelations maakt het spel zelfs onspeelbaar (lees: zeer frequent microstutter) met een HD 7850 op de hoogste instellingen. Ja, dat is een oude kaart maar minder oud dan het spel en technisch gezien overkill voor dat spel. Zie hier waarom Gameworks met flink wat argwaan tegen het licht wordt gehouden, zelfs al lijkt Nvidia het tegenwoordig minder bont te maken daarmee dan dat ze in het verleden deden en lijkt het nu meer aan de developers te liggen die de bibliotheken niet op een handige manier gebruiken (al dan niet iets waar Nvidia op rekent). Ook leuk: reviewers pushen om de overklokte Nvidia-kaart te vergelijken met de stock AMD-kaart en om bepaalde spellen op te nemen in de benchmark, of het verzoek aan de developer van AoS om async compute uit te schakelen.

[ Voor 255% gewijzigd door Verwijderd op 16-06-2018 16:39 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Jij hebt echt wat tegen Nvidia hé en je maakt er zo ok een mooi eigen verhaal van zonder feiten beschuldigingen, ik heb daar echt een hekel aan, of het nu AMD of Nvidia pr is wat men probeert. Begin dan een blog of zo, dit is namelijk geen nieuws meer maar je voorkeur promoten?

Edit

Ik vraag me af wat zo'n discussie voor zin heeft en wat je er mee wilt bereiken?

[ Voor 16% gewijzigd door Gekke Jantje op 16-06-2018 16:36 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

Verwijderd

Gekke Jantje schreef op zaterdag 16 juni 2018 @ 16:23:
[small]Jij hebt echt wat tegen Nvidia hé
Ik heb iets tegen de fratsen van dat bedrijf die nadelig werken voor alle gamers, zoals het kunstmatig verpesten van de performance op kaarten van een concurrent door PhysX op de GPU te renderen of door tessellation op een belachelijk hoge stand te zetten.
Wees gerust, over AMD heb ik nu ook wel wat te zeggen naar aanleiding van het nieuws eerder in de week maar dat is voor de AMD-draad en daar heb ik al mijn mening erover gegeven.
Wat betreft Nvidia, ik merkte niets op wat niet door AdoredTV is aangehaald in het filmpje. Bekijk eerst dat, dan communiceren we daarna verder. AdoredTV zijn filmpje is toch echt pas vandaag geplaatst en daarmee heeft het nieuwswaarde, ook al zijn het oude feiten die worden aangehaald. Ik ben er zeker van dat de meeste gamers de meeste van die feiten niet kennen. Ik ben er eveneens zeker van dat jij weer hebt gereageerd zonder eerst de bron te bekijken.

[ Voor 27% gewijzigd door Verwijderd op 16-06-2018 16:45 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Waarom word dat Physx (gameworks) verhaal hier dan 1000 keer herhaald, dat heeft toch geen nut? Physx is overigens nu inmiddels opensource dus haal dat er ook bij om het verhaal compleet te maken, voor de mensen die er van af weten kom je dan ook neutraler over en krijg je dit oftopic geneuzel ook niet zo snel. Op deze manier breng je verkeerde info voor de lezers die net komen kijken en er nog niet zo veel van af weten en zien Nvidia dan alleen maar als de schurk die alleen maar grote fouten maakt, het lijkt zo alsof je mensen voor AMD wil overhalen door de manier hoe je het brengt.

Edit

En die TV kan ik niet kijken, ik walg van dat kanaal hoe ze de dingen over Nvidia en intel brengen. Het verbaast me niets dat AMD dat kanaal als PR gebruikt maar dat is een vermoeden geen feit

[ Voor 14% gewijzigd door Gekke Jantje op 16-06-2018 17:00 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Gekke Jantje schreef op zaterdag 16 juni 2018 @ 16:54:

En die TV kan ik niet kijken, ik walg van dat kanaal hoe ze de dingen over Nvidia en intel brengen. Het verbaast me niets dat AMD dat kanaal als PR gebruikt maar dat is een vermoeden geen feit
Geen idee wat precies je probleem is met hoe die het brengt, maar dit is imo gewoon pijnlijk. Dus niet ingaan op de inhoud is jezelf wat (kop)pijn besparen?

Acties:
  • 0 Henk 'm!

Verwijderd

@Verwijderd
“reviewers pushen om de overklokte Nvidia-kaart te vergelijken met de stock AMD-kaart en om bepaalde spellen op te nemen in de benchmark, of het verzoek aan de developer van AoS om async compute uit te schakelen.”

Het is uiteraard slecht van Nvidia om dit te vragen maar ik leg hier de schuld toch bij de reviewers en developers. Die moeten gewoon zeggen NEE Nvidia dat doen we niet.
Dat Nvidia forum gebruikers hardware geven om op forums te trollen tja, ze krijgen gratis hardware zeg daar maar is nee tegen. Maar reviews moeten gewoon altijd eerlijk testen/reviewen.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 16 juni 2018 @ 17:20:
Het is uiteraard slecht van Nvidia om dit te vragen maar ik leg hier de schuld toch bij de reviewers en developers. Die moeten gewoon zeggen NEE Nvidia dat doen we niet.
Ik leg bij de beide partijen de schuld, de developers gaan inderdaad bepaald niet vrijuit als ze hieraan meewerken, ook al zouden ze geen samples van kaarten meer krijgen, dat moet je dan maar voor lief nemen.
Dat Nvidia forum gebruikers hardware geven om op forums te trollen tja, ze krijgen gratis hardware zeg daar maar is nee tegen. Maar reviews moeten gewoon altijd eerlijk testen/reviewen.
Die had ik nog niet eens genoemd. Dat is eveneens verkeerd, zelf zou ik het nooit doen. Integriteit en zo. Ik denk graag dat in deze tijd mensen er doorheen prikken, bij Reddit was het volstrekt duidelijk dat er in 2016 een hoop betaalde Clinton-trollen (Correct The Record) waren, ook onder de moderators.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ook weer zoiets, waar is het bewijs op papier dat reviewers door Nvidia worden gevraagd om AMD's kaarten op stock te laten op aanvraag door Nvidia zelf, of komt dat ook weer van een of ander YouTube kanaal van ieand die bij een review site werkte, zo'n figuur kan van alles roepen wat wel of niet waar is?

Ik heb trouwens geen hardware van Nvidia gekregen, als ik daarom mocht trollen zou ik dat wel doen want wie wil nu nog gratis een TitanV. (Mijn eigen GTX 1080 Ti heb ik zelf gekocht en de bon kan ik zo toesturen als bewijs, ja ik ben van de feiten ;) )

[ Voor 29% gewijzigd door Gekke Jantje op 16-06-2018 17:57 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat geeft AnandTech zelf al aan. Ze zeggen namelijk dat nVidia aan hun heeft gevraagd en ik citeer: "NVIDIA called asking for us to include overclocked GTX460s in the 6800 series article.

Ze zeggen daarvoor nog specifiek dat nVidia veel agressiever is in het verzoeken van specifieke vergelijkingen en benchmarks. Ergo, nVidia stuurt reviewers er op aan specifieke kaarten te vergelijken en bepaalde benchmarks inclusief setting te gebruiken.

Zie ook het artikel:

Your Feedback On The Use of EVGA's GeForce GTX 460 FTW in Last Night's Review by Anand Lal Shimpi
YouTube: Nvidia - Anti-Competitive, Anti-Consumer, Anti-Technology (vanaf 36:16 start deze link).
Gekke Jantje schreef op zaterdag 16 juni 2018 @ 17:53:
(Mijn eigen GTX 1080 Ti heb ik zelf gekocht en de bon kan ik zo toesturen als bewijs, ja ik ben van de feiten ;) )
Laat maar zien :+

[ Voor 83% gewijzigd door madmaxnl op 16-06-2018 18:16 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

He Gekke Jantje hoe bevalt die 30" lcd ;)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Als dat waar is, dat Nvidia wil vergelijken met oc, neem ik ASN dat het bedoeld is voor het oc gedeelte in de review, zo net is het oneerlijk voor een standaard vergelijking, daar ben ik ook tegen.

met mijn LCD ben ik tevreden, beter dan de PG279q qua kleuren en contrast

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

Verwijderd

Gekke Jantje schreef op zaterdag 16 juni 2018 @ 17:53:
Ook weer zoiets, waar is het bewijs op papier dat reviewers door Nvidia worden gevraagd om AMD's kaarten op stock te laten op aanvraag door Nvidia zelf
Als jij de video had bekeken dan had jij dat geweten. :)
Het is natuurlijk irrelevant wie die feiten brengt aangezien hij netjes de bronnen geeft en je zelf die bronnen kan bekijken, wat velen van ons dan ook doen, voor zo ver wij het niet al wisten (veel bekende kennis voor ons).
Maar eh, Proficiat met die monitor Gekke Jantje, mooi dat die goed bevalt.

[ Voor 95% gewijzigd door Verwijderd op 16-06-2018 19:03 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Verwijderd schreef op zaterdag 16 juni 2018 @ 16:41:
[...]

Ik heb iets tegen de fratsen van dat bedrijf die nadelig werken voor alle gamers, zoals het kunstmatig verpesten van de performance op kaarten van een concurrent door PhysX op de GPU te renderen of door tessellation op een belachelijk hoge stand te zetten.
Crysis 2 bv..?

Het lijkt soms echter ook omgekeerd :D :
According to our testing the Radeon RX Vega 64 is actually more efficient at GameWorks features in these games in terms of percentage hits.
https://www.hardocp.com/a...iq_perf_on_todays_gpus/13

Niet op voorraad.


Acties:
  • +1 Henk 'm!

Verwijderd

Ja, dat is een mooi voorbeeld. Als ik daarbij de FPS counter aanzet zie ik hele rare dingen. Naar het schijnt door zeer geteselleerd water onder de grond wat je niet kan zien. :F
Dan denk ik bij mezelf: Crytek had toen zo'n mooie engine, als ze een beetje fatsoenlijk hadden geoptimaliseerd hadden we nog veel mooiere graphics gehad.
Assassin's Creed Revelations is nog steeds onspeelbaar op AMD-kaarten die overkill zouden moeten zijn en AC3 en AC4 waren in het begin helemaal onspeelbaar op de sterkste AMD-kaarten, zo erg dat er optimalisaties volgden waarmee AC3 en AC4 beter draaien op mijn grafische kaart dan ACR terwijl de graphics bij de eerste twee toch echt aanzienlijk beter zijn. Om maar even aan te geven hoeveel invloed deze fratsen hebben op performance. Far Cry 4 is ook een mooi voorbeeld, ongeacht waar de schuld ligt, zo gauw de kampvuurtjes zijn gedoofd doordat je de vijandelijke gebieden hebt veroverd verdwijnt alle microstutter. Mijn strategie in dat spel: eerst alle gebieden veroveren en dan pas het spel spelen. _O-
Ubisoft. :+

[ Voor 44% gewijzigd door Verwijderd op 17-06-2018 12:44 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Koekkoek:

NVIDIA Joins S&P 100 Stock Market Index

[ Voor 27% gewijzigd door Help!!!! op 19-06-2018 18:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zelfs als Jen Huang twee jaar lang alleen maar goud zou hebben gescheten...

Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11-10 12:40
Kreeg van Google een nieuws alert dat er geruchten zijn dat een grote OEM 300.000 GPU's heeft teruggestuurd. Vervolgens wordt er gerefereerd aan seekingalpha (welke overigens meestal in het straatje van AMD omdat ze daar de aandelen strategie AMD long propageren). Dit zou de verklaring zijn voor het uitstel van de nieuwe generatie.


Nu zou inventory best voor uitstel kunnen zorgen maar 300.000 lijkt mij daar veel te weinig voor. Dat kost in het ergste geval Nvidia zo'n 90 miljoen en dat is op de huidige winst en omzet echt peanuts. Het kan nog steeds wel kloppen, alleen dan moeten er flink meer gpu's onverkocht in een warenhuis liggen ergens.

[ Voor 9% gewijzigd door sdk1985 op 21-06-2018 14:46 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39

NVIDIA Unveils & Gives Away New Limited Edition 32GB Titan V "CEO Edition"

NVIDIA’s CEO Jensen Huang has over the years become increasingly known for his giveaway antics at AI conferences. In recent years the CEO has unveiled both the NVIDIA Titan X (Pascal) and the NVIDIA Titan V in this fashion. And now you can add one more reveal to this list, as last evening Huang gave out 20 units of a new Titan V SKU, the Titan V CEO Edition, at the Computer Vision and Pattern Recognition conference in Salt Lake City.

According to NVIDIA, the aptly named SKU is apparently a “limited edition” product, and unlike past Huang reveals, NVIDIA has not sent out any announcements of a new product. So for the moment, this is not a retail product and is not immediately expected to become one. None the less, this is an unusual development as the new Titan V SKU is not simply a Titan V with additional memory, but rather has some notable configuration differences that set it apart from the regular Titan V.
https://www.anandtech.com...-32gb-titan-v-ceo-edition

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia lijkt botweg veel teveel wafers en VRAM te hebben besteld tijdens de mining hype. Aangezien er toch nul concurrentie is, lijkt het erop dat Nvidia de volgende lijn gewoon uitstelt.
https://gadgets.ndtv.com/...-inventory-report-1870690

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Eindeloos uitstellen is ook niet handig. Ze zullen proberen de stock kwijt te raken echter hoeveel mensen zitten nog op pascal te wachten :?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Help!!!! schreef op donderdag 21 juni 2018 @ 21:34:
hoeveel mensen zitten nog op pascal te wachten :?
Iedereen die een nieuwe kaart wil hebben? Genoeg mensen hebben de aankoop van een kaart uitgesteld wegens hoge prijzen of de hoop een Vega kaart te kunnen bemachtigen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CMD-Snake schreef op donderdag 21 juni 2018 @ 21:48:
[...]


Iedereen die een nieuwe kaart wil hebben? Genoeg mensen hebben de aankoop van een kaart uitgesteld wegens hoge prijzen of de hoop een Vega kaart te kunnen bemachtigen.
En daarom gaan al die GPU's terug naar nvidia ? En zijn er inventory build ups?

Er zal vast nog wel wat vervangingsvraag zijn en nieuwe vraag maar blijkbaar niet genoeg. Denk dat de meeste mensen die er één wilde hem al hebben. Daarnaast komt er vast een hoop beschikbaar van ex miners.

Tuurlijk zal nvidia hopen dat ze alles nog kunnen slijten.

Wat denk jij, als al die inventory GPU's een refresh of heel nieuwe GPU zouden zijn, zouden ze dan ook nog inventory problems hebben?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Devil N
  • Registratie: September 2000
  • Laatst online: 05-09 20:08
Help!!!! schreef op donderdag 21 juni 2018 @ 21:34:
Eindeloos uitstellen is ook niet handig. Ze zullen proberen de stock kwijt te raken echter hoeveel mensen zitten nog op pascal te wachten :?
IMHO wordt het eens tijd dat ze serieus de MSRP voor de 10-series gaan verlagen. Dan raken ze dat overschot aan Pascal-kaarten wel kwijt. De retail prices zijn nog altijd amper lager dan toen de kaarten 2 jaar geleden uitkwamen, wat nu toch wel een beetje belachelijk begint te worden. Bovendien moeten ze ook de weg vrij gaan maken voor de nieuwe Turing/Ampere-kaarten, tenzij ze die dingen zo idioot duur willen maken dat ze zichzelf de markt uit prijzen.

Acties:
  • 0 Henk 'm!

  • jopie
  • Registratie: Juli 1999
  • Laatst online: 23:56
Ze hoeven de MSRP alleen te verlagen als er ook op korte termijn een nieuw aanbod komt.
Volgens mij is de vorige serie kaarten ook niet goedkoper geworden.

Als er inderdaad overstock is verwacht ik dat ze wachten met de introductie.
Ondanks dat de vraag vanuit mining flink minder is lijken de miners nog rustig af te wachten wat er gaat gebeuren. Marktplaats / VA staat nog niet vol met aanbod. Om mijn tweedehands GTX 1080 2 weken terug te kopen voor 450 euro had ik niet veel keus. Meer wilde ik niet betalen omdat er voor 560 al nieuwe met garantie te koop zijn.

Probleem voor Nvidia wordt een beetje dat als er een nieuwe kaart uitkomt die veel beter is, maar ook veel beter in mining dat er dan zoveel tweedehands de markt op komt dat voor iedere 1080/1440 gamer er tweedehands beter te krijgen is dan nieuw. 1180 is natuurlijk super, maar denk ik alleen zinvol voor 1440/144hz of 4K gaming.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op donderdag 21 juni 2018 @ 21:34:
Eindeloos uitstellen is ook niet handig. Ze zullen proberen de stock kwijt te raken echter hoeveel mensen zitten nog op pascal te wachten :?
Mensen die nog op Kepler zitten? :P
Natuurlijk zou uitstellen niet handig zijn, als AMD met iets zou komen. Ze zijn weer eens doodstil, wat vaak een goed teken is. Ik betwijfel alleen steeds meer of er nog iets komt dit jaar.

Dan je tweede vraag. Tja, Nvidia kan met heel veel dingen problemen hebben. Ze lijken in ieder geval veel te veel Pascal inventaris te hebben omdat ze niks hebben geleerd van het AMD debacle met mining in 2013. Vervolgens hebben ze dan ook nog eens die Taiwanese AIB die 300.000 chips terugverkoopt aan Nvidia. Aangezien een van deze AIB's hun producten zeer veelvuldig opdook in mining rigs, denk ik wel dat ik weet om welke het gaat...

Vervolgens loop GDDR6 productie sinds het begin van dit jaar. Onderhand zal de ramp up redelijk voltooid moeten zijn, maar dan weten we alsnog niet hoe groot het volume is, en wie allemaal gebruik willen maken van dit volume. Er is toch al gebrek aan productiecapaciteit voor eigenlijk elke vorm van geheugenchips. Vervolgens lijkt het er sterk op dat er prijsafspraken zijn gemaakt. Onder dit klimaat een nieuwe standaard introduceren zal niet bepaald soepel verlopen denk ik. GDDR5 capaciteit zal moeten worden omgezet, en als DDR4 bijvoorbeeld meer oplevert per wafer dan weet je wel hoe dat zal gaan. Ga er dus maar vanuit dat GDDR6 onnodig duur is, en dat doorgerekend zal gaan worden. :/

De tweede is gewoon 7nm. Intel heeft een totale meltdown met een vergelijkbare procedé. TSMC lijkt het een stuk beter voor elkaar te hebben, maar daar mag je alsnog rekenen op 2x per wafer en matige tot slechte yields terwijl bestaande nodes nu gewoon goed zouden moeten zijn. Nvidia zal met een volle lijn willen komen. Dat betekent waarschijnlijk een 200mm2, een 300mm2 en een 400mm2 klasse chip, met absoluut waardeloze yields voor zeker de grootste, maar die middelste waarschijnlijk ook. Prijstechnisch is het denk ik niet interesant om naar 7nm te gaan. Volgend jaar met verbeterde yields en de introductie van EUV zou dat anders moeten gaan liggen.

Dat zijn mijn twee centjes. :P

[ Voor 5% gewijzigd door DaniëlWW2 op 22-06-2018 12:17 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 10-10 22:35
Help!!!! schreef op donderdag 21 juni 2018 @ 21:34:
Eindeloos uitstellen is ook niet handig. Ze zullen proberen de stock kwijt te raken echter hoeveel mensen zitten nog op pascal te wachten :?
Ik heb een paar weken terug nog een 1080 Ti gekocht ter vervanging van mijn GTX 980. Ik wilde voor de zomer nog graag een upgrade doen. Voor mij was het het waard, ik haal overal het dubbele aantal frames. Ik heb hem wel tweedehands gekocht, dus heb er niet de volle mep voor betaald. Ik ken er nog een aantal die op een oudere generatie zitten en die graag in hun zomervakantie willen upgraden. Die kopen wat er nu is en gaan niet wachten op de volgende generatie.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11-10 12:40
Van problemen bij Nvidia kunnen we eigenlijk niet spreken aangezien dat bedrijf beleeft gouden tijden. De laatste cijfers tonen 1.2 miljard aan netto kwartaal winst, 737 miljoen meer dan hetzelfde kwartaal een jaar eerder. Dat is meer aan winst dan AMD het laatste kwartaal wist om te zetten met de volledige computing & graphics tak. Wat dat betreft is de cirkel rond, waar Intel eigenlijk altijd al meer winst maakte dan AMD kon omzetten had heeft Nvidia dat nu onderhand ook voor elkaar. Dit is echt david en goliath geworden.

Zoals ik al zei, met dat soort winsten moet je wel heel erg veel stock hebben liggen om je lineup te gaan uitstellen. Ze kunnen letterlijk pak hem beet 3 miljoen kaarten door de shredder gooien en nog winst maken. Mocht overstocking echt de reden van uitstel zijn dan zal het echt niet over 300.000 units gaan.


Als ik moet speculeren voor de reden van een speculatieve uitstel (officieel tot heden nog niks aangekondigd) dan zou ik het eerder aan de productie kant zoeken. Nvidia draait gigantische volumes en als ze niet willen dat de eerste 3 maanden alles continu is uitverkocht dan moet er een enorme productie machine worden aangezwengeld.

[ Voor 23% gewijzigd door sdk1985 op 22-06-2018 17:29 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Help!!!! schreef op vrijdag 22 juni 2018 @ 08:23:
En daarom gaan al die GPU's terug naar nvidia ? En zijn er inventory build ups?
Dat dit zou komen omdat ze 300.000 GPU's terug hebben gekregen lijkt mij sterk. Te veel voorraad zou eerder ontstaan kunnen zijn door overproductie om de mining markt tegemoet te komen.
DaniëlWW2 schreef op vrijdag 22 juni 2018 @ 12:11:
Natuurlijk zou uitstellen niet handig zijn, als AMD met iets zou komen.
AMD gaat voorlopig niet met iets komen waar Nvidia wakker van hoeft te liggen.

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op donderdag 21 juni 2018 @ 21:48:
[...]


Iedereen die een nieuwe kaart wil hebben? Genoeg mensen hebben de aankoop van een kaart uitgesteld wegens hoge prijzen of de hoop een Vega kaart te kunnen bemachtigen.
Die hoop heb ik al lang opgegeven. Ik ben sinds eind 2017 aan het wachten op Navi. :')
Als Nvidia FreeSync zou ondersteunen...

Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zaterdag 23 juni 2018 @ 02:05:
Als Nvidia FreeSync zou ondersteunen...
Dat gaat niet gebeuren, maar je kan ook prima zonder leven. Ik heb geen enkel scherm met dat soort dingen erin. Je kan dan ook prima games draaien zonder tearing of andere nare effecten.

Al dat wachten heeft geen zin. Tenzij er echt een harde datum is in de nabije toekomst voor een nieuw product moet je kopen wanneer je nodig hebt. Wachten op Vega werkte ook zo goed in het verleden.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:23
CMD-Snake schreef op zaterdag 23 juni 2018 @ 11:38:
Dat gaat niet gebeuren, maar je kan ook prima zonder leven. Ik heb geen enkel scherm met dat soort dingen erin. Je kan dan ook prima games draaien zonder tearing of andere nare effecten.
Pre rendered frames op 1 en vsync aan geeft ook redelijke resultaten, maar om die refresh altijd te halen moet ik ook m'n cpu/mobo/ram upgraden.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
haarbal schreef op zaterdag 23 juni 2018 @ 12:10:
Pre rendered frames op 1 en vsync aan geeft ook redelijke resultaten, maar om die refresh altijd te halen moet ik ook m'n cpu/mobo/ram upgraden.
Eigenlijk stel ik nooit dergelijke dingen in. Meeste games zet ik alles naar maximum qua instellingen en ik zie wel wat er gebeurt. Dat je altijd last moet hebben van tearing is overdreven. Er zijn ook genoeg games die zich aanpassen aan de refreshrate van je scherm.

Alleen oude games wil ik nog wel eens vsynch aanzetten, maar dat is ook deels om mijn GPU te sparen. 5000 fps moeten genereren veroorzaakt nogal wat GPU belasting.

Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op zaterdag 23 juni 2018 @ 12:10:
[...]

Pre rendered frames op 1 en vsync aan geeft ook redelijke resultaten, maar om die refresh altijd te halen moet ik ook m'n cpu/mobo/ram upgraden.
Ik zou Enhanced Sync nog wel eens willen proberen, zien hoe dat werkt. Je krijgt dan een beetje extra latency maar het valt mee. Ik denk dat het nog niet wordt ondersteund voor mijn generatie kaart, tussen dat ik een nieuwe kaart koop en een nieuwe monitor koop ga ik dat eens uitproberen.
CMD-Snake schreef op zaterdag 23 juni 2018 @ 11:38:
[...]


Dat gaat niet gebeuren, maar je kan ook prima zonder leven.
Je kan ook prima zonder een desktop-computer leven. Dat neemt niet weg dat wij er graag een hebben.
Ik heb geen enkel scherm met dat soort dingen erin. Je kan dan ook prima games draaien zonder tearing of andere nare effecten.
Dat is onwaar! Die tearing is er gegarandeerd. Misschien is jouw perceptievermogen te traag om het waar te nemen maar ik garandeer jou dat jij elke seconde tears hebt wanneer er iets 'beweegt' in het spel en jij geen syncingtechnologie gebruikt. Ik zie elke seconde tearing bij een 60 Hz. monitor bij elk spel wat ik speel wanneer er geen VSync wordt gebruikt. Voor oude spellen gebruik je betere een framelimiter als jij het slechts doet om de GPU niet zo hard te laten werken, dan heb je niet die gruwelijk grote extra inputlag die VSync geeft.

Ik wacht omdat ik Nvidia boycott omwille van anti-gaming zaken zoals PhysX, Gameworks, de voorlopers van Gameworks en recent de GPP.
Niet het enige wat ik boycott, ik boycott producten uit Israël ook.
Daarnaast heb ik graag dat Nvidia geen monopolist wordt aangezien we dan dezelfde situatie krijgen voor grafische kaarten als wat we tussen 2001 en 2017 hadden met Intel: weinig vooruitgang en geleidelijk stijgende prijzen. Het is erg genoeg dat ik een lowend-laptop (8250u en rebranded 940m) heb moeten kopen met een CPU van Intel en een grafische kaart van Nvidia omdat de OEM's het laten afweten en ik niet zelf een laptop kan bouwen. Ook daarom wordt mijn desktop 100% AMD, zodat die in ieder geval meer winst van mij krijgen dan Nvidia en Intel.

Bovendien werkt Nvidia mometeel veel slechter voor Linux (Windows gebruik ik enkel voor gaming en incidenteel voor andere programma's), er zijn al jarenlang serieuze tearingproblemen met Nvidia op bepaalde desktops die je met AMD niet hebt (een driver-probleem, je kan het gemakkelijk vinden als je googlet). Ik gebruik momenteel KDE en Manjaro wat aanzienlijk betere werkt dan W7 qua snelheid, responsiveness, RAM-gebruik (<50% van W7 bij vergelijkbaar gebruikt)) en gebruiksvriendelijkheid. Nvidia blokkeert virtualisatie wat een probleem is aangezien ik graag Windows enkel nog in een zandbak wil draaien in de toekomst, met PCIe-passthrough of hopelijk SR-IOV als AMD dat wil ondersteunen.

[ Voor 36% gewijzigd door Verwijderd op 23-06-2018 13:50 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zaterdag 23 juni 2018 @ 13:32:
Dat is onwaar! Die tearing is er gegarandeerd. Misschien is jouw perceptievermogen te traag om het waar te nemen maar ik garandeer jou dat jij elke seconde tears hebt wanneer er iets 'beweegt' in het spel en jij geen syncingtechnologie gebruikt. Ik zie elke seconde tearing bij een 60 Hz. monitor bij elk spel wat ik speel wanneer er geen VSync wordt gebruikt.
Gelukkig heb ik niet het waarnemingsvermogen van Superman. ;)

Ik heb zelf een 1080 Ti aan een paar niet Gsync schermen hangen en het gaat uitstekend.

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op zaterdag 23 juni 2018 @ 13:49:
[...]


Gelukkig heb ik niet het waarnemingsvermogen van Superman. ;)
Ik ook niet (ik heb echter wel een zeer lage reactietijd) maar zoals ik aangaf is het goed genoeg dat ik met een 60 Hz. monitor elke seconde tears zie wanneer ik geen syncing-technologie gebruik, daar heb je geen goed waarnemeningsvermogen voor nodig aangezien je wel 1/60ste seconde de tijd hebt om het te zien. Dat is heel erg lang voor visuele waarneming, minstens 4 keer zo lang als wat een mens nodig heeft om objecten te herkennen.

Als Nvidia in het verleden niet zo vaak anti-gamer fratsen had uitgehaald en FreeSync zou ondersteunen dan had ik nu wellicht een 1070/1070 Ti in mijn kast gehad. Ik wil nu eerst mijn computerhardware upgraden en daarna een monitor kopen. Ideaal gesproken 4k en >100 Hz. als die betaalbaar (€500-600) worden , anders een 1440p monitor en een dual-monitor setup aangezien HD-videos op 1440p zuigen.

[ Voor 52% gewijzigd door Verwijderd op 23-06-2018 14:00 ]


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11-10 12:40
Het tearing probleem is eerlijk gezegd vooral relevant voor (first person) shooters waarbij je zelf de camera snel beweegt. Dan zijn er immers grote verschillen tussen de twee frames die tegelijk op je monitor staan. Vroeger hadden we helemaal geen sync en dan viel het eigenlijk in RTS games mij nooit op (terwijl ik wel gevoelig ben voor 90+ fps op een 60 hz scherm en tv's met jidder en judder).

Op een hogere hz monitor (144 tegenwoordig vrij betaalbaar) zullen de verschillen tussen de frames ook weer een stuk kleiner worden en wordt de noodzaak voor sync technieken steeds kleiner. Mits je natuurlijk die hoge framerates haalt.

Overigens bleek recent dat er meer achter de dure g-sync monitoren zit. De fabrikanten worden ook gehouden aan kwaliteitseisen rondom het panel zelf, die worden door Nvidia gevalideerd en schijnbaar ook regelmatig afgekeurd. Het idee van g-sync omvat dus meer dan alleen de sync techniek, het is ook een kwaliteitsstempel voor een bepaalde ervaring.

[ Voor 21% gewijzigd door sdk1985 op 23-06-2018 18:12 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Zonder Gsync hadden we nu ook geen Freesync. Gsync is ook iets beter dan free sync en de chip die het beter maakt mag best geld kosten maar geen 200 euro.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Gekke Jantje schreef op zondag 24 juni 2018 @ 12:00:
Zonder Gsync hadden we nu ook geen Freesync.
Gsync is ook iets beter dan free sync en de chip die het beter maakt mag best geld kosten maar geen 200 euro.
Dat weten we niet. Nvidia was eerder en G-Sync inspireerde AMD om FreeSync op te richten maar dat wil niet zeggen dat het er niet zou zijn gekomen, je kan wel stellen dat het dan minstens later was gekomen. Dit soort ontwikkelingen vinden vaak tegelijkertijd plaats bij op meerdere plaatsen omdat er ee een behoefte bestaat en ze op meerdere plaatsen dezelfde kennis hebben en van daaruit naar een oplossing zoeken. Dat zie je ook vaak in de wetenschap.

G=Sync is zeker niet beter, dat is marketing-bullshit van Nvidia die jij je wijs hebt laten maken.
De performance is volledig equivalent (LFC, lag, minimum en maximum RR/FPS...) en het hangt volledig af van de uitvoerders (de monitorbedrijven) in het geval van FreeSync.
sdk1985 schreef op zaterdag 23 juni 2018 @ 18:11:
Het tearing probleem is eerlijk gezegd vooral relevant voor (first person) shooters waarbij je zelf de camera snel beweegt. Dan zijn er immers grote verschillen tussen de twee frames die tegelijk op je monitor staan.
Gameplaytechnisch, ja. Maar daar gaat het mij niet om, ik vind het lelijk (de hele tijd vervormingen zien) en het ziet er onrustig en rommelig uit.
De grote vraag is waarom de prijzen bij zowel AMD als Nvidia nog zo hoog zijn, doch bij Nvidia minder (€55) dan bij AMD.
Ook bij Nvidia is de prijs nog veel te weinig gedaald in vergelijking met de voorraad die Nvidia naar verluidt heeft.

Zijn de retail-winkels zo hebberig terwijl gamers nog steeds bereid zijn om teveel te betalen omdat ze zo lang hebben moeten wachten en zo ongeduldig zijn? Hebben de retail-winkels meer betaald voor die kaarten en houden ze de prijs hoger totdat ze uitverkocht zijn?
Leveren AMD en Nvidia bewust heel geleidelijk de kaarten of rekenen ze nog steeds meer omdat ze bang zijn dat gebruikte 'mining'-kaarten de markt overspoelen? Er is iets niet pluis maar wat? Wat is jouw gedachte hierover?
Natuurlijk zijn de kaarten duurder geworden door de pricefixing van Samsung en Hynix maar dat verklaart niet voldoende de hoogte van de prijzen.
Op een hogere hz monitor (144 tegenwoordig vrij betaalbaar) zullen de verschillen tussen de frames ook weer een stuk kleiner worden en wordt de noodzaak voor sync technieken steeds kleiner. Mits je natuurlijk die hoge framerates haalt.
Minder maar je ziet het wle nog steeds en 80-100 FPS is best realistisch bij AAA-spellen, vroeg of laat, terwijl ze nog wel goed speelbaar zijn (afhankelijk van het speltype of dat ik daarmee genoegen neem).
Overigens bleek recent dat er meer achter de dure g-sync monitoren zit. De fabrikanten worden ook gehouden aan kwaliteitseisen rondom het panel zelf, die worden door Nvidia gevalideerd en schijnbaar ook regelmatig afgekeurd. Het idee van g-sync omvat dus meer dan alleen de sync techniek, het is ook een kwaliteitsstempel voor een bepaalde ervaring.
Dat is irrelevant voor de klant die zichzelf goed informeert aangezien je een FreeSync monitor kan kopen die aan exact dezelfde kwaliteitseisen voldoet en dan nog minder betaalt. Kijk maar naar de 1440p >=144 Hz. IPS monitors of de duurdere 4k-monitors en ultrawide-1440p-monitors.

Maar goed, ik neem aan dat jij het met mij eens bent dat nu een rotmoment is om eender welke grafische kaart te kopen. Twee jaar verder en hogere prijzen terwijl het niet lang zal duren voordat de volgende generatie komt. Bovendien gaan de prijzen ook in 2018 nog wel dalen, al is het maar voor Vrijgezellendag en kerst en zo.

[ Voor 55% gewijzigd door Verwijderd op 24-06-2018 15:58 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Gekke Jantje schreef op zondag 24 juni 2018 @ 12:00:
Zonder Gsync hadden we nu ook geen Freesync.
Laptops hadden al langer variabele refreshrates. Lang vóór G-Sync. En diezelfde techniek is precies waar G-Sync en FreeSync op gebaseerd zijn en wat inmiddels VRR in DP en HDMI is geworden.
Gsync is ook iets beter dan free sync en de chip die het beter maakt mag best geld kosten maar geen 200 euro.
Beter? Hoe dan?

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op zondag 24 juni 2018 @ 15:26:
[...]

Dat weten we niet. Nvidia was eerder en G-Sync inspireerde AMD om FreeSync op te richten maar dat wil niet zeggen dat het er niet zou zijn gekomen, je kan wel stellen dat het dan minstens later was gekomen. Dit soort ontwikkelingen vinden vaak tegelijkertijd plaats bij op meerdere plaatsen omdat er ee een behoefte bestaat en ze op meerdere plaatsen dezelfde kennis hebben en van daaruit naar een oplossing zoeken. Dat zie je ook vaak in de wetenschap.

G=Sync is zeker niet beter, dat is marketing-bullshit van Nvidia die jij je wijs hebt laten maken.
De performance is volledig equivalent (LFC, lag, minimum en maximum RR/FPS...) en het hangt volledig af van de uitvoerders (de monitorbedrijven) in het geval van FreeSync.
Het is geen marketing bs wat Nvidia mij heeft wijsgemaakt (vooroordeel die niet klopt met de werkelijkheid). Het komt zo uit de tests, hoe klein het verschil ook is of was.

Linus Tech Tips bijvoorbeeld is er één van die het mij heeft wijsgemaakt.
YouTube: FreeSync vs G-Sync Input Lag Comparison
Werelds schreef op zondag 24 juni 2018 @ 16:06:
[...]

Laptops hadden al langer variabele refreshrates. Lang vóór G-Sync. En diezelfde techniek is precies waar G-Sync en FreeSync op gebaseerd zijn en wat inmiddels VRR in DP en HDMI is geworden.
Maar dit was niet de push voor AMD free sync naar monitoren.

[ Voor 19% gewijzigd door Gekke Jantje op 24-06-2018 16:45 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Gekke Jantje schreef op zondag 24 juni 2018 @ 16:25:
Linus Tech Tips bijvoorbeeld is er één van die het mij heeft wijsgemaakt.
YouTube: FreeSync vs G-Sync Input Lag Comparison
2015 toen het net nieuw was terwijl Nvidia al jarenlang G-Sync gebruikte. :')
No offense, dat is echt veel te gedateerd in dit perspectief (technologie, net nieuw toen, 3 jaar is erg lang bij dit soort technologie).
Er is ondertussen veel gebeurd. Het verschil is verwaarloosbaar klein, ongeacht in wiens voordeel het is. Dat gaat geen gamer merken. Overigens gebruiken de e-sporters uberhaupt geen FreeSync of G-Sync, die hebben liever de beelden met tears erbij.

[ Voor 39% gewijzigd door Verwijderd op 24-06-2018 17:18 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Er zal ook vast veel gebeurd zijn maar daar vind ik geen testjes van. Ik zelf zag het nut ook niet echt van Gsync daarom heb ik die troep ook maar weer weggedaan en ben ik voor een iets gegaan wat wel een betere ervaring oplevert, namelijk VA+HDR, een hoger contrast voegt meer toe in mijn beleving dan de sync technieken

[ Voor 64% gewijzigd door Gekke Jantje op 24-06-2018 17:21 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

De laatste test die ik zag is die van PCPerspective. Zij deden metingen met een oscillosscoop, in die tijd had AMD nog geen LFC, nu wel.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Word daar ook de Latency getest, kun je met voorbeelden komen?

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Gekke Jantje schreef op zondag 24 juni 2018 @ 17:22:
Word daar ook de Latency getest, kun je met voorbeelden komen?
Zoals ik aangaf gebruikten ze een oscilloscoop, daaruit kan je afleiden dat ze de de latency hebben gemeten. Je kan op Youtube gemakkelijk de video vinden met "freesync g-sync pcper". Uit mijn hoofd stelden ze geen verschil in latency vast, niet een verschil wat ertoe doet in ieder geval. Hoe leuk die test van LTT ook is (leuke muis-hack), het zijn twee verschillende kaarten en FreeSync gebeurt via software dus als het net nieuw is dan is het waarschijnlijk minder goed geoptimaliseerd dan dat het nu is.

[ Voor 31% gewijzigd door Verwijderd op 24-06-2018 17:26 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ik kan ze nergens vinden helaas.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Typ het in op Youtube, niet in een zoekmachine buiten Youtube. Google is verrassend slecht in het vinden van hun eigen Youtube-filmpjes. :')

[YouTube: https://www.youtube.com/watch?v=VkrJU5d2RfA&t=873s]

Laat ik deze ook maar even toevoegen:


En dan nog deze onwetenschappelijke test:
YouTube: AMD Radeon FreeSync 2 vs NVIDIA G Sync - Blind Test
Hij had er ook eerder een met FreeSync in plaats van FreeSync2, dezelfde conclusie. Je merkt het verschil niet.

[ Voor 47% gewijzigd door Verwijderd op 24-06-2018 17:29 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Nergens word beweerd dat de lantency gelijk is of van de een beter dan de ander.
Met die een na laatste video kijk ik niet, die lui werken waarschijnlijk voor AMD PR, ook al laten ze wel eens wat positiefs zien van intel en Nvidia maar dat is waarschijnlijk om zich zelf neutraler over te doen laten komen.

[ Voor 59% gewijzigd door Gekke Jantje op 24-06-2018 17:38 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11-10 12:40
Pcper heeft later met LFC ook nog eens een stuk geschreven. AFAIK was de conclusie daar dat G-sync nog altijd een streepje voor had in bepaalde scenario's.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Gekke Jantje schreef op zondag 24 juni 2018 @ 16:25:
Het is geen marketing bs wat Nvidia mij heeft wijsgemaakt (vooroordeel die niet klopt met de werkelijkheid). Het komt zo uit de tests, hoe klein het verschil ook is of was.

Linus Tech Tips bijvoorbeeld is er één van die het mij heeft wijsgemaakt.
YouTube: FreeSync vs G-Sync Input Lag Comparison
Ik wist wel dat je hier mee ging komen.

1. Dat is 2015, FreeSync amper 3 maanden na de eerste release. FreeSync is inmiddels flink veranderd.
2. Op hoge framerates is G-Sync "beter" (lees: heeft lagere input lag) met V-Sync aan
3. Op hoge framerates is FreeSync "beter" (lees: heeft lagere input lag) met V-Sync uit
4. Op lage framerates is G-Sync "beter" (lees: heeft lagere input lag) met V-Sync uit
5. Op lage framerates is FreeSync "beter" (lees: heeft lagere input lag) met V-Sync aan


Waarom nu de aanhalingstekens rondom "beter"? Omdat de resultaten gigantisch uit elkaar lopen en je ze niet 1 op 1 met elkaar kunt (of moet) vergelijken.

Op hoge framerates zit je op of boven je maximale refresh rate. 144 FPS met een frame limiter en V-Sync uit (wat ten tijde van die test overigens pas een week mogelijk was met G-Sync!) geeft op FreeSync exact dezelfde resultaten als 144 FPS met V-Sync op G-Sync. Met FS zitten ze daar op 30/33/28/32 waar GS op 30/32/32/30 zit. Voor FS dus een gemiddelde van 30,75, voor GS een gemiddelde van 31. Dat zit binnen de foutmarge, dat is verwaarloosbaar.

Kijk je vervolgens echter naar de hoge framerates zónder frame limiter (die 200 FPS) dan kun je met FreeSync dus die frames gewoon door laten komen (ten koste van tearing). Waarom zou je dat willen? Nou, competitief gamen. Het soort games dat je op dat soort framerates kunt en wil spelen zijn dingen als CS:GO en Overwatch, waar een lagere input lag heel belangrijk is. En dan komt FS op 20/22/21/23, een gemiddelde van 21,5ms. GS komt daar niet aan omdat V-Sync betekent dat je gewoon een harde limiet hebt. Daarom laat Linus dat ook zien, zoals hij zegt.

Op zulke hoge framerates is AMD's oplossing dus gewoon objectief beter. Daar kun je gewoon V-Sync uit laten en de lagere input lag pakken.


Op lage framerates zit je ver onder de maximale refresh rate en waarschijnlijk ook onder de minimale refresh rate. Over het algemeen is de harde limiet van panelen 40 of 45 Hz. In deze test zitten ze dus net op, of net boven het absolute minimum. Dit is waar je VRR wil hebben, omdat je niet wil dat frames in de buffer blijven hangen tot de volgende refresh cycle, die extra input lag moet incasseren en je tegelijkertijd ook geen tearing wil hebben van frames die 22ms uit elkaar liggen. Dit is waar GS/FS voor op de markt zijn gebracht.

GS zit zonder V-Sync vast op 73/73/72/73; gemiddeld 72,75ms. Dan heb je echter wel tearing - vergeet niet dat we nu dus ook op 45 Hz zitten te refreshen en die scheur dus 22,22ms op je scherm staat, en niet 6,9ms zoals op 144 Hz. Zet je V-Sync aan om tearing tegen te gaan dan zit FS op 91/84/89/90, gemiddeld 88,5ms. GS zit op 101/103/86/94, gemiddeld 96ms. Die 8ms is zo pijnlijk niet, dat zul je op die framerates niet echt merken, dus hier zijn ze min of meer gelijkwaardig. En je kunt het ook gewoon andersom bekijken; met Nvidia kun je juist zo'n 14ms minder input lag halen, hoewel dat zoals gezegd met frametijden van 22ms niet zo heel spannend is.


Dus nogmaals: waarom is G-Sync precies beter? Zelfs toen al was AMD al min of meer gelijkwaardig, met het voordeel op zeer hoge framerates waar VRR toch geen nut heeft. En inmiddels heeft AMD die paar missende features (zoals LFC; waar frames verdubbeld worden onder de minimale refresh rate) ook toegevoegd.

In de praktijk is er geen merkbaar verschil tussen de twee. Je moet ze op een iets andere manier toepassen (op je V-Sync instellingen letten), maar het enige waar één van de twee duidelijk beter in is, zijn heel hoge framerates.

Dat blijkt ook uit meerdere blinde tests die door sites zijn uitgevoerd; [H] heeft onlangs nog FreeSync 2 tegenover G-Sync gezet in een blinde test en daar kwam precies een 50/50 split uit.


En als laatste wordt bij vrijwel elke vergelijking vergeten dat het daadwerkelijke TFT paneel ook iets uit maakt. In het geval van Linus z'n test heeft de G-Sync monitor een AUO TN paneel dat een responstijd van 1ms heeft, de ander een AUO TN paneel dat een responstijd van 5ms heeft. Laatstgenoemde heeft dus een veel betere scaler om die responstijd teniet te doen qua en de input lag niet al te veel hoger uit te laten komen. En dat is gewoon onmogelijk met G-Sync omdat de G-Sync module de scaler ís. Daar heeft een monitor fabrikant helemaal niets aan te kiezen.
Maar dit was niet de push voor AMD free sync naar monitoren.
Dat kun jij niet weten ;)
Gekke Jantje schreef op zondag 24 juni 2018 @ 17:33:
Nergens word beweerd dat de lantency gelijk is of van de een beter dan de ander.
Met die een na laatste video kijk ik niet, die lui werken waarschijnlijk voor AMD PR, ook al laten ze wel eens wat positiefs zien van intel en Nvidia maar dat is waarschijnlijk om zich zelf neutraler over te doen laten komen.
PCPer werkt voor AMD PR? Zij zijn juist één van de sites die keihard op AMD hamert als het niks is. En dat doen ze ook op Nvidia, Intel. Wat mij betreft één van de weinige sites die nog over zijn waar daadwerkelijk nog wat diepgaand onderzoek wordt gedaan.

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:23
Bij gsync kan vsync ook uit.

Vond dit wel een aardig filmpje.
YouTube: FreeSync vs. G-Sync Delay Analysis

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 00:20
Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1200/029583_nvidia-turing-birthday.jpg
Nvidia feliciteert Turing met zijn verjaardag: verwijzing naar aankomende GPU's?
Tweet: https://twitter.com/nvidia/status/1010545517405835264

Ik heb zelf eigenlijk geen idee of dit iets kan zijn, maar hoe groot is de kans dat Nvidia zo'n move doet als techwebsites het maandenlang over Turing (en/of Ampère) hebben?

[ Voor 5% gewijzigd door RobinNL op 24-06-2018 18:44 ]

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11-10 12:40
Werelds schreef op zondag 24 juni 2018 @ 17:54:
[...]

Ik wist wel dat je hier mee ging komen.
Dan kun je het beter meteen argumenteren toch? Anders wordt het een flauwe bait ;).

Freesync had nogal wat haken en ogen daar is ondertussen iedereen het wel overeens. Later zijn de grootste pijnpunten verbeterd. Echter je kunt nog altijd niet blindelings een freesync monitor kopen en verwachten dat het goed is. Het kan immers zowel gebeuren dat het een waardeloos panel als dat LFC niet werkt (omdat de max Hz te laag is).

Voor de inconsistentie in Freesync 1 is dan ook een oplossing bedacht in de vorm van Freesync2. Daar volgt AMD het pad van Nvidia en maken ze er een standaard van zodat je bijvoorbeeld ook zeker weet dat LFC werkt en het panel OK is (iets van 400 nits). Overigens schijnt Freesync(1) naast Freesync2 te blijven bestaan.
Dat blijkt ook uit meerdere blinde tests die door sites zijn uitgevoerd; [H] heeft onlangs nog FreeSync 2 tegenover G-Sync gezet in een blinde test en daar kwam precies een 50/50 split uit.
Ik heb ze niet gezien dus of dit klopt of niet kan ik niet staven. Echter wat mij wel opvalt is dat wanneer ik de bewuste test ga opzoeken het een onderzoek is met 10 personen, beloning pizza en bier, het allemaal gebaseerd is op 1 game, het een racegame betreft, de settings ook nog op dynamic bleken te staan, totaal verschillende systemen en (logisch) totaal verschillende monitoren. Forza 7 is uberhaupt een game die prima te pruimen is zonder enige sync. Dus dan iemand laten kiezen tussen twee systemen ga je geen zinnige antwoorden krijgen. De test zoals daar uitgevoerd is vanuit wetenschappelijk oogpunt zoveel op aan te merken dat je er totaal geen waarde aan kan ontlenen. Ze testen te veel vragen met een te kleine sample zonder cetris paribus. Dat komende van de persoon die hier nog regelmatig de steam survey inbrengt.

Wil je g-sync vs freesync gaan testen dan zal dat met een grotere groep moeten met zoveel mogelijk identieke systemen in games met identieke instellingen en het liefst met meerdere monitoren (of de best in class monitor van beiden). Aan die test van HardOCP hebben we in ieder geval helemaal niets.

Maargoed welke techniek nu echt beter is blijft een beetje een triviale discussie zo lang Vega nog rond de 700 euro zit. Freesync 2 zit voorlopig ook op 500+ euro. Dus dat zal voor velen niet zijn weggelegd. Zelf heb ik in 2016 een 1070 gekocht en ik zou best een G-sync monitor willen aanschaffen maar 500 euro voor een 27model vind ik echt te fors.

[ Voor 49% gewijzigd door sdk1985 op 24-06-2018 19:14 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Werelds schreef op zondag 24 juni 2018 @ 17:54:
[...]
PCPer werkt voor AMD PR? Zij zijn juist één van de sites die keihard op AMD hamert als het niks is. En dat doen ze ook op Nvidia, Intel. Wat mij betreft één van de weinige sites die nog over zijn waar daadwerkelijk nog wat diepgaand onderzoek wordt gedaan.
Hij had het over de video van Adored, de laatste video in CHBF`s post.

Ookal vind ik Adored een goed/informatief kanaal, hij zit wel overduidelijk aan 1 kant van het spectrum wat motivaties betreft. (terwijl ik ook een AMD aanhanger ben)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Zeg ik toch ook en laat Linus toch ook zien? Ten tijde van die test had Nvidia dat echter pas net toegevoegd, na druk van de pers en hun gebruikers. In het begin was dat niet mogelijk.
sdk1985 schreef op zondag 24 juni 2018 @ 18:51:
Dan kun je het beter meteen argumenteren toch? Anders wordt het een flauwe bait ;).
Als ik een opmerking plaats als "AMD is beter dan Nvidia" word ik ook verwacht dat te onderbouwen. Gekke Jantje onderbouwt het helemaal niet, dus ik wilde weten waarom, hoewel ik inderdaad wel een vermoeden had dat het op oude informatie gebaseerd was. Als ik echt op basis van mijn vermoeden meteen op hem in hak is dat ook flauw :)
Maargoed welke techniek nu echt beter is blijft een beetje een triviale discussie zo lang Vega nog rond de 700 euro zit. Freesync 2 zit voorlopig ook op 500+ euro. Dus dat zal voor velen niet zijn weggelegd. Zelf heb ik in 2016 een 1070 gekocht en ik zou best een G-sync monitor willen aanschaffen maar 500 euro voor een 27model vind ik echt te fors.
Triviaal vind ik het alsnog niet, want juist voor de budget gamer die geen boodschap aan HDR heeft (vandaar die 500+ voor FS2; dat is altijd met HDR in de praktijk) is FreeSync interessant. Het opletten met de minima/maxima valt tegenwoordig wel mee, je moet al een oud of érg goedkoop (in verhouding :P) model hebben wil dat nog een probleem zijn. Er zijn wel nog enkele die op dat paneel (ontgaat me even welk het ook alweer precies was) zitten met 42-70.

In de praktijk zijn ze gewoon nagenoeg gelijk aan elkaar en kun je geen "betere" aan wijzen. FS is echter wel makkelijker en goedkoper te krijgen.

Als ik eerlijk ben, kan ik geen van beide aanraden. Helaas houdt Nvidia langer vast aan GS dan ik had gehoopt en is mijn hoop gevestigd op HDMI VRR. Als Nvidia zelfs dát gaat negeren, dan is VRR dood voor PC gamers. Er zijn al meerdere dingen finaal mislukt doordat men eigen standaarden door probeert te voeren die incompatibel zijn met de concurrentie. 3D is het simpelste PC-gerelateerde voorbeeld. Zolang we niet minimaal één overeenkomende standaard hebben zijn het beide gewoon nutteloze producten tenzij je blindelings ook aan één van de twee GPU fabrikanten blijft hangen. Gezien hoe lang we gemiddeld met een monitor doen is het gewoon oerdom om méér uit te geven aan G-Sync, want dat betekent ook dat je de komende 5 jaar niet op AMD over kunt stappen zonder die duurbetaalde functionaliteit te verliezen.

Voor mij vallen daarnaast de meeste G-Sync producten al heel snel af omdat het vaak TN panelen en/of simpelweg slecht gebouwde producten zijn. Er wordt ook heel vaak beweerd dat GS een of ander kwaliteitskeurmerk zou zijn, maar dat is je reinste onzin. Nvidia stelt eisen aan de specs, maar dat heeft niets met bouwkwaliteit te maken. En dan krijg je bij bijvoorbeeld die dure RoG onzin gewoon bar slechte producten voor veel te veel geld voorgeschoteld - de hoeveelheid backlight bleed op sommige van die dingen is echt schandlig, niet beter dan een budget monitor van 150 euro. Zelfs zonder G-Sync en de bijbehorende belasting zou ik die dingen niet eens overwegen. Ik zit nog steeds op m'n FG2421 (inmiddels 22177 branduren :+) als primaire monitor en z'n eventuele vervanger moet aan een stel eisen voldoen dat vooralsnog geen enkel product echt doet :P

Overigens heb je "soort van" gelijk wat betreft het bestaan van FreeSync en FreeSync 2, echter moet je dan niet denken aan FreeSync "1". Beide zijn certificatie programma's waarbij AMD eisen stelt aan de specs, net zoals Nvidia dat doet. FreeSync is dan de basis (waar nu o.a. een eis voor de min/max in zit), FS2 gaat dan een stap verder met die eisen voor HDR. Het is een beetje onhandig dat AMD dezelfde naam gebruikt voor hun certificatie programma alswel hun implementatie van VRR, maar het is niet anders. FreeSync als certificatie programma staat in elk geval los van FreeSync "1" als technologie ;)
enchion schreef op zondag 24 juni 2018 @ 19:11:
Hij had het over de video van Adored, de laatste video in CHBF`s post.
Ah, dat had ik even gemist, my bad. Adored is weldegelijk een AMD aanhanger, hoewel hij over het algemeen wel met feiten strooit.

[ Voor 6% gewijzigd door Werelds op 24-06-2018 20:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

RobinNL schreef op zondag 24 juni 2018 @ 18:43:
[afbeelding]
Nvidia feliciteert Turing met zijn verjaardag: verwijzing naar aankomende GPU's?
Tweet: https://twitter.com/nvidia/status/1010545517405835264

Ik heb zelf eigenlijk geen idee of dit iets kan zijn, maar hoe groot is de kans dat Nvidia zo'n move doet als techwebsites het maandenlang over Turing (en/of Ampère) hebben?
Slimme marketing in combinatie met een terecht eerbetoon. De naam doet er weinig toe, reken er maar op dat de volgende generatie de derde generaite Maxwell wordt. Voor gaming is Maxwell een uitstekende architectuur (voor andere taken is het minder nuttig), op de huidige node zouden ze nog een fors grotere die kunnen maken en bij een kleinere node kunnen ze zelfs met de huidige diesizes ver komen.
Gekke Jantje schreef op zondag 24 juni 2018 @ 17:33:
Met die een na laatste video kijk ik niet, die lui werken waarschijnlijk voor AMD PR
Dat is wat ze een complottheorie noemen. :)
Hij is gewoon een hardware-enthusiast die net als wij aanvankelijk op forums actief was (nog steeds, het is niet moeiljk om hem te vinden) en nu op Youtube wat analyseert.

[ Voor 33% gewijzigd door Verwijderd op 24-06-2018 21:41 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 24 juni 2018 @ 21:36:
Voor gaming is Maxwell een uitstekende architectuur (voor andere taken is het minder nuttig)
De GeForce lijn hoeft alleen goed te zijn in gaming, al het andere is onbelangrijk. Voor andere toepassingen heeft Nvidia de Quadro en Titan lijnen.

Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Werelds schreef op zondag 24 juni 2018 @ 20:40: Als ik eerlijk ben, kan ik geen van beide aanraden. Helaas houdt Nvidia langer vast aan GS dan ik had gehoopt en is mijn hoop gevestigd op HDMI VRR. Als Nvidia zelfs dát gaat negeren, dan is VRR dood voor PC gamers.
Die Variable Refresh Rate zal waarschijnlijk deel uit maken van de nieuwe HDMI 2.1 standaard die naar verluidt ook op Nvidia's nieuwe GPU-generatie zal zitten. Ik heb daar in het topic Gamingmonitoren - de ontwikkelingen ook een korte post aan gewijd, maar ik heb de indruk dat nog weinig mensen in de gaten hebben dat Gsync als feature voor monitoren daarmee eindelijk niet meer relevant zal zijn. Natuurlijk, dit zijn nog een hoop aannames, en Nvidia zal zich als het even kan niet in de eigen voet willen schieten, maar ik blijf hopen.

[ Voor 5% gewijzigd door choogen op 25-06-2018 13:15 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
CMD-Snake schreef op zondag 24 juni 2018 @ 23:45:
[...]


De GeForce lijn hoeft alleen goed te zijn in gaming, al het andere is onbelangrijk. Voor andere toepassingen heeft Nvidia de Quadro en Titan lijnen.
"Gaming" omhelst tegenwoordig ook aardig wat compute. Daarom zijn de eerste generatie GCN producten ook iets beter in modernere games dan Kepler uit die tijd.

Bij Quadro gaat het niet zozeer om compute als wel geheugen en outputs. En in plaats van Titan bedoel je waarschijnlijk Tesla - dat is de HPC tak. Titan bestaat omdat het kan ;)
choogen schreef op maandag 25 juni 2018 @ 13:08:
Die Variable Refresh Rate zal waarschijnlijk deel uit maken van de nieuwe HDMI 2.1 standaard die naar verluidt ook op Nvidia's nieuwe GPU-generatie zal zitten. Ik heb daar in het topic Gamingmonitoren - de ontwikkelingen ook een korte post aan gewijd, maar ik heb de indruk dat nog weinig mensen in de gaten hebben dat Gsync als feature voor monitoren daarmee eindelijk niet meer relevant zal zijn. Natuurlijk, dit zijn nog een hoop aannames, en Nvidia zal zich als het even kan niet in de eigen voet willen schieten, maar ik blijf hopen.
HDMI 2.1 is inmiddels definitief en VRR ís een onderdeel. En helaas is het, net als in DisplayPort, een optionele extensie. Nvidia kan het dus gewoon negeren en dat is ook waar ik bang voor ben.

Schieten ze zichzelf dan in de voet? Niet zolang ze het marktaandeel hebben dat ze nu hebben. Dan zijn ze machtig genoeg dat af te dwingen, ook al zal straks elke degelijke TV en de meeste monitors ondersteuning voor HDMI VRR hebben (en in het geval van monitors betekent dat bijna automatisch ook FreeSync (2)).

Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

@Werelds
Met in de eigen voet schieten bedoelde ik eigenlijk dat Nvidia door er voor te kiezen die VRR optie juist wel onderdeel te laten zijn van haar nieuwe GPU generatie zichzelf in de problemen kan brengen, want Gsync als feature biedt daarmee geen toegevoegde waarde meer voor bezitters van Nvidia kaarten.

Anderzijds kan het bedrijf er ook voor kiezen om juist geen VRR via HDMI in de nieuwe GPU's op te nemen. Met het huidige marktaandeel zouden ze daar inderdaad wel eens mee weg kunnen komen en dit zou dan ook best de meest waarschijnlijke uitkomst kunnen zijn. Daarmee graaft het bedrijf zich dan nog verder in in de Gsync-strategie, maar dan wel ten koste van de technologie-neutrale gamers die een mogelijkheid ontzegd wordt om zonder Gsync monitor en met een Nvidia kaart toch van VRR te kunnen genieten.

Persoonlijk zou ik Nvidia daarvoor dan ook af willen straffen door een AMD kaart te kopen, maar in het meer highend spectrum komt AMD wat mij betreft momenteel niet goed mee met hun groene concurrent (met name qua energie-efficiëntie en geluidsproductie). Wanneer AMD er in de toekomst toch ooit in slaagt om highend kaarten uit te brengen die kunnen concurreren met de beste Nvidia kaarten dan zou een rationele gamer (die nog geen Gsync monitor heeft staan) blind voor zo'n AMD kaart moeten gaan. Maar zo'n scenario lijkt voorlopig helaas nog ver weg.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA G-Sync HDR Module Adds $500 to Monitor Pricing

ASUS ROG Swift PG27UQ 27" 4K 144Hz G-SYNC Monitor: True HDR Arrives on the Desktop


Damn. :X Wat zou dit kosten als we niet opgezadeld zaten met lock in mechanismen..... 8)7

[ Voor 23% gewijzigd door Help!!!! op 25-06-2018 18:41 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgende schandal in the making :

NVIDIA’s new Non-Disclosure Agreement leaked


Heise.de: In eigener Sache: Nvidia-NDA als Maulkorb für Journalisten
Es versteht sich von selbst, dass ein unabhängiges Medienunternehmen solch eine Vereinbarung unter keinen Umständen unterschreiben kann. Dennoch ließ uns Nvidia wissen, dass bereits "viele Journalisten" die Vereinbarung unterschrieben hätten.
8)7

Misschien goed om even na te vragen bij Tweakers en HWI of ze al krabbeltje gezet hebben :X :o

[ Voor 92% gewijzigd door Help!!!! op 25-06-2018 19:43 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Na een Non-Disclosure-Agreement te hebben getekend, ben je dan verplicht te Disclosen na die termijn is afgelopen, of zou je hem vrijwillig kunnen verlengen.

Maw pas een half jaar na release iets over het product te posten. (met als excuus het braafste jongetje van de klas te zijn)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 24 juni 2018 @ 20:40:
Triviaal vind ik het alsnog niet, want juist voor de budget gamer die geen boodschap aan HDR heeft (vandaar die 500+ voor FS2; dat is altijd met HDR in de praktijk) is FreeSync interessant.
+ dat je momenteel zo'n €2500 mag betalen voor een HDR-monitor die een ietwat fatsoenlijke HDR-implementatie heeft. Dat ligt sowieso buiten het bereik van vrijwel alle gamers. Misschien dat de mindere implementaties (€500-1000 voor spellen enig nut hebben maar ik wacht er als budgetgamer wel mee totdat de techniek een beetje volwassen is.

Al dat gemiep over dat je bij FreeSync een grotere variatie hebt begrijp ik niet, voor zo ver dat inderdaad al niet achterhaald heeft. Inderdaad, G-Sync bij een TN-scherm daar wordt de gamer ook niet vrolijk van.
Je bent als klant toch niet achterlijk? Je kan zelf opzoeken of dat de implementatie goed of slecht is. Minimale refresh-rate, maximale refresh-rate, gebruikte panel, software-ondersteuning (het liefts met minimale inputlag)...
Bekijk reviews van zowel de FreeSync en de G-Sync variant en je weet wel hoe het zit.

[ Voor 6% gewijzigd door Verwijderd op 25-06-2018 20:22 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Haha, je zult maar fan zijn. Wat een Nazi's. Hoppakee, Godwin.
Modbreak:Doe nou niet :/
Help!!!! schreef op maandag 25 juni 2018 @ 19:30:

Misschien goed om even na te vragen bij Tweakers en HWI of ze al krabbeltje gezet hebben :X :o
Ga er maar gewoon vanuit dat elke site die niet specifiek aangeeft dit niet ondertekent te hebben het ondertekent heeft. Daarnaast kun je daarna makkelijk verifiëren of dat ook zo is doordat ze de waarheid, en dus ook negatief, over nVidia publiceren i.p.v. een of ander voorgekauwd PR praatje.

[ Voor 82% gewijzigd door dion_b op 26-06-2018 08:11 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Je zult maar nooit een NDA voor je ogen hebben gehad en niet inzien dat dit een volledig standaard NDA is die werkelijk niets vreemds vraagt van de ontvangende partij. Ik had praktisch het hele document vertaalt toen ik schijnbaar backspace deed zonder dat de editor de focus had en alles kwijtraakte, maar iedereen die denkt dat hier iets instaat wat niet in ieder NDA zal staan van een bedrijf dat informatie deelt met een derde partij kan niet lezen, wil niet lezen of heeft last van een combinatie van die twee. Tijdens m'n studententijd heb ik al NDAs moeten ondertekenen die meer restricties oplegde...

Pagina 1
Pagina 2

[ Voor 23% gewijzigd door Paprika op 25-06-2018 21:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op maandag 25 juni 2018 @ 21:23:
Je zult maar nooit een NDA voor je ogen hebben gehad en niet inzien dat dit een volledig standaard NDA is die werkelijk niets vreemds vraagt van de ontvangende partij. Ik had praktisch het hele document vertaalt toen ik schijnbaar backspace deed zonder dat de editor de focus had en alles kwijtraakte, maar iedereen die denkt dat hier iets instaat wat niet in ieder NDA zal staan van een bedrijf dat informatie deelt met een derde partij kan niet lezen, wil niet lezen of heeft last van een combinatie van die twee. Tijdens m'n studententijd heb ik al NDAs moeten ondertekenen die meer restricties oplegde...

Pagina 1
Pagina 2
Volgens mij is het niet standaard dat een journalist verboden wordt om kritisch uitingen te doen ?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Verwijderd schreef op maandag 25 juni 2018 @ 21:29:
[...]


Volgens mij is het niet standaard dat een journalist verboden wordt om kritisch uitingen te doen ?
Waar staat dat?

Acties:
  • 0 Henk 'm!

Verwijderd

"Recipient shall use use confidential information solely for the benefit of NVIDIA"

kritiek uiten is niet echt een "benefit" voor Nvidia

Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Knap dat je dat leest. Kopje 3 (dat is het enige relevante deel) stelt:
De ontvanger zal vertrouwelijke informatie uitsluitend gebruiken ten behoeve van NVIDIA en zal niet: (a) nieuwsberichten plaatsen op basis van vertrouwelijke informatie; (b) vertrouwelijke informatie over uitnodigingen- en speciale persevenementen van NVIDIA delen; (c) vertrouwelijke informatie op publieke of beschermende forums of discussiewebsites plaatsen; (d) videos beschikbaar stellen die 'voorspellingen' of 'hypothesen' over toekomstige aankondingen met vertrouwelijke informatie als basis van het verhaal; (e) berichten plaatsen op sociale-media(kanalen) die vertrouwelijke informatie bevatten of 'vermoedens' bevatten op basis van vertrouwelijke informatie; (f) Dreigen vertrouwelijke informatie naar buiten te brengen tenzij geld of advertentie-geld wordt betaald; (g) vertrouwelijke informatie verkopen of verhandelen vóór, tijdens of na een lancering; (h) vertrouwelijke logingegevens vrijgeven voor een systeem om anderen toegang te verlenen tot vertrouwelijke informatie.
Er wordt nergens in de NDA ook maar iets genoemd over het schrijven van een slechte review. Een review is geen vertrouwelijke informatie nadat de NDA restrictie (dit document dus) wordt opgeheven. Wat er staat is dat je de informatie en/of (ontvangen) producten niet mag gebruiken om er zelf voordeel eruit te halen. Iets met engineering samples verkopen, concurrentie beïnvloeden met vertrouwelijke informatie enz...

Ik ben benieuwd wat mensen gaan posten als er een keertje een document van AMD wordt gepost, want de inhoud gaat hier niet van afwijken. 8)7

[ Voor 18% gewijzigd door Paprika op 25-06-2018 21:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op maandag 25 juni 2018 @ 21:39:
Knap dat je dat leest. Kopje 3 (dat is het enige relevante deel) stelt:

[...]


Er wordt nergens in de NDA ook maar iets genoemd over het schrijven van een slechte review. Een review is geen vertrouwelijke informatie nadat de NDA restrictie (dit document dus) wordt opgeheven. Wat er staat is dat je de informatie en/of (ontvangen) producten niet mag gebruiken om er zelf voordeel eruit te halen. Iets met engineering samples verkopen, concurrentie beïnvloeden met vertrouwelijke informatie enz...

Ik ben benieuwd wat mensen gaan posten als er een keertje een document van AMD wordt gepost, want de inhoud gaat hier niet van afwijken. 8)7
maar een goeie advocaat kan toch alles aan die zin koppelen ? dus journalisten bevinden zich dan op glad ijs als je zoiets getekend hebben ?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
Nee, alleen mensen die niet in die richting zitten en lezen wat ze willen lezen denken dat.

[ Voor 98% gewijzigd door Paprika op 25-06-2018 21:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

want ?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
De uitleg staat er letterlijk onder. Punten a-h vormen de NDA.

[ Voor 27% gewijzigd door Paprika op 25-06-2018 21:47 ]

Pagina: 1 ... 41 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.