[Algemeen] AMD Nieuwsdiscussietopic - deel 34 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 34 ... 55 Laatste
Acties:
  • 342.353 views

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 19 november 2014 @ 16:24:
En wat nu als nVidia straks ook FreeSync gaat ondersteunen?
Dat zal vast gaan gebeuren. nVidia is erg pro-actief met het ondersteunen van standaarden.
madmaxnl schreef op woensdag 19 november 2014 @ 16:24:Dan gaat GSync meteen door de knieën.
Als FreeSync inderdaad gelijkwaardig is, dan wel ja.
Is dat erg? Lijkt me niet. Doel bereikt (een dergelijk argument horen we toch ook over AMD's Mantle?).

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Mantle kunnen Intel en nVidia ook gewoon toepassen en zoals het er nu naar uit ziet doet dat het beter dan DX11 in sommige gevallen. De vraag is wat DX12 hierin gaat veranderen en hoe lang Mantle dan al op de markt is.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 19 november 2014 @ 16:29:
Mantle kunnen Intel en nVidia ook gewoon toepassen
Maar dat gaan ze niet doen.
madmaxnl schreef op woensdag 19 november 2014 @ 16:29:
en zoals het er nu naar uit ziet doet dat het beter dan DX11 in sommige gevallen.
Nogal logisch... DX11 is alweer 5 jaar oud, en richt zich ook op ondersteuning van oudere GPUs/OSen/drivers, wat de nodige problemen met zich meebrengt.
madmaxnl schreef op woensdag 19 november 2014 @ 16:29:
De vraag is wat DX12 hierin gaat veranderen en hoe lang Mantle dan al op de markt is.
Dat is geen vraag. DX12 gaat gewoon vol over Mantle heen. Al was het maar omdat DX12 WEL door nVidia en Intel ondersteund wordt (en de Xbox One).

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 19 november 2014 @ 15:18:
[...]


Heb ik hierboven al gelinkt.
Een trigger betekent inderdaad dat hij wacht totdat een frame binnenkomt.
Met zoals ook al gezegd, de uitzondering dat er na ~33 ms sowieso een nieuw frame moet komen, omdat het geheugen een dynamische refresh nodig heeft.
Je hebt dus geen refresh *rate*. Je refresht 1 keer, en dan blijft de monitor 'hangen' in het vblank-interval totdat ie getriggerd wordt door de GPU.
Deze trigger is ofwel een nieuw frame, ofwel een timeout wegens geheugenrefresh.

De GPU pollt zelf ook of de monitor wel in vblank zit, voordat hij een nieuw frame stuurt (anders heb je alsnog tearing als de GPU sneller rendert dan dat de monitor de frames kan verwerken).
Dat is wel een mooi systeem. De GPU stuurt nu het scherm aan. Hopelijk krijgen ze die 1ms delay nog weg die er op dit moment in zit.

FreeSync gaat ook de Vblanc aansturen. Echter moet dan de scaler support hebben voor varriable vblank. Sommige laptop schermen hebben het al alleen wordt het daar gebruikt voor stroom besparing. (Toshiba had heeft zo'n laptop scherm)

Dus het wordt even afwachten hoe het ea in de praktijk uitpakt. Maar tot nu toe lijkt het toch wel aardig op elkaar. Alleen bij de een levert nVidia de hardware en bij de ander is de DP1.2a standaard in het leven geroepen om het aansturen van de vblank mogelijk te maken en moeten de scalers een update krijgen om dat gebruik van te maken. De schermen met die "next gen" scalers zitten er nu aan te komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 19 november 2014 @ 16:48:
[...]
Dat is wel een mooi systeem. De GPU stuurt nu het scherm aan. Hopelijk krijgen ze die 1ms delay nog weg die er op dit moment in zit.
Ongetwijfeld. Die delay komt omdat de GPU nog 'in software' de vblank moest pollen op de huidige hardware. Dat is vrij makkelijk naar hardware te verplaatsen natuurlijk. Misschien dat het in Maxwell 2 zelfs al ingebouwd zit (de G-Sync introductie is nog van ver voor die tijd).
Astennu schreef op woensdag 19 november 2014 @ 16:48:FreeSync gaat ook de Vblanc aansturen.
Daar heb ik helaas niets over kunnen vinden.
Alles wat ik heb kunnen vinden is heel dubbelzinnig over het 'aanpassen van de refreshrate'.
Astennu schreef op woensdag 19 november 2014 @ 16:48:Echter moet dan de scaler support hebben voor varriable vblank. Sommige laptop schermen hebben het al alleen wordt het daar gebruikt voor stroom besparing. (Toshiba had heeft zo'n laptop scherm)
Van wat ik begrepen heb, is het daar de bedoeling dat het geheugen in het scherm zichzelf refresht.
Het probleem wordt dus 'verplaatst': Normaal stuurt de GPU ieder frame door, ook als er niets gebeurt.
In dit geval refresht het scherm z'n eigen buffer als de GPU geen nieuw frame heeft gerenderd (dus kan een deel van de GPU in 'sleep modus').

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 11:37:
[...]
"Omdat het duuder is" heb ik helemaal niet geclaimd.
[...]
Als de G-Sync oplossing open en gratis was, zou het nog steeds anders zijn dan FreeSync, en op papier nog steeds de betere oplossing zijn.
[...]

nVidia heeft een 'technisch perfecte' oplossing

De oplossing van AMD is theoretisch iets minder perfect,

Microstutter ontstaat wanneer je met 2 of meer GPUs rendert, en de frames zijn niet evenredig verdeeld over de tijd.
Gast zet ffe je oogkleppen af en lees je eigen posts even na.........

We zitten hier op Tweakers en microstutter is hier gewoon een bekend begrip.
Het is dus niet nodig dat je dat even aan ons "Noobs" gaat "uitleggen".
Denk je nou echt dat we hier begrippen gaat gebruiken terwijl we geen idee hebben wat het is?
De aanpak van microstutter is gewoon onderdeel van freesync, ongeacht jouw foute mening.

Verder claim je geen standpunt in te nemen dat Nvidia beter is omdat het duurder is maar telkens blijkt dat dus wel uit jouw posts, zie onderstreepte quotes boven. Uitgangspunt: 100 dollar is duurder dan 0 dollar !
.
Verder viel deze, in de negatieve zin, nogal op:
Dat is geen vraag. DX12 gaat gewoon vol over Mantle heen. Al was het maar omdat DX12 WEL door nVidia en Intel ondersteund wordt (en de Xbox One).
Dus omdat een progsel wellicht breder word ondersteund is het per definitie beter ?
Modbreak:Zo is het genoeg. Terug naar een normale manier van discussieren!

[ Voor 3% gewijzigd door Edmin op 19-11-2014 21:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 17:46:
[...]
We zitten hier op Tweakers en microstutter is hier gewoon een bekend begrip.
Het is dus niet nodig dat je dat even aan ons "Noobs" gaat "uitleggen".
Denk je nou echt dat we hier begrippen gaat gebruiken terwijl we geen idee hebben wat het is?
De aanpak van microstutter is gewoon onderdeel van freesync, ongeacht jouw foute mening.
Ik leg het uit omdat het dan duidelijk is dat vsync er niets mee te maken heeft. Sterker nog, als je geen extra maatregelen neemt, kan het probleem met G-Sync/FreeSync nog erger worden (GPUs kunnen een frame laten zien zodra het gerenderd is, wat sneller kan zijn dan de 60 Hz die nu gebruikelijk is, en waarbij microstutter al een probleem is).
Verwijderd schreef op woensdag 19 november 2014 @ 17:46:
Verder claim je geen standpunt in te nemen dat Nvidia beter is omdat het duurder is maar telkens blijkt dat dus wel uit jouw posts, zie onderstreepte quotes boven. Uitgangspunt: 100 dollar is duurder dan 0 dollar !
Ik heb het over technische argumenten, de prijs heeft daar niets mee te maken. Maar dat zei ik al.
Verwijderd schreef op woensdag 19 november 2014 @ 17:46:
Dus omdat een progsel wellicht breder word ondersteund is het per definitie beter ? :F :F :F :F :F :F
Doe je het weer. Net zoals ik hierboven nergens een link heb gelegd tussen prijs en techniek, heb ik hier nergens een link gelegd tussen de mate van ondersteuning en de kwaliteit.
Ik wil alleen maar aangeven dat DX12, ongeacht hoe goed het is, toch wel de standaard zal gaan worden.
Helaas kan ik je verder nog niet zo veel vertellen over DX12. Ik zit zelf in het early access program van Microsoft, maar dat is allemaal nog onder NDA.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat is dus nog maar de vraag. Als DX12 niet over Mantle heen gaat dan valt nog maar te bezien of het meteen een ingeburgerde standaard is.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 19 november 2014 @ 18:14:
Dat is dus nog maar de vraag. Als DX12 niet over Mantle heen gaat dan valt nog maar te bezien of het meteen een ingeburgerde standaard is.
Ik denk dat Mantle daar weinig mee te maken heeft.
De installed-base van GCN-kaarten is enorm klein (volgens Steam maar zo'n 14% van alle systemen).
Het gaat er meer om of DX12 beter is dan DX11 (want die twee richten zich op een veel grotere installed-base), en dat lijkt me vanzelfsprekend.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 19 november 2014 @ 11:37:
Wederom, technische argumenten:
Microstutter ontstaat wanneer je met 2 of meer GPUs rendert, en de frames zijn niet evenredig verdeeld over de tijd.
Het is ook mogelijk met 1 gpu, het valt dan alleen minder op. Als het verschil in framerate te groot is tussen bij een kleine interval dan heb je last van microstuttering.

De adoptie van DX12 zal zeker sneller gaan, maar alleen als het ook op (Vista,) Windows 7 en 8 beschikbaar is. Als het bijvoorbeeld alleen op Windows 8.1 of 10 komt dan kan je er van uit gaan dat het niet zo snel gaat lopen.
DirectX 12 is nu nog niet op de markt, Mantle daarentegen wel. Als die 14% klopt dan heeft Mantle dus al een potentiele userbase van meer dan 10 miljoen gebruikers (niet actieve steam gebruikers niet meegerekent).
Steam's active user base grows to 75 million over holiday 2013

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 18:53:
[...]
Het is ook mogelijk met 1 gpu, het valt dan alleen minder op.
Bij een enkele GPU komt het vrijwel niet voor, omdat opeenvolgende frames doorgaans vrijwel hetzelfde zijn qua load, en de framerate dus geleidelijk omhoog of omlaag gaat, en niet 2 frames heel snel achter elkaar, en dan een HEEL zwaar frame erna.
Ik vind persoonlijk dat de term 'microstutter' exclusief voor multi-GPU gebruikt dient te worden. Single-GPU stutter kan ook voorkomen, maar dat heeft dan een iets andere oorzaak, en zou dus een andere naam moeten hebben om verwarring te voorkomen.
Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 18:53:
De adoptie van DX12 zal zeker sneller gaan, maar alleen als het ook op (Vista,) Windows 7 en 8 beschikbaar is. Als het bijvoorbeeld alleen op Windows 8.1 of 10 komt dan kan je er van uit gaan dat het niet zo snel gaat lopen.
Ik denk dat dat wel meevalt. Windows 8 is gratis te upgraden naar Windows 8.1, dus dat zal het probleem niet zijn. En ik denk dat Windows 8.1 wel DX12 support gaat krijgen (danwel dat men gratis mag upgraden naar Windows 10).
Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 18:53:
DirectX 12 is nu nog niet op de markt, Mantle daarentegen wel. Als die 14% klopt dan heeft Mantle dus al een potentiele userbase van meer dan 10 miljoen gebruikers (niet actieve steam gebruikers niet meegerekent).
Mantle 'bestaat' nu een jaar (er is nog steeds geen documentatie of SDK gereleased voor onafhankelijke developers. Alleen studios die onder Gaming Evolved vallen, hebben toegang), maar de games die het gebruiken, zijn op 1 hand te tellen.
Ik denk niet dat Mantle ineens de wereld gaat veroveren in de komende maanden.
DX12 support is er al voor de Unreal Engine, onder andere.
Dus, zodra DX12 gelanceerd wordt, zijn er waarschijnlijk al meer games met support dan voor Mantle.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 18:53:
[...]


Het is ook mogelijk met 1 gpu, het valt dan alleen minder op. Als het verschil in framerate te groot is tussen bij een kleine interval dan heb je last van microstuttering.

De adoptie van DX12 zal zeker sneller gaan, maar alleen als het ook op (Vista,) Windows 7 en 8 beschikbaar is. Als het bijvoorbeeld alleen op Windows 8.1 of 10 komt dan kan je er van uit gaan dat het niet zo snel gaat lopen.
DirectX 12 is nu nog niet op de markt, Mantle daarentegen wel. Als die 14% klopt dan heeft Mantle dus al een potentiele userbase van meer dan 10 miljoen gebruikers (niet actieve steam gebruikers niet meegerekent).
Steam's active user base grows to 75 million over holiday 2013
windows 8.1 x64 zit al op 22% in de steam hardwaresurvey, ook nog 7% windows 8.0 x64.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als de geruchten kloppen is MS er heel veel aan gelegen dat iedereen zsm overstapt op W10 omdat dit OS ervoor moet zorgen dat ze wel op alle platformen (mobile, tablet en PC) doorbreken (wat jammerlijk mislukt is met de W8 draak). Zoveel dat ze zelfs het prijswapen fors willen inzetten (gratis upgrade voor W7/8 gebruikers ?)

Ik denk dat op die manier DX12 marktpenetratie veel harder kan gaan dan gedacht.
(Mantle is mooi en goed initiatief maar ik zie het niet snel voldoende grote developer userbase krijgen.)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op woensdag 19 november 2014 @ 19:51:
Ik denk dat op die manier DX12 marktpenetratie veel harder kan gaan dan gedacht.
(Mantle is mooi en goed initiatief maar ik zie het niet snel voldoende grote developer userbase krijgen.)
Ik kan als ontwikkelaar veel makkelijker toegang krijgen tot DX12 dan tot Mantle.
AMD komt een beetje vijandig over. Alleen de Gaming Evolved-partners hebben toegang. Wij kunnen wel toegang aanvragen, of docs, of wat dan ook... maar ik heb niet het gevoel dat we serieus genomen worden.
Destijds met OpenCL heb ik in de begintijd ook al niet al te beste ervaringen gehad met AMD. Ik werd zelfs geintimideerd met priveberichten op het Beyond3D-forum, toen ik ergens in een thread terloops een probleem met de beta-drivers noemde. Achteraf hebben ze alsnog die bug gefixt, en kreeg ik een soort van 'excuus'-bericht (wat volgens mij niet van dezelfde AMD-medewerker afkwam, maar iemand met wat meer communicatieve skills, omdat ze bij AMD wel zagen dat ze iets recht moesten zetten. Blijkbaar besefte die gast niet dat ik een AMD-klant en geregistreerd developer was).

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 16:27:
[...]


Dat zal vast gaan gebeuren. nVidia is erg pro-actief met het ondersteunen van standaarden.
Verwijderd schreef op woensdag 19 november 2014 @ 16:32:
[...]


Dat is geen vraag. DX12 gaat gewoon vol over Mantle heen. Al was het maar omdat DX12 WEL door nVidia en Intel ondersteund wordt (en de Xbox One).
Verwijderd schreef op woensdag 19 november 2014 @ 18:03:
[...]

Ik wil alleen maar aangeven dat DX12, ongeacht hoe goed het is, toch wel de standaard zal gaan worden.
Verwijderd schreef op woensdag 19 november 2014 @ 19:03:
[...]

Ik denk dat dat wel meevalt. Windows 8 is gratis te upgraden naar Windows 8.1, dus dat zal het probleem niet zijn. En ik denk dat Windows 8.1 wel DX12 support gaat krijgen (danwel dat men gratis mag upgraden naar Windows 10).

[...]

Ik denk niet dat Mantle ineens de wereld gaat veroveren in de komende maanden.
DX12 support is er al voor de Unreal Engine, onder andere.
Dus, zodra DX12 gelanceerd wordt, zijn er waarschijnlijk al meer games met support dan voor Mantle.
Je blijft constant AMD bekritiseren en ondertussen doe je bij ieder nadeel van Nvidia wat genoemd wordt de aanname dat ome Nvidia dat wel ff fixt, hetzelfde bij Microsoft/DX12. Allemaal leuk en aardig, maar zo simpel is het natuurlijk allemaal niet. Je hebt overduidelijk een sterke Nvidia voorkeur. Dat mag, maar beargumenteer e.e.a. dan tenminste fatsoenlijk i.p.v. domweg de aanname te doen dat het allemaal wel goed komt bij Nvidia en niet bij AMD.

Verwijderd schreef op woensdag 19 november 2014 @ 19:03:
[...]

Mantle 'bestaat' nu een jaar (er is nog steeds geen documentatie of SDK gereleased voor onafhankelijke developers. Alleen studios die onder Gaming Evolved vallen, hebben toegang), maar de games die het gebruiken, zijn op 1 hand te tellen.
Ik denk niet dat Mantle ineens de wereld gaat veroveren in de komende maanden.
Sinds wanneer is het vreemd dat een beta product niet zomaar vrij beschikbaar is? :? Die beta duurt m.i. toch wel erg lang inmiddels, maar dat is nog geen reden om net te doen alsof het geen beta meer is.

Verwijderd schreef op woensdag 19 november 2014 @ 20:21:
[...]


Ik kan als ontwikkelaar veel makkelijker toegang krijgen tot DX12 dan tot Mantle.
AMD komt een beetje vijandig over. Alleen de Gaming Evolved-partners hebben toegang. Wij kunnen wel toegang aanvragen, of docs, of wat dan ook... maar ik heb niet het gevoel dat we serieus genomen worden.
Destijds met OpenCL heb ik in de begintijd ook al niet al te beste ervaringen gehad met AMD. Ik werd zelfs geintimideerd met priveberichten op het Beyond3D-forum, toen ik ergens in een thread terloops een probleem met de beta-drivers noemde. Achteraf hebben ze alsnog die bug gefixt, en kreeg ik een soort van 'excuus'-bericht (wat volgens mij niet van dezelfde AMD-medewerker afkwam, maar iemand met wat meer communicatieve skills, omdat ze bij AMD wel zagen dat ze iets recht moesten zetten. Blijkbaar besefte die gast niet dat ik een AMD-klant en geregistreerd developer was).
[citation needed]

[ Voor 17% gewijzigd door Verwijderd op 19-11-2014 20:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 20:30:
Je blijft constant AMD bekritiseren en ondertussen doe je bij ieder nadeel van Nvidia wat genoemd wordt de aanname dat ome Nvidia dat wel ff fixt, hetzelfde bij Microsoft/DX12.
Zoals ik zeg, ik zit bij het DX12 early access program. Ik weet dus wat de stand van zaken is bij MS/DX12.
Verwijderd schreef op woensdag 19 november 2014 @ 20:30:Je hebt overduidelijk een sterke Nvidia voorkeur.
Helemaal niet. Mijn favoriete GPU-merk is Imagination Tech (PowerVR). Ik ontwikkel voornamelijk met Intel GPUs wat DX11/12 betreft.
Verwijderd schreef op woensdag 19 november 2014 @ 20:30:
Sinds wanneer is het vreemd dat een beta product niet zomaar vrij beschikbaar is? :? Die beta duurt m.i. toch wel erg lang inmiddels, maar dat is nog geen reden om net te doen alsof het geen beta meer is.
Een beta is een product dat in feite al klaar is, qua implementatie van functionele specs. Doorgaans is dit het moment dat men ook developers toegang geeft tot specs, documentatie, drivers, SDKs etc.
Bij Mantle is dit na ruim een jaar nog steeds niet het geval.
Dat is zeker vreemd te noemen ja, gezien al de bombarie die AMD rond Mantle maakte in de media.
http://scalibq.wordpress....0/meet-amds-mike-houston/

Acties:
  • 0 Henk 'm!

Verwijderd

Leuk hoor, dat early access program, maar het komt er op neer dat je van alles roept zonder argumenten en als ik je daar op aanspreek komt er een niet te verifiëren bron en mag je niks zeggen vanwege een NDA. Dat komt wel heel erg goed uit. Daarnaast zorgt het er voor dat er geen discussie mogelijk is. We moeten het blijkbaar maar van je aannemen...
Je eigen blog als bron gebruiken. :F

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 20:51:
Leuk hoor, dat early access program, maar het komt er op neer dat je van alles roept zonder argumenten en als ik je daar op aanspreek komt er een niet te verifiëren bron en mag je niks zeggen vanwege een NDA. Dat komt wel heel erg goed uit. Daarnaast zorgt het er voor dat er geen discussie mogelijk is. We moeten het blijkbaar maar van je aannemen...
Je moet helemaal niks.
Ik ben een zeer ervaren graphics developer, en ik wil best van alles bespreken. Het is aan jou hoe je daar mee omgaat. Ik zie jke geen vragen stellen, alleen beschuldigingen rondslingeren. Daardoor is er geen discussie.
In die blog staat een link naar de betreffende thread op Beyond3D.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tsja, op dat blog staan ook wel zeer gekleurde blogposts die niet met de werkelijkheid overeen komen. Dan kun je nog zoveel ervaring hebben als graphics developer, het verandert er niet door.

Enfin, Microsoft moet eerst maar bewijzen dat ze DX12 voor meer dan alleen Windows 10 beschikbaar willen stellen. DX11.2 is zelfs 'Windows 8.1 only', zoals DX10 Vista-only was. Ik heb dus weinig hoop. Verder zal Mantle binnenkort algemener beschikbaar komen.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op woensdag 19 november 2014 @ 21:12:
Tsja, op dat blog staan ook wel zeer gekleurde blogposts die niet met de werkelijkheid overeen komen.
Oh jawel hoor. Ik sta ervoor dat alles dat ik op mijn blog post waarheidsgetrouw is.
Waar doel je specifiek op? Ik wil best meer bewijs leveren als de informatie op mijn blog nog niet overtuigend genoeg voor je is.

In dit geval van OpenCL heb ik het probleem zowel bij Khronos als bij AMD destijds besproken op het forum:
http://devgurus.amd.com/message/1041331
https://www.khronos.org/m...ng-conventions-AMD-nVidia

Let ook op dat ook nVidia het niet goed gedaan bleek te hebben, toen eenmaal duidelijk werd wat de standaard precies zou moeten zijn.
Maar, zoals je aan de reactie van Simon Green ziet, was nVidia een stuk vriendelijker en behulpzamer dan Mike Houston van AMD.
100% naar waarheid dus.

[ Voor 39% gewijzigd door Verwijderd op 19-11-2014 21:33 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

scalibq schreef op woensdag 19 november 2014 @ 19:03:
[...]


Bij een enkele GPU komt het vrijwel niet voor, omdat opeenvolgende frames doorgaans vrijwel hetzelfde zijn qua load, en de framerate dus geleidelijk omhoog of omlaag gaat, en niet 2 frames heel snel achter elkaar, en dan een HEEL zwaar frame erna.
Ik vind persoonlijk dat de term 'microstutter' exclusief voor multi-GPU gebruikt dient te worden. Single-GPU stutter kan ook voorkomen, maar dat heeft dan een iets andere oorzaak, en zou dus een andere naam moeten hebben om verwarring te voorkomen.
Ik snap niet hoe dit kan uitleggen waarom er geen microstutter is met één GPU, maar wel met twee. Hoe kan dat, is het geleidelijke karakter van frame-pacing ineens onbestaande vanaf dat er maar één van elke twee frames gerenderd moet worden door een bepaalde GPU?

Acties:
  • 0 Henk 'm!

Verwijderd

DevilsProphet schreef op woensdag 19 november 2014 @ 22:28:
Ik snap niet hoe dit kan uitleggen waarom er geen microstutter is met één GPU, maar wel met twee. Hoe kan dat, is het geleidelijke karakter van frame-pacing ineens onbestaande vanaf dat er maar één van elke twee frames gerenderd moet worden door een bepaalde GPU?
Je moet het als volgt zien...
Het renderen van een frame vanuit de game engine gezien komt neer op het doen van calls naar de API, meer niet.
Die API calls prepareren dan een buffer met commando's, die de driver 'op de achtergrond' naar de GPU stuurt.
De game engine hoeft dus bij de API calls niet te wachten totdat de GPU ze heeft uitgevoerd. Het is een soort fire-and-forget. Alleen in speciale gevallen zal de driver/API synchroniseren met de GPU.

Wat er bij 2 GPUs gebeurt is 'alternate frame rendering'. De game engine ziet nog steeds maar 1 API met daarachter 1 driver en GPU.
Maar de driver heeft nu voor iedere GPU een eigen buffer, die na ieder frame omgewisseld worden.
De game engine rendert dus frame 1 naar de buffer voor de eerste GPU, en dan frame 2 naar de buffer voor de tweede GPU.
Hierbij hoeft de API/driver/engine dus niet te wachten totdat de eerste GPU alles verwerkt heeft, want de tweede is daar totaal niet van afhankelijk.
In het geval dat de game-logic vrij simpel is, is de game-engine dus vrij snel klaar met het vullen van de buffer, en dus start ie vrij snel na het eerste frame aan het tweede frame.
Maar dat eerste frame moet nog wel gerenderd worden. En dat hangt af van hoe snel de GPU is, en hoe zwaar de render-opdrachten (hele hoge resolutie, veel/grote textures, lange shader-programma's etc).
Het kan dus zijn dat het heel lang duurt voordat de GPU klaar is met dat frame, en de game-engine voor het derde frame weer naar de buffer van de eerste GPU kan sturen.

Kortom, de GPUs starten vrij snel na elkaar aan een frame, en dus zijn ze ook vrij snel na elkaar klaar met dat frame. Maar het renderen van dat frame duurt vrij lang.

Als je maar 1 GPU hebt, kan dit dus niet voorkomen, omdat je maar 1 frame tegelijk kunt doen (als je 2 frames achter elkaar rendert, die min of meer even zwaar zijn, kan het dus per definitie niet zo zijn dat een frame ineens veel sneller rendert dan het andere).

[ Voor 3% gewijzigd door Verwijderd op 19-11-2014 22:53 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Afijn 16 posts van scaliqb verder (NB een derde van zijn totale forum posts) over hoe geweldig Nvidia/MS en Intel wel niet zijn vwb Sync etc. ,gecombineerd met een zogenaamd zelfs "vijandig" AMD is wel duidelijk dat dit geen gewone posts meer zijn maar hier een of ander knipdoel achter zit.

Hint voor scaliqb: Dit is het AMD forum, compleet ongefundeerde kritiek op AMD valt hier slechter dan elders.

@Edit hieronder: Ik wil je verder niet aanmoedigen, er staat inmiddels genoeg onzin zonder onderbouwing.
Kleine illustratie: AMD zou zelfs vijandig zijn. Dit word echt nergens onderbouwd of aangetoond.

[ Voor 22% gewijzigd door Edmin op 20-11-2014 08:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 november 2014 @ 22:49:
Hint voor scaliqb: Dit is het AMD forum, compleet ongefundeerde kritiek op AMD valt hier slechter dan elders.
Ik onderbouw alles met technische achtergrondinformatie, links en dergelijke. Van 'compleet ongefundeerde kritiek' is hier absoluut geen sprake.
Als je meer wil weten over iets, vraag het gerust. Ik sta overal voor open.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 19 november 2014 @ 21:29:
[...]


Oh jawel hoor. Ik sta ervoor dat alles dat ik op mijn blog post waarheidsgetrouw is.
Waar doel je specifiek op? Ik wil best meer bewijs leveren als de informatie op mijn blog nog niet overtuigend genoeg voor je is.

In dit geval van OpenCL heb ik het probleem zowel bij Khronos als bij AMD destijds besproken op het forum:
http://devgurus.amd.com/message/1041331
https://www.khronos.org/m...ng-conventions-AMD-nVidia

Let ook op dat ook nVidia het niet goed gedaan bleek te hebben, toen eenmaal duidelijk werd wat de standaard precies zou moeten zijn.
Maar, zoals je aan de reactie van Simon Green ziet, was nVidia een stuk vriendelijker en behulpzamer dan Mike Houston van AMD.
100% naar waarheid dus.
Ik vind zijn reactie niet onvriendelijk. Vind het zelfs netjes dat hij het zo vriendelijk houdt aangezien jouw reacties eerder overkomen als onvriendelijk.
Scali Oct 8, 2009 8:30 AM (in response to omkaranathan)
I just noticed this problem aswell.

First question that leaps to mind: What were you thinking!?

Why do you use cdecl? The standard convention for Windows is stdcall. If you took a moment to study OpenGL and OpenAL, you will see that they both use stdcall on Windows aswell. The obvious choice for OpenCL therefore should also be stdcall.

nVidia uses stdcall, but because you for some incomprehensible reason didn't go with the common standard, your SDK is now binary incompatible with nVidia's.

I also find it very strange that Khronos didn't pick this up during conformance testing. They should have noticed right away that nVidia's and your SDKs were using different calling conventions, and they'd never play nice on a binary level.

I really don't think that Khronos will decide in your favour when they will standardize the calling convention, because it seems obvious that you'd want OpenGL, OpenAL and OpenCL to all be consistent. So you might aswell change it now, and give us developers a break. You've held up OpenCL long enough already.
Je zal misschien wel gelijk hebben, maar je verwoording helpt je niet echt.
Zoals duidelijk wordt in beide threads, is dat de naming convention nog niet goed is vastgelegd. Het is dus niet raar dat ze het beide anders doen, of het de intentie was om het express anders te doen is niet duidelijk.

http://scalibq.wordpress....0/meet-amds-mike-houston/
Ook hier vind ik je vijandig overkomen (of misschien eerder gefrustreerd).

Overigens deze post is niet als aanval bedoelt, maar het enige wat ik zie is dat Mike Houston enigzins ontwijkend antwoord en dat jij daar gefrustreerd op reageert. Ik ken het hele verhaal natuurlijk niet maar het lijkt erop alsof hij of niet meer informatie mag geven of ze bij AMD gewoon niet de mankracht hebben om het allemaal in een keer te fixen. Het is vaker gebleken (kan helaas de bron niet vinden) dat AMD gewoon minder mensen heeft werken aan zulke projecten omdat ze te weinig mensen hebben.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik vind de post ook wel wat beschuldigend overgekomen. Ik kan me voorstellen dat mensen dan ook minder gemotiveerd zijn om je te helpen. Dit had ook op een nettere manier gezegd kunnen worden. Al snap ik dat dit soort issues uitermate vervelend zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Sp3ci3s8472 schreef op donderdag 20 november 2014 @ 00:28:
[...]
Ik vind zijn reactie niet onvriendelijk.
Ik vond zijn priveberichten onvriendelijk (sowieso het feit dat hij ongevraagd op een niet-AMD-forum mij gaat bestoken met PMs in de trant van "Hoezo problemen? Alles werkt prima bij ons! Het ligt aan jou!".
Dat ik daarna zelf minder vriendelijk tegenover hem sta, lijkt me logisch.
Sp3ci3s8472 schreef op donderdag 20 november 2014 @ 00:28:
Zoals duidelijk wordt in beide threads, is dat de naming convention nog niet goed is vastgelegd.
Ja, dat werd duidelijk doordat oa ik daar tegenaan liep, en dat gemeld heb.
Als dan een AMD dev tegen mij mooi weer gaat lopen spelen van "Er zijn geen problemen!", terwijl ik die zelf heb gemeld (of anderen het heb zie melden op hun forum), dan vind ik dat niet getuigen van respect naar hun developers toe.
Het lijkt mij dat hij niet besefte dat ik zelf een registered developer bij AMD was, en een van de mensen die dus OpenCL aan het beta-testen was, en bugs rapporteerde. En dat bij hun de normale gang van zaken dus is om gewoon bugs te ontkennen en mensen voor te liegen.
Wat ze dus sowieso al heel erg deden met betrekking tot OpenCL, zoals je ook op andere blogposts van mij kunt lezen, bv deze: https://scalibq.wordpress...eeds-to-work-on-their-pr/

AMD was in die tijd enorm OpenCL aan het promoten, en nVidia zwart aan het maken vanwege het 'gesloten' CUDA (dat overigens sinds een tijd gewoon open is, hoor je niemand over: https://research.nvidia.c...ler-open-source-community).
Feit was dat nVidia al veel eerder een werkende OpenCL-driver had dan AMD, en dat de eerste OpenCL drivers van AMD wel in de 'Stream SDK' voor Radeon GPUs zaten, maar alleen CPUs ondersteunden.
Ook DirectCompute werd eerder ondersteund door nVidia dan door AMD.
Het duurde bij AMD ook heel lang voordat er eindelijk een OpenCL runtime voor eindgebruikers was. Tot die tijd moest je maar de SDK installeren als je OpenCL support wilde.
Maar als je de marketing van AMD moest geloven, dan had nVidia helemaal geen ondersteuning voor die standaarden, en AMD wel. Sterker nog, AMD deed je bijna geloven dat ze het hadden uitgevonden.

Verwijderd

Het "onderbouwen" van statements met een link naar eigen blog met info uit 2009 over de H5770 zegt genoeg.
Kortzichtigheid & een totaal gebrek aan onderbouwing zijn daar overigens troef, net als hier op tweakers.
Daar dus ook veel onjuistheden, aannames, van horen zeggen, hand picked/tricked test results etc.

NB OpenCL werkte gewoon perfect vanaf de eerste introductie in 2009 op de AMD HD5770 icm BTC.
Nvidia Mining was toen niet eens een optie, werkte gewoon helemaal niet.

[ Voor 23% gewijzigd door Verwijderd op 20-11-2014 09:20 ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 09:14:
Het "onderbouwen" van statements met een link naar eigen blog met info uit 2009 over de H5770 zegt genoeg.
Een blog die linkt naar de betreffende thread (en naar andere gerelateerde blogposts, die op zich ook weer linken naar de betreffende info), die nog steeds leesbaar is, bedoel je?
Verder heb ik ook andere dingen gepost, en gelinkt naar info over G-Sync bv.
Misschien moet je stoppen met mensen onterecht zwart maken.
Verwijderd schreef op donderdag 20 november 2014 @ 09:14:
NB OpenCL werkte gewoon perfect vanaf de eerste introductie in 2009 op de AMD HD5770 icm BTC.
Pertinent onwaar.
Zoals ik in mijn blog noem:
For completeness however, I’d like to report that AMD finally released an OpenCL runtime for end-users with Catalyst 10.11, in November of 2010.
Zoek maar na. Catyst 10.10 en eerder hebben GEEN OpenCL-component meegeleverd. Je moest toen nog de SDK installeren, wat dus voor eindgebruikers geen optie is (deze pagina uit 2010 noemt dat ook: http://www.newslobster.co...e-for-bitcoins-on-windows).
Dus nee, OpenCL werkte niet 'gewoon perfect' vanaf de introductie in 2009.

[ Voor 42% gewijzigd door Verwijderd op 20-11-2014 09:34 ]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op donderdag 20 november 2014 @ 09:11:
Ik vond zijn priveberichten onvriendelijk (sowieso het feit dat hij ongevraagd op een niet-AMD-forum mij gaat bestoken met PMs in de trant van "Hoezo problemen? Alles werkt prima bij ons! Het ligt aan jou!".
Dat ik daarna zelf minder vriendelijk tegenover hem sta, lijkt me logisch.
Tsja, als je claims en statements maakt op een publiek toegankelijk forum, dan loop je het risico om PM's te krijgen over je claims en statements. En wat is onvriendelijk? Iets kan al door iemand als onvriendelijk ervaren worden, als puntsgewijs aan wordt getoond dat een gemaakte claim dus niet helemaal correct is.


Enfin, ik heb in het verleden wel eens wat blogposts van je gelezen, omdat ze hier of daar eens gelinkt werden. Deel was compleet incorrect en de algemene toon is nooit bepaald vriendelijk geweest richting AMD. Maar goed, dat is ook een keuze en een stijl natuurlijk.

Verwijderd

dahakon schreef op donderdag 20 november 2014 @ 09:28:
[...]
Tsja, als je claims en statements maakt op een publiek toegankelijk forum, dan loop je het risico om PM's te krijgen over je claims en statements. En wat is onvriendelijk? Iets kan al door iemand als onvriendelijk ervaren worden, als puntsgewijs aan wordt getoond dat een gemaakte claim dus niet helemaal correct is.
Waar gaat dit heen, mensen?
Mijn claims waren WEL helemaal correct, zoals hij ook later moest toegeven.
dahakon schreef op donderdag 20 november 2014 @ 09:28:
Deel was compleet incorrect en de algemene toon is nooit bepaald vriendelijk geweest richting AMD.
Ik heb een hekel aan valse beschuldigingen.
Zoals ik zeg, ik sta ervoor dat alles in mijn blogs en posts waarheidsgetrouw is.
Dus, wat is volgens jou 'compleet incorrect'? Ik weet zeker dat dat niet zo is, en ik wil dan ook graag de kans om te verdedigen wat ik zeg. Maar daarvoor moet je dus wel aangeven waar je het over hebt. Anders kan ik niet anders concluderen dan dat jij me vals beschuldigt.

Het mooiste voorbeeld is wel Bulldozer. Ik riep ruim een jaar voor de introductie al dat bepaalde claims van oa John Fruehe nooit waarheid konden zijn, gezien de kenmerken van de architectuur. Ik heb zeer gedetailleerd bepaalde bottlenecks in de architectuur beschreven. Mensen verklaarden me voor leugenaar, gek, en weet-ik-wat... Maar toen Bulldozer uitkwam bleek ALLES dat ik had gezegd tot op de letter te kloppen. Sterker nog, de uiteindelijke performance viel nog iets lager uit dan dat ik verwachtte. Kun je allemaal nog steeds nalezen.

Verder is de toon gezet door AMD. Als je jarenlang hun hardware koopt, en als registered developer met ze probeert samen te werken aan nieuwe technologie, en keer op keer geschoffeerd of voorgelogen wordt, dan is het op een gegeven moment ook wel klaar.

Maar, als je mijn blog eens wat minder selectief zou lezen, ontdek je ook wel posts die kritisch zijn over bv Intel, nVidia, Microsoft of Apple. Ik ben gewoon kritisch op alle bedrijven, al spant AMD helaas wel de kroon wat betreft hun minachting naar ontwikkelaars en klanten.

[ Voor 21% gewijzigd door Verwijderd op 20-11-2014 09:43 ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 09:26:
[...]
Een blog die linkt naar de betreffende thread (en naar andere gerelateerde blogposts, die op zich ook weer linken naar de betreffende info), die nog steeds leesbaar is, bedoel je?
Verder heb ik ook andere dingen gepost, en gelinkt naar info over G-Sync bv.
Misschien moet je stoppen met mensen onterecht zwart maken.
Vriend, ik maak jou dus nergens zwart, dat zit alleen bij jou tussen de oren.
Die lange tenen van jou is wel een telkens terugkomend thema, iedereen zou jou "aanvallen".
Zowel hier op tweakers als op je eigen misinformatieBlog zie ik daar geen enkel voorbeeld van.
Ik zeg alleen dat je info totaal niet klopt. Koop eens een Van Dale en zoek op wat zwartmaken is.
[...]
Pertinent onwaar.
Zoals ik in mijn blog noem:
[...]
Zoek maar na. Catyst 10.10 en eerder hebben GEEN OpenCL-component meegeleverd. Je moest toen nog de SDK installeren, wat dus voor eindgebruikers geen optie is (deze pagina uit 2010 noemt dat ook: http://www.newslobster.co...e-for-bitcoins-on-windows).
Dus nee, OpenCL werkte niet 'gewoon perfect' vanaf de introductie in 2009.
BTC werkte op AMD GPU's gewoon perfect in 2009. Wat in jouw blog staat klopt systematisch niet.

Ook is deze hele OpenCL discussie net zo relevant voor FreeSync als de discussie over <+:)

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 09:47:
[...]

Vriend, ik maak jou dus nergens zwart, dat zit alleen bij jou tussen de oren.
Uhhh, een aantal posts geleden moest er zelfs iets weggeknipt worden dat jij beweerde over een doel dat achter mijn posts zou zitten.
Er wordt overigens ook beweerd dat ik niet onderbouw dat AMD 'vijandig' zou zijn? Dat heb ik duidelijk wel gedaan: namelijk het ontkennen door Mike Houston van AMD van bugs in OpenCL die door mij gemeld zijn aan AMD/Khronos (ik heb zelfs de forumposts gelinkt waarin je het letterlijk kunt teruglezen).
Dat ervaar ik als vijandig.
Verwijderd schreef op donderdag 20 november 2014 @ 09:47:
Ik zeg alleen dat je info totaal niet klopt. Koop eens een Van Dale en zoek op wat zwartmaken is.
Zeggen dat iets niet klopt, zonder te zeggen WAT er niet klopt, of waarom (en dat nu al meerdere keren achter elkaar), dat is zwartmaken.
Nogmaals, geef aan waar je problemen mee hebt, dan kunnen we daar over discussieren, daar sta ik voor open.
Maar hier kan ik niets mee. Dit is alleen op de man spelen zo. Ik wil graag een technische discussie openen.
Verwijderd schreef op donderdag 20 november 2014 @ 09:47:
BTC werkte op AMD GPU's gewoon perfect in 2009. Wat in jouw blog staat klopt systematisch niet.
Ik geef exact aan wat de eerste driver is met OpenCL support, en die is niet uit 2009. Ik link zelfs naar een blog die dat probleem ook aanstipt.
Wat JIJ zegt klopt dus niet. Wat ik zeg is makkelijk te verifieren, ik geef zelf al aan hoe.

[ Voor 21% gewijzigd door Verwijderd op 20-11-2014 10:00 ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 09:52:
[...]
Uhhh, een aantal posts geleden moest er zelfs iets weggeknipt worden dat jij beweerde over een doel dat achter mijn posts zou zitten.
Er wordt overigens ook beweerd dat ik niet onderbouw dat AMD 'vijandig' zou zijn? Dat heb ik duidelijk wel gedaan: namelijk het ontkennen door Mike Houston van AMD van bugs in OpenCL die door mij gemeld zijn aan AMD/Khronos (ik heb zelfs de forumposts gelinkt waarin je het letterlijk kunt teruglezen).
Dat ervaar ik als vijandig.
[...]
Zeggen dat iets niet klopt, zonder te zeggen WAT er niet klopt, of waarom, dat is zwartmaken.
[...]
Ik geef exact aan wat de eerste driver is met OpenCL support, en die is niet uit 2009. Ik link zelfs naar een blog die dat probleem ook aanstipt.
Wat JIJ zegt klopt dus niet. Wat ik zeg is makkelijk te verifieren, ik geef zelf al aan hoe.
Je hebt volgens mij echt geen flauw idee wat zwartmaken/vijandigheid/aanvallen etc. betekend ?
Iemand zwart maken is uitspraken doen tav de persoon oftewel op de man spelen.
Een fictief voorbeeld zou zijn wanneer iemand onterecht zou zeggen over een ander crimineel te zijn.
(De knip ging overigens over belangen en niet over de persoon)

Het gaat hier echter om de info die je overal en nergens aan koppeld zonder relevant of correct te zijn.

Dat jij letterlijk interpreteerd dat een uitspraak van een AMD medewerker "vijandig" is wanneer hij niet bekend is met een door jou als "feit" bestempeld probleem zegt eigenlijk alles.

Dus iedereen die het niet met jou eens is interpreteer jij als een "vijand" :?
Die houding is vrij actueel in het midden oosten.
Wellicht moet trm0001 alvast zandzakken voor de deur gaan plaatsen :+

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 15:23

Edmin

Crew Council

get on my horse!

Modbreak:Ik heb nu een aantal mensen middels een modbreak en middels PM aangesproken op hun stijl van discussieren. Voor de duidelijkheid leg ik hier de regels nog eens vast:
  • Iedere mening is hier welkom, niet alleen de mening die sommigen het beste bevalt
  • Die mening verdient onderbouwing. Een stelling of bewering moet onderbouwd worden
  • Reageren op een stelling doen we ook met argumenten
  • Ad hominems zijn PER DEFINITIE ongewenst
  • Uiteindelijk zullen we elkaar niet altijd kunnen overtuigen. Agree to disagree
  • OVertredingen van deze regels leiden uiteindelijk tot tijdelijke uitsluiting van deelname
Voor vragen staat mijn DM open, maar ik ben een beetje klaar met de toon hier.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 10:08:
[...]
Iemand zwart maken is uitspraken doen tav de persoon oftewel op de man spelen.
Zoals beweren dat ik betaald zou worden om hier bepaalde dingen te posten, bedoel je?
Verwijderd schreef op donderdag 20 november 2014 @ 10:08:
Het gaat hier echter om de info die je overal en nergens aan koppeld zonder relevant of correct te zijn.
Nogmaals: open daar dan een discussie over!
Geef aan wat jij vindt dat niet klopt, dan kan ik daar inhoudelijk op reageren.

Al ben ik bang dat dat weinig nut heeft, want hierboven beweer je (zonder enige onderbouwing) dat OpenCL al sinds 2009 perfect werkt op Radeons, en dat hou je vol, zelfs NADAT ik exact de eerste driver noem met OpenCL-ondersteuning (Catalyst 10.11 dus, november 2010).

Dus:
1) Ik koppel wel degelijk relevante en correcte info aan mijn uitspraken
2) Jij negeert dat compleet.

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op donderdag 20 november 2014 @ 09:38:
[...]

Maar, als je mijn blog eens wat minder selectief zou lezen, ontdek je ook wel posts die kritisch zijn over bv Intel, nVidia, Microsoft of Apple. Ik ben gewoon kritisch op alle bedrijven, al spant AMD helaas wel de kroon wat betreft hun minachting naar ontwikkelaars en klanten.
Je hebt frustraties : ok maar die komen heel duidelijk naar voor (heb even op je blog bekeken en de anti AMD gevoelens zijn heel duidlijk )en wees dan niet verbaasd dat mensen dit zeggen.

AMD is een bedrijf geen idee wat je ervan verwacht maar andere bedrijven zijn echt niet anders hoor.

Je vraagt het jezelf af "waar gaat dit heen?" en idd waar gaat deze discussie heen? Beter ermee te stoppen .

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 10:14:
[...]
Zoals beweren dat ik betaald zou worden om hier bepaalde dingen te posten, bedoel je?
Ik heb nooit beweerd dat jij betaald zou worden voor posts.

Inmiddels is wel gebleken uit jouw latere posts dat je een hekel hebt gekregen aan AMD.
Dat gevoel komt bij mij en een aantal andere deelnemers in dit draadje iig duidelijk over.
.
Nogmaals: open daar dan een discussie over!
Geef aan wat jij vindt dat niet klopt, dan kan ik daar inhoudelijk op reageren.
Nee dank je.
.
Al ben ik bang dat dat weinig nut heeft, want hierboven beweer je (zonder enige onderbouwing) dat OpenCL al sinds 2009 perfect werkt op Radeons, en dat hou je vol, zelfs NADAT ik exact de eerste driver noem met OpenCL-ondersteuning (Catalyst 10.11 dus, november 2010).

Dus:
1) Ik koppel wel degelijk relevante en correcte info aan mijn uitspraken
2) Jij negeert dat compleet.
Wat jij dan weer niet weet is dat ik in 2009 en 2010 gemined heb de HD5770 en later met de HD5870.
Daar was destijds geen driver voor nodig van AMD die dat ingebakken had. Dat is dus praktijkervaring.
1 BTC deed toen nog centen en dubbeltjes....... :P

Verwijderd

k995 schreef op donderdag 20 november 2014 @ 10:36:
[...]
Je hebt frustraties : ok maar die komen heel duidelijk naar voor (heb even op je blog bekeken en de anti AMD gevoelens zijn heel duidlijk )en wees dan niet verbaasd dat mensen dit zeggen.
Dat is niet het punt.
Het punt is dat het niet zozeer 'anti-AMD gevoelens' zijn. Het is gebaseerd op structureel gedrag van AMD devrel en marketing door de jaren heen (en kom op zeg... na dat gedoe met John Fruehe weet iedereen toch wel een beetje hoe ver dit kan gaan bij AMD? Doe nou niet alsof je van niets weet, en alsof ik dit allemaal zelf verzin).
k995 schreef op donderdag 20 november 2014 @ 10:36:
AMD is een bedrijf geen idee wat je ervan verwacht maar andere bedrijven zijn echt niet anders hoor.
Zoals ik al zeg, ik ben net zo kritisch op andere bedrijven, zoals je op mijn blog ook kunt lezen.

Maarja, als ik bv een driver-bug rapporteer aan AMD (heel specifiek, als developer, aangeven in welke DLL het probleem zit, welke code etc), dan krijg ik in eerste instantie een random Indier die me vertelt dat ik m'n drivers opnieuw moet installeren en misschien m'n PSU moet checken...
Doe ik dat bij nVidia, dan is het meteen van "Oh, ja, we hebben gekeken, en hebben het probleem kunnen reproduceren. In een komende driver zullen we een fix publiceren".

Dat is echt HEEL anders. Bij nVidia word ik meestal gewoon serieus genomen. Bij AMD is het altijd een gevecht.
Ik heb wel een keer meegemaakt dat nVidia in eerste instantie ook een bug ontkende, en ik ook de 'standaad-Indier'-reply kreeg (aan de andere kant, in dit geval kon ik zelf ook niet duidelijk aangeven waar de bug nou in zat): https://scalibq.wordpress...on-geforce-400500-series/
Maar toen ik me met de discussie begon te bemoeien, begon nVidia het probleem toch wat serieuzer te nemen. Het probleem was namelijk heel subtiel, en deed zich alleen op bepaalde kaarten voor (vermoedelijk alleen factory-overclocked kaarten, dus met aangepaste firmware, waar nVidia vast niet mee getest had).
Uiteindelijk vroeg nVidia zelfs of mensen met het probleem hun kaart wilden opsturen. Een aantal mensen heeft dit gedaan. En het probleem is na maanden dan toch gevonden en gefixt (ook al waren die kaarten toen al een jaar of 3-4 oud, en al EOL). Toch best netjes.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 10:46:
[...]
Ik heb nooit beweerd dat jij betaald zou worden voor posts.
Jawel, dat is nu alleen eruit ge-edit. Maar de moderator die dat gedaan heeft, kan vast bevestigen dat dat er in eerste instantie stond. Er zullen vast ook andere forumgebruikers zijn geweest die het hebben gelezen.
Verwijderd schreef op donderdag 20 november 2014 @ 10:46:
Inmiddels is wel gebleken uit jouw latere posts dat je een hekel hebt gekregen aan AMD.
Dat gevoel komt bij mij en een aantal andere deelnemers in dit draadje iig duidelijk over.
'Hekel' is een groot woord.
Verwijderd schreef op donderdag 20 november 2014 @ 10:46:
Wat jij dan weer niet weet is dat ik in 2009 en 2010 gemined heb de HD5770 en later met de HD5870.
Daar was destijds geen driver voor nodig van AMD die dat ingebakken had. Dat is dus praktijkervaring.
1 BTC deed toen nog centen en dubbeltjes....... :P
Dit noemt men 'anecdotal evidence', en is niet heel betrouwbaar.
Wat ik zeg is feitelijk te controleren: Download de 10.11 driver, extract de installer, en zie dat de OpenCL DLLs erin zitten.
Download eerdere drivers, en zie dat dezelfde DLLs ontbreken (maar zoals gezegd, via de SDK waren die eventueel wel te verkrijgen. Dus ik spreek niet tegen dat het wel mogelijk was om OpenCL te draaien, dat deed ik zelf immers ook. Maar dan wel met moeilijk verkrijgbare DLLs met de nodige bugs. Dus jouw bewering dat het probleemloos was, gaat zeker niet op).

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 10:49:
....."Zoals ik al zeg, ik ben net zo kritisch op andere bedrijven, zoals je op mijn blog ook kunt lezen......"
Dat klopt dus aantoonbaar niet met je blog en je posts hier & zelfs niet met de verdere (te lange) tekst.

Op zich drama ofzo en je hebt er zelfs recht op om AMD te "disliken" maar het zorgt wel voor wrijving.
Wanneer je je daar volgens je eigen uitspraken door aangevallen voelt maak je het groter dan het is.
Het gaat slechts om het inhoudelijk niet met elkaar eens zijn. (dus ook van AMD in jouw richting)

EDIT Nav hierboven: Er heeft nooit gestaan dat jij betaald werd om hier te posten. Ook niet ge-edit dus.

[ Voor 7% gewijzigd door Verwijderd op 20-11-2014 11:02 ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 10:59:
[...]
Dat klopt dus aantoonbaar niet met je blog en je posts hier
Je maakt hier de fout dat jij ervanuitgaat dat AMD en andere bedrijven zich allemaal hetzelfde gedragen.
Dat is niet het geval.
AMD heeft zich in veel meer gevallen dubieus gedragen.
Zoals ik al zeg: beste voorbeeld is John Fruehe, die gedurende een periode van ongeveer een jaar mensen structureel heeft voorgelogen op allerlei fora. Noem 1 ander bedrijf die ooit zoiets gedaan heeft? Ik heb het nooit meegemaakt in ieder geval. Anders zou ik net zo kritisch zijn op dat bedrijf.

Tessellation is een dergelijk verhaal... AMD heeft de mensen structureel voorgelogen en wijsgemaakt dat het om de grootte van de triangles ging, ipv de werkelijke bottleneck: amplification factor.
Beyond3D heeft dat onafhankelijk van mij aangetoond in een serie benchmarks waarbij triangles van verschillende grootte met en zonder tessellation werden gerenderd.
Het enige dat daarbij in de buurt komt is destijds nVidia met de GeForce FX, waarbij de PS2.0-implementatie absoluut niet deugde. En ook daar ben ik extreem kritisch over geweest destijds (ik gebruikte zelf destijds natuurlijk een Radeon 9600XT... Al staarde ik me natuurlijk niet blind op die kaart. Er bleek een off-by-one error in de alphablending te zitten... Helaas kan ik de oorspronkelijke thread op Beyond3D niet meer vinden, maar nog wel een verwijzing ernaar: http://www.anandtech.com/...&sortType=0&currentPage=1). Maargoed, dat is nog van voor de tijd dat ik een blog had. Je kunt vast nog wel forumposts erover vinden van mij.

Klopt dus allemaal aantoonbaar.

[ Voor 10% gewijzigd door Verwijderd op 20-11-2014 11:15 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tja dat soort praktijken zijn sowieso nooit goed. Ik houd totaal niet van marketing spins
AMD, Intel en nVidia zijn vaak veel te druk bezig met elkaar zwart maken. Heel zonde want het voegt niets toe.

Daarnaast hebben alle benoemde bedrijven dingen gedaan die niet netjes zijn.

nVidia heeft zo ook z'n dingen verkeerd gedaan. Je noemde zelf de PS2.0 implementatie al maar wat recenter was de nep Fermi kaart die ze toen lieten zien. Misschien iets minder erg dan wat jij noemde over die tesselation problemen maar het is ook voorliegen.

Heb je trouwens een link over dat Tesselation verhaal? dat wil ik wel eens lezen.
nVidia had gewoon een goede Tesselation implementatie. Die schaalde gewoon zeer goed. AMD bleef in dat opzich een beetje bij een oud principe hangen. Daarnaast zat er in de R9 290 sowieso iets niet lekker als je de tesselation performance ziet tov de 7970 had hij veel sneller moeten zijn gezien de hardware. Dit is in de R9 285 gelukkig opgelost.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 11:06:
[...]
Je maakt hier de fout dat jij ervanuitgaat dat AMD en andere bedrijven zich allemaal hetzelfde gedragen.
Naar mijn bescheiden mening maak ik weinig fouten en ben ik al helemaal niet van mening dat alle bedrijven zich hetzelfde gedragen, dat zeg ik ook nergens. Integendeel zelfs, breek me de bek niet open over Intel :X

Verder valt het mij iig op dat je telkens over een ander onderwerp begint. Zelf ervaar ik dat als "lastig".
Ook je suggestie om oudere posts van jou nog eens te bekijken leg ik even naast me neer. O-)

[ Voor 19% gewijzigd door Verwijderd op 20-11-2014 11:37 ]


Verwijderd

Astennu schreef op donderdag 20 november 2014 @ 11:17:
Daarnaast hebben alle benoemde bedrijven dingen gedaan die niet netjes zijn.
Zoals ik zeg, ik spreek ieder bedrijf aan op onethische praktijken, verdraaien van de waarheid etc.
Astennu schreef op donderdag 20 november 2014 @ 11:17:
maar wat recenter was de nep Fermi kaart die ze toen lieten zien. Misschien iets minder erg dan wat jij noemde over die tesselation problemen maar het is ook voorliegen.
Als je bekend bent in de industrie, dan weet je dat 9 van de 10 keer een nieuw product gewoon een 'mockup' is.
Dat mensen erover vallen bij nVidia is een beetje jammer. Zegt meer over die mensen dan over nVidia.
Zelfs in de jaren 80 deed men dit al. Een mooi voorbeeld is de Commodore Amiga (een van m'n favoriete computers).
Het prototype 'Lorraine' was een stel aan elkaar geknoopte printplaten:
http://dickestel.com/images/vintage10.jpg

Dat zag er natuurlijk niet uit, dus die hadden ze bij een presentatie ergens onder een tafel verborgen, en een lege kast neergezet.
De Amiga zou er zo gaan uitzien, maar hij was nog niet af.
Hier in een review zie je dit staan:
http://www.atarimagazines...iga_Lorraine_finally_.php
Lorraine is small, handsome, and has a keyboard much like that of the TI Professional--in a word, delicious.
Het is duidelijk dat de reviewer niet de 'echte' Lorraine heeft gezien, want 'small and handsome'... niet echt :)

Ook bij Apple zal niet iedere iPhone, iPod, iPad etc die Steve Jobs in z'n handen heeft gehad ook echt het product zijn geweest zoals je die uiteindelijk kocht.

Maar echt 'voorliegen' vind ik wat ver gaan. Ze laten zien hoe een product gaat worden. Dat het op het moment van de introductie misschien nog niet helemaal uit de prototype-fase is, vind ik niet zo erg.
Astennu schreef op donderdag 20 november 2014 @ 11:17:
Heb je trouwens een link over dat Tesselation verhaal? dat wil ik wel eens lezen.
Dit is de blog die verwijst naar Beyond3D:
https://scalibq.wordpress...from-an-unexpected-place/
Voor die tijd had ik zelf al een aantal blogs gedaan waarbij ik uitlegde dat het niet klopte. Maar deze onafhankelijke test die precies hetzelfde liet zien, en nog veel uitgebreider, kwam me erg goed uit :)

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op donderdag 20 november 2014 @ 10:49:


Dat is niet het punt.
Het punt is dat het niet zozeer 'anti-AMD gevoelens' zijn. Het is gebaseerd op structureel gedrag van AMD devrel en marketing door de jaren heen (en kom op zeg... na dat gedoe met John Fruehe weet iedereen toch wel een beetje hoe ver dit kan gaan bij AMD? Doe nou niet alsof je van niets weet, en alsof ik dit allemaal zelf verzin).
Dat is wel het punt, dit is het AMD nieuws topic en jij probeert weeral met iemand in discussie te gaan over hoe slecht een bedrijf AMD wel is en hoe iedereen dit weet met voorbeelden uit het verleden die dit al dan niet zouden bewijzen.

Wat heeft dat als nieuwswaarde in dit topic? Juist.


Nogmaals je kan zeer duidelijk AMD niet uitstaan, ok jouw goed recht maar ik herhaal alle bedrijven zijn zo niet nodig topics te vullen proberen dat aan andere te bewijzen of hier een rangschikking te willen maken van meest / minst etische bedrijf .
Zoals ik al zeg, ik ben net zo kritisch op andere bedrijven, zoals je op mijn blog ook kunt lezen.
Ik heb maar enkele posts gelezen/overgekeken maar Nvidia leek me heel positief afgeschilderd te worden, AMD heel slecht . Je geeft hier zelf aan dat AMD je zwaar teleurgesteld tot zelfs vijandig behandeld heeft. het lijkt me dan normaal dat je daar een afkeer van krijgt. Trek je conclusies daaruit zou ik zeggen schrijf dat op je blog vermeld het in een discussie maar pagina's lang daarover doorgaan is echt niet nodig .

[ Voor 3% gewijzigd door k995 op 20-11-2014 12:43 ]


Verwijderd

k995 schreef op donderdag 20 november 2014 @ 12:40:
[...]
jij probeert weeral met iemand in discussie te gaan over hoe slecht een bedrijf AMD wel is en hoe iedereen dit weet met voorbeelden uit het verleden die dit al dan niet zouden bewijzen.
Het kan aan mij liggen hoor, maar ik ben hier niet gekomen om over het verleden van AMD te beginnen.
Ik reageerde alleen op G-Sync vs FreeSync: Verwijderd in "[Algemeen] AMD nieuwsdiscussie topic - deel 34"
Zonder daarbij iets te zeggen over AMD als bedrijf of wat dan ook.
Daarna komt er een anti-nVidia reactie van trm0001, over hoe erg het toch is dat nVidia geld vraagt voor hun oplossing, waar ik probeer het iets te nuanceren...
Vervolgens gaat trm0001 compleet los, en moet een moderator zelfs een aantal keren ingrijpen.
k995 schreef op donderdag 20 november 2014 @ 12:40:
Ik heb maar enkele posts gelezen/overgekeken maar Nvidia leek me heel positief afgeschilderd te worden
Dat kan toch? nVidia is de laatste tijd toch goed bezig?
Werken nauw samen met Microsoft aan DX12, waren de eersten met OpenCL support, doen nog steeds veel werk voor OpenGL etc. G-Sync was ook hun idee (ja, het had mooier geweest als ze er geen geld voor zouden vragen, maarja, het blijft een commercieel bedrijf).
Ook dit kan toch gewoon?
De dingen die ik genoemd heb (John Fruehe, Richard Huddy over tessellation, Mike Houston over OpenCL) zijn gewoon gebeurd, en waren niet echt positief te noemen.
k995 schreef op donderdag 20 november 2014 @ 12:40:
Trek je conclusies daaruit zou ik zeggen schrijf dat op je blog vermeld het in een discussie maar pagina's lang daarover doorgaan is echt niet nodig .
Lees de discussie nog eens na: ik was niet degene die er eindeloos over doorging. Ik probeerde de discussie technisch inhoudelijk te houden (oa uitleg van G-Sync en microstutter).
Ik denk dat een aantal mensen hier ZEER selectief aan het lezen is. En 'het is hier het AMD nieuwstopic' vind ik niet echt een goed excuus daarvoor. Het lijkt me de bedoeling dat we het hier over AMD-gerelateerd nieuws hebben, zoals FreeSync. En NIET dat we hier AMD gaan verheerlijken, en dat je iets als FreeSync niet mag vergelijken met een directe concurrent als G-Sync, omdat dat toevallig niet van AMD is, maar van nVidia.

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

k995 schreef op donderdag 20 november 2014 @ 12:40:
[...]

Dat is wel het punt, dit is het AMD nieuws topic en jij probeert weeral met iemand in discussie te gaan over hoe slecht een bedrijf AMD wel is en hoe iedereen dit weet met voorbeelden uit het verleden die dit al dan niet zouden bewijzen.

Wat heeft dat als nieuwswaarde in dit topic? Juist.
Dit is nog altijd het "AMD nieuwsdiscussie topic. En daarin moet ook ruimte zijn om de wat minder positieve kanten van AMD te bespreken.
Nogmaals je kan zeer duidelijk AMD niet uitstaan, ok jouw goed recht maar ik herhaal alle bedrijven zijn zo niet nodig topics te vullen proberen dat aan andere te bewijzen of hier een rangschikking te willen maken van meest / minst etische bedrijf .


[...]

Ik heb maar enkele posts gelezen/overgekeken maar Nvidia leek me heel positief afgeschilderd te worden, AMD heel slecht . Je geeft hier zelf aan dat AMD je zwaar teleurgesteld tot zelfs vijandig behandeld heeft. het lijkt me dan normaal dat je daar een afkeer van krijgt. Trek je conclusies daaruit zou ik zeggen schrijf dat op je blog vermeld het in een discussie maar pagina's lang daarover doorgaan is echt niet nodig .
Zelfs al zou Scalibq een hekel aan AMD hebben, tot nu toe beargumenteerd hij zijn posts tenminste, met objectieve feiten. De reacties die hij tot nu toe van een aantal users heeft ontvangen waren voornamlijk fanboy reacties met een strekking als "AMD is goed, nVidia is evil, hou je mond over AMD in het AMD topic"...

@ Scalibq

Als "onafhankelijke" lezer (geen voorkeur voor nVidia of AMD) vind ik je posts zeer leerzaam en interessant en blijf vooral zo doorgaan. Mooi om te zien dat iemand met ervaring en kennis post in dit soort topics, zodat een discussie ook een beetje inhoud krijgt met technische argumentatie i.p.v. alleen maar (gekleurde) meningen. :)

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 20-09 20:43
https://www.youtube.com/watch?v=I6zX2IqBI7A

Hopen dat Carrizo wel eens in een degelijke laptop verschijnt (met Azerty :X ) zodat ik er eentje kan kopen. Kaveri is eigenlijk totaal afwezig momenteel.

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
Dit is nog altijd het "AMD nieuwsdiscussie topic. En daarin moet ook ruimte zijn om de wat minder positieve kanten van AMD te bespreken.

......

Zelfs al zou Scalibq een hekel aan AMD hebben, tot nu toe beargumenteerd hij zijn posts tenminste, met objectieve feiten. De reacties die hij tot nu toe van een aantal users heeft ontvangen waren voornamlijk fanboy reacties met een strekking als "AMD is goed, nVidia is evil, hou je mond over AMD in het AMD topic"...
Als je naar het begin van de discussie kijtk heb je helemaal gelijk. Scalibq beargumenteerd waarom hij vind dat G-sync op papier beter is zonder daar conclusies over de praktijk aan te verbinden. Helaas is de discussie daarna volledig ontspoort in een discussie over de ethiek van AMD; een zinloze discussie lijkt me. Dit komt helaas door de de koppigheid van meerdere tweakers waardoor de reacties van kwaad naar erger liepen. Een objectieve waarheid is er natuurlijk niet in deze. Ik ben iig blij dat de moderator hier af en toe meekijkt :P
Lambo LP670 SV schreef op donderdag 20 november 2014 @ 17:22:
https://www.youtube.com/watch?v=I6zX2IqBI7A

Hopen dat Carrizo wel eens in een degelijke laptop verschijnt (met Azerty :X ) zodat ik er eentje kan kopen. Kaveri is eigenlijk totaal afwezig momenteel.
Een prima nieuw onderwerp om op over te stappen! Verder vroeg ik mij af of er uitgebreide reviews van de 860K te vinden zijn of dat ik het maar met benchmakrs van de 7850K moet doen

[ Voor 51% gewijzigd door paulklooster op 20-11-2014 19:25 . Reden: Te vroeg op verstuur gedrukt! ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 13:05:
[...]
Het kan aan mij liggen hoor, maar ik ben hier niet gekomen om over het verleden van AMD te beginnen.
Ik reageerde alleen op G-Sync vs FreeSync: Verwijderd in "[Algemeen] AMD nieuwsdiscussie topic - deel 34"
Zonder daarbij iets te zeggen over AMD als bedrijf of wat dan ook.
Daarna komt er een anti-nVidia reactie van trm0001, over hoe erg het toch is dat nVidia geld vraagt voor hun oplossing, waar ik probeer het iets te nuanceren...
Vervolgens gaat trm0001 compleet los, en moet een moderator zelfs een aantal keren ingrijpen.
De modbreak had o.a betrekking op de toon van de discussie waar je wederom met opmerkingen dat ik helemaal los zou gaan (bewust ?) geen gehoor aan geeft. Ik denk in alle bescheidenheid niet dat ik degene ben die helemaal los gaat, zie daarvoor jouw 27 *knip, troll* posts over Sync.
N.B. jij reageerde op mij ipv andersom zoals je nu onterecht doet voorkomen. Zie de quote van mij in jouw eerste Sync post.
Lees de discussie nog eens na: ik was niet degene die er eindeloos over doorging. Ik probeerde de discussie technisch inhoudelijk te houden (oa uitleg van G-Sync en microstutter).
Ik denk dat een aantal mensen hier ZEER selectief aan het lezen is. En 'het is hier het AMD nieuwstopic' vind ik niet echt een goed excuus daarvoor. Het lijkt me de bedoeling dat we het hier over AMD-gerelateerd nieuws hebben, zoals FreeSync. En NIET dat we hier AMD gaan verheerlijken, en dat je iets als FreeSync niet mag vergelijken met een directe concurrent als G-Sync, omdat dat toevallig niet van AMD is, maar van nVidia.
27 systematisch sterk gekleurde anti-AMD posts van jou verder durf ik het tegendeel te beweren.
Ik denk dat je zelf juist ZEER selectief bent in datgene wat je hier nogal schreeuwerig post.
N.B. je post van 11:38 gaat zelfs helemaal niet meer over AMD.

Back on AMD FreeSync topic:
http://www.amd.com/en-us/...hnologies-gaming/freesync
http://www.amd.com/Documents/FreeSync-Whitepaper.pdf
nieuws: AMD kondigt laptop-gpu's en alternatief voor G-sync aan

knip/plak foto uit de AMD pdf:
Afbeeldingslocatie: http://tweakers.net/ext/f/XjompTl9NMHD2AWIIuE61OMt/full.jpg

Het linkje waarin AMD aangaf dat Freesync ook microstutter (2 GPU's) aanpakt is nog steeds dood.

@Lambo: Carrizo zou pas halverwege volgend jaar beschikbaar moeten komen:
nieuws: AMD onthult Carrizo-apu

[ Voor 0% gewijzigd door Edmin op 21-11-2014 09:20 ]


Verwijderd

Ik kan er nog steeds niets anders van maken dan dat AMD constant de framerate bijregelt, wat dus niet hetzelfde zou zijn als wat G-Sync doet: frame sturen, monitor in vblank laten 'hangen' totdat de GPU het volgende frame triggert op een willekeurig moment.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 20:06:
Ik kan er nog steeds niets anders van maken dan dat AMD constant de framerate bijregelt, wat dus niet hetzelfde zou zijn als wat G-Sync doet: frame sturen, monitor in vblank laten 'hangen' totdat de GPU het volgende frame triggert op een willekeurig moment.
Beweerd iemand hier dan dat de AMD aanpak gelijk is aan die van Nvidia ?

Verwijderd

Deze persoon beweert dat ja:
Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 14:10:
Lees anders de reacties van Werelds als je wilt weten hoe gsync en freesync werken:
Werelds in "CJ's Radeon Info & Nieuwsdiscussie ..."
Werelds in "CJ's Radeon Info & Nieuwsdiscussie ..."

Veel beter dan dat kan het niet worden uitgelegd :P.

TLDR:
Op papier zijn de technieken identiek.

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
Verwijderd schreef op donderdag 20 november 2014 @ 20:08:
[...]

Beweerd iemand hier dan dat de AMD aanpak gelijk is aan die van Nvidia ?
Volgens mij loopt de discussie mank omdat jij beweert dat het doel hetzelfde is (correct) terwijl Scalibq beweert dat het middel anders is (ook correct). Scalibq beweert tevens dat Nvidia's middel ook technisch beter is om het gestelde doel te berijken. Wat de praktijk brengt moeten we zien als de monitors verschijnen. Zullen we weggaan van de G/freesync discussie?

Verwijderd

@scaliqb:
Hij heeft het over de werking en theorie erachter. (zou kunnen kloppen maar is niet belangrijk)
Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software.
paulklooster schreef op donderdag 20 november 2014 @ 20:12:
[...]
Volgens mij loopt de discussie mank omdat jij beweert dat het doel hetzelfde is (correct) terwijl Scalibq beweert dat het middel anders is (ook correct). Scalibq beweert tevens dat Nvidia's middel ook technisch beter is om het gestelde doel te berijken. Wat de praktijk brengt moeten we zien als de monitors verschijnen. Zullen we weggaan van de G/freesync discussie?
Wat mij betreft liever gisteren dan vandaag.

@hieronder:
De nodige AMD hardware bestaat alleen uit standaard niet specifieke hardware zonder (extra) licentie.
(Nvidia vereist kostbare vendor specific licentie hardware)

[ Voor 10% gewijzigd door Verwijderd op 20-11-2014 20:25 ]


Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 20:16:
@scaliqb:
Hij heeft het over de werking en theorie erachter. (zou kunnen kloppen maar is niet belangrijk)
Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software.
Beide oplossingen hebben zowel nieuwe hardware als software nodig om te kunnen werken.
De nodige AMD hardware bestaat alleen uit standaard niet specifieke hardware zonder (extra) licentie.
(Nvidia vereist kostbare vendor specific licentie hardware)
Hoe moet ik jouw bewering dan lezen?
"Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software."
Bedoel je dus dat "standaard niet specifieke hardware zonder (extra) licentie" geen hardwarematige oplossing is?

[ Voor 34% gewijzigd door Verwijderd op 20-11-2014 21:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 20:18:
[...]
Beide oplossingen hebben zowel nieuwe hardware als software nodig om te kunnen werken.
[...]
Hoe moet ik jouw bewering dan lezen?
"Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software."
Bedoel je dus dat "standaard niet specifieke hardware zonder (extra) licentie" geen hardwarematige oplossing is?
Iedere werkende PC vereist idd (standaard) samenwerkende hardware & software.

*knip, troll*

AMD heeft voor Freesync genoeg aan standaard nu uitkomende moderne hardware & software.
Nvidia vereist dedicated licentie hardware en software waarvoor fors extra moet worden betaald.

Je kan hier alles nog eens nalezen over FreeSync:
http://support.amd.com/en...s/Pages/freesync-faq.aspx

Alles over Sync is inmiddels meerdere keren uitgebreid besproken, verdere vragen naar de bekende weg beginnen een vrij hoge dram factor te krijgen naar mijn smaak.......

Paulklooster schrijft dit niet voor niets:
Zullen we weggaan van de G/freesync discussie?
Hoogste tijd voor een ander onderwerp dus.
Wil je toch nog verder discussieren over Sync. dan zul je iemand anders moeten vinden.....

[ Voor 1% gewijzigd door Edmin op 21-11-2014 09:19 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Er zijn zeker nog geen benchmarks van Carrizo? Ben erg benieuwd hoe de Excavators het doet, die verhalen hier gepost over die energie efficiëntie klinken erg goed.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 21 november 2014 @ 03:14:
[...]
AMD heeft voor Freesync genoeg aan standaard nu uitkomende moderne hardware & software.
Dat is mijn punt: je moet sowieso nieuwe hardware hebben.
Daarom snap ik niet wat je bedoelt met: "Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software."
Dat klinkt eerder als: "Even een firmware-update in je monitor schieten, en je hebt FreeSync", je hebt immers geen 'hardwarematige oplossing' nodig?
Dat is dus niet waar, want ook voor FreeSync heb je een monitor nodig met een speciale hardware-scaler die de nieuwste DisplayPort-standaard ondersteunt.
Verwijderd schreef op vrijdag 21 november 2014 @ 03:14:
Nvidia vereist dedicated licentie hardware en software waarvoor fors extra moet worden betaald.
Ja, en?
Je mag toch zelf bepalen of je het de extra kosten waard vindt of niet?
nVidia denkt blijkbaar dat er genoeg mensen zijn die graag dit bedrag voor deze feature betalen. Of ze dat goed hebben ingeschat of niet, dat zullen we wel merken. Hoe dan ook, wat er ook gebeurt, jij bepaalt zelf wat je koopt, dus ik snap niet waar je je druk om maakt.
Je blijft steeds maar hameren op die prijs/licentie. Ik snap je punt niet.

[ Voor 19% gewijzigd door Verwijderd op 21-11-2014 09:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

SpankmasterC schreef op vrijdag 21 november 2014 @ 09:18:
Er zijn zeker nog geen benchmarks van Carrizo? Ben erg benieuwd hoe de Excavators het doet, die verhalen hier gepost over die energie efficiëntie klinken erg goed.
Hands-on reviews zullen nog wel even op zich laten wachten aangezien het nog ruim een half jaar duurt voordat ze voor het eerst verkrijgbaar zullen zijn. De voortuitzichten qua efficiency zijn prima.

Meer info hier:
http://www.anandtech.com/...next-gen-apus-for-h1-2015

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op vrijdag 21 november 2014 @ 09:30:
[...]


Dat is mijn punt: je moet sowieso nieuwe hardware hebben.
Daarom snap ik niet wat je bedoelt met: "Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software."
Dat klinkt eerder als: "Even een firmware-update in je monitor schieten, en je hebt FreeSync", je hebt immers geen 'hardwarematige oplossing' nodig?
Dat is dus niet waar, want ook voor FreeSync heb je een monitor nodig met een speciale hardware-scaler die de nieuwste DisplayPort-standaard ondersteunt.
Theoretisch heb je het niet nodig, AMD maakt gebruik van een functie in eDP1.0 (embedded displayport) wat als sinds 2008 bestaat, veel scherm controllers ondersteunen eDP1.0 al. (Maar het komt meer voor in laptops dan desktop schermen)
Het zit in eDP omdat het eigenlijk is bedoeld als energy besparende functionaliteit.

Theoretisch is het gewoon een firmware update die de functionaliteit uit eDP1.0 ondersteund, die functionaliteit is nu ook opgenomen in DP1.3 en dat maakt het een verkooppunt voor fabrikanten om je te laten denken dat je nieuwe hardware nodig hebt. (En natuurlijk gaan ze geen support geven op oude displays daar krijgen ze geen geld meer voor)

Maar om FreeSync te ontwikkelen gebruikte AMD dit scherm dat gewoon DP1.2 heeft: http://www.amazon.com/Nix...40-NX-VUE27/dp/B008M08SN6
Voor dit scherm zou zelfs een firmware update beschikbaar komen, maar of dat ook echt gaat gebeuren moeten we nog zien.

Acties:
  • 0 Henk 'm!

  • Gkirmathal
  • Registratie: November 2002
  • Laatst online: 26-07 17:51
Post niet vaak. Maar gezien ik een vervanging aan het zoeken ben voor mn X5460 (die nogal degraded blijkt), ben ik druk bezig met reviews vinden van de 860K en deze zijn nogal schaars zo blijkt.

Nu ben ik er een tegen gekomen die zeer uitgebreid is en wilde deze even delen omdat ik deze nog niet hier heb langs zien komen. Ps even door google translate halen tenzij je Pools begrijpt ;)
http://pclab.pl/art60391.html

AMD Ryzen 5700x, MSI B450 Tomahawk MAX, 2x16Gb G.Skill Ripjaws V F4-3600C16D-32GVKC, Sapphire RX 6700 XT, Seasonic EVO-II 750W


Acties:
  • 0 Henk 'm!

Verwijderd

De 860K bij OC3D:
http://www.overclock3d.ne...lack_edition_cpu_review/1

Franse review:
http://www.overclockingma...on-x4-860k-black-edition/

Nog een 860K review in een nog lastiger taaltje dan pools:
http://www.pcpop.com/doc/1/1039/1039026_all.shtml

cpu-world data:
http://www.cpu-world.com/...lon%20II%20X4%20860K.html

Discussie draadje over de 860K:
http://forums.anandtech.com/showthread.php?t=2400839

cpu mark score:
http://www.cpubenchmark.n...X4+860K+Quad+Core&id=2362

[ Voor 21% gewijzigd door Verwijderd op 21-11-2014 12:52 ]


Acties:
  • 0 Henk 'm!

  • Gkirmathal
  • Registratie: November 2002
  • Laatst online: 26-07 17:51
TRM, dat draadje is idd erg interessant.
Heb er nog een waar ook wat meer info in staat mbt bv de VRM's die op verschillende FM2 mobo's gebruikt worden en oc mogelijkheden van de chip.
http://www.overclock.net/...60k-any-one-picking-it-up

De benchmarks die online zijn geven een lastig beeld de 860K presteert vs. IMO.
Komt denk ik met name omdat ze benchen tegen de G3258 en 750K en wat oudere generatie hardware achterwege laten (dat laatste heeft mijn interesse omdat ik zelf van die oudere generatie wil overstappen)

AMD Ryzen 5700x, MSI B450 Tomahawk MAX, 2x16Gb G.Skill Ripjaws V F4-3600C16D-32GVKC, Sapphire RX 6700 XT, Seasonic EVO-II 750W


Acties:
  • 0 Henk 'm!

Verwijderd

Geen van de CPU's / APU's in deze prijsklasse gaat wonderen verrichten voor zware Games maar ze zijn allemaal goed genoeg voor Casual midrange Gamen en alle actuele desktop taken.

Ben je op zoek naar meer Grafische kracht dan loont een APU meer dan een budget vga kaartje combi.

De 860K is sneller dan de G3258 maar kost ook wat meer.
(snelheid & kostprijs zijn hier onderling netjes in verhouding)

Overigens is op dit moment niet de prijs van CPU's een probleem maar veel meer de geheugen kostprijs.

[ Voor 3% gewijzigd door Verwijderd op 21-11-2014 13:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op vrijdag 21 november 2014 @ 12:06:
[...]
veel scherm controllers ondersteunen eDP1.0 al. (Maar het komt meer voor in laptops dan desktop schermen)
*Als* je zo'n scherm met controller zou hebben ja, en *als* je daarvan de firmware zou kunnen updaten...
Maar zoals je zelf al zegt, dat komt bij desktop-schermen niet zo heel veel voor.
In de meeste gevallen moet je dus gewoon een nieuwe monitor kopen met support ervoor.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Het komt er gewoon op neer dat de oplossing van nVidia puurder is in de ogen van ingenieurs, terwijl de manier van AMD meer als een hack omschreven kan worden; bepaalde bestaande functionaliteit gebruiken voor een andere opzet dan oorspronkelijk bedoeld, edoch daarom ook goedkoper en vrijer.

Soit, mij kan enkel schelen hoe het resultaat zal zijn, niet hoe ze tot dat resultaat komen. Toch als ik de afweging moet maken waar ik mijn geld aan wil geven. Dat het minder interessant is, dat laat ik volledig terzijde.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik ben op zich voor de technisch mooiste en beste oplossing mits de extra kosten binnen de perken blijven en het open is.
Het is te hopen dat de AMD oplossing minimaal vrijwel net zo goed is, anders breekt de spreekwoordelijke pleuris uit alsmede verdeeldheid.

*Erg* benieuwd naar de eerste side by side comparison.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 21 november 2014 @ 09:30:
[...]


Dat is mijn punt: je moet sowieso nieuwe hardware hebben.
Daarom snap ik niet wat je bedoelt met: "Iedereen beseft hier dat een hardware matige oplossing nooit helemaal gelijk kan zijn aan software."
Dat klinkt eerder als: "Even een firmware-update in je monitor schieten, en je hebt FreeSync", je hebt immers geen 'hardwarematige oplossing' nodig?
Dat is dus niet waar, want ook voor FreeSync heb je een monitor nodig met een speciale hardware-scaler die de nieuwste DisplayPort-standaard ondersteunt.

[...]


Ja, en?
Je mag toch zelf bepalen of je het de extra kosten waard vindt of niet?
nVidia denkt blijkbaar dat er genoeg mensen zijn die graag dit bedrag voor deze feature betalen. Of ze dat goed hebben ingeschat of niet, dat zullen we wel merken. Hoe dan ook, wat er ook gebeurt, jij bepaalt zelf wat je koopt, dus ik snap niet waar je je druk om maakt.
Je blijft steeds maar hameren op die prijs/licentie. Ik snap je punt niet.
Je hebt gelijk maar als ik naar mijn zelf kijk heb ik al iets van 20 videokaarten aan dit Dell scherm gegangen. Ik koop mijn schermen wel om er jaren mee te doen. Videokaarten worden hier vervangen zodra er iets snellers komt.

Nu doet intel nog niet echt mee de prestaties zijn daar voor te laag. Maar ik zie het eventueel nog wel gebeuren dat nVidia ook FreeSync ondersteunt. Op dat moment zijn FreeSync schermen een betere investering. Het zou mij ook niet verbazen als intel het gaat ondersteunen maar daar heb ik persoonlijk niets aan omdat die GPU's toch te traag zijn voor wat ik er mee doe.

Blijf je toch altijd bij nVidia maakt het inderdaad helemaal niets uit om voor GSync te gaan. Maar als je wel regelmatig van merk wisselt kan het in de toekomst uit gaan maken. Natuurlijk is het nog niet zeker dat nVidia het gaat ondersteunen.

Maar het is makkelijker voor nVidia om FreeSync te gaan ondersteunen dan voor AMD om GSync toe te voegen. Ik vraag me af of nVidia daar ooit aan gaat beginnen om dat vrij te geven.

Maar op dit moment maakt het inderdaad weinig uit. En heb je voor beide nieuwe hardware nodig.
SpankmasterC schreef op vrijdag 21 november 2014 @ 09:18:
Er zijn zeker nog geen benchmarks van Carrizo? Ben erg benieuwd hoe de Excavators het doet, die verhalen hier gepost over die energie efficiëntie klinken erg goed.
Daar ben ik ook heel benieuwd naar. Wat Anandtech toen de tijd over de architectuur heeft gepost is het een grote stap vooruit. Mogelijk wordt het gat met Intel dan iets kleiner.

Het is wel de vraag hoe dit gaat uitpakken. Maar wat ze allemaal aangepast hebben is in ieder geval goed.

Het belangrijkste voor ons wordt de helemaal nieuwe architectuur waar AMD mee bezig is. Als die dan niet met Intel kan concurreren is het denk ik wel voorbij en hebben vooral wij als consument een groot probleem want dan komt een Monopolie positie voor Intel op het gebied van X86 heel dichtbij.

Je ziet nu al dat AMD focus verschuift naar andere segmenten zoals ARM Server SOC's. Ze hebben het geld ook gewoon niet om zo veel onderzoek te doen als Intel. Dus het is maar de vraag of we ooit goede tijden gaan krijgen zoals met de K7 en K8 waar AMD gewoon met intel mee kon komen / intel kon verslaan. Ik vrees zelf van niet maar hoop het wel van harte want voor de concurrentie zou het veel beter zijn.

Voor de prijzen en de snelheid waarmee nieuwe processors ontwikkeld worden zou het ook veel beter zijn.

[ Voor 24% gewijzigd door Astennu op 25-11-2014 11:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 25 november 2014 @ 11:40:
[...]
Nu doet intel nog niet echt mee de prestaties zijn daar voor te laag. Maar ik zie het eventueel nog wel gebeuren dat nVidia ook FreeSync ondersteunt. Op dat moment zijn FreeSync schermen een betere investering.
Het kan ook de andere kant op gaan: nVidia kan waarschijnlijk met een simpele firmware-update ook support voor adaptive sync volgens de DisplayPort-standaard ondersteunen met hun G-Sync module.
Op dat moment heb je dus de keus tussen FreeSync of FreeSync+G-Sync.
Waarbij FreeSync+G-Sync de betere investering is?

Acties:
  • 0 Henk 'm!

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
Verwijderd schreef op dinsdag 25 november 2014 @ 11:49:
[...]


Het kan ook de andere kant op gaan: nVidia kan waarschijnlijk met een simpele firmware-update ook support voor adaptive sync volgens de DisplayPort-standaard ondersteunen met hun G-Sync module.
Op dat moment heb je dus de keus tussen FreeSync of FreeSync+G-Sync.
Waarbij FreeSync+G-Sync de betere investering is?
Dat is dan de vraag; dat hangt wederom af van het praktische verschil tussen G- en Freesync. Het is inderdaad een voordeel als de monitor zowel AMD als Nvidia ondersteunt. Het kan echter ook dat consumenten liever de 50-100 euro besparen en dat investeren in een betere (AMD) videokaart

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik meen ergens gelezen te hebben dat GTX9xx kaarten van nVidia al Freesync ondersteunen, ik kan het alleen niet meer terug vinden...

Als dat zo is dan gaat FreeSync een hele hoge vlucht nemen denk ik. Ik heb nu GTX970 SLI en een G-Sync monitor (ja ik weet het wat doe ik in dit topic) en ondanks dat de monitor 750,- euro was heb ik er geen minuut spijt van. Zo heerlijk gamet dat.

Als FreeSync net zo goed werkt (wat ik wel verwacht) dan gaat elke zichzelf respecterende gamer dat willen!

Op dat moment gaan de prijzen vanzelf dalen omdat door de hoge vraag steeds meer monitors het gaan ondersteunen. Ik vermoed dat G-Sync op dat moment een langzame dood gaat sterven.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

paulklooster schreef op dinsdag 25 november 2014 @ 12:46:
[...]
Dat is dan de vraag; dat hangt wederom af van het praktische verschil tussen G- en Freesync. Het is inderdaad een voordeel als de monitor zowel AMD als Nvidia ondersteunt. Het kan echter ook dat consumenten liever de 50-100 euro besparen en dat investeren in een betere (AMD) videokaart
Dan ga je ervanuit dat de monitoren gelijkwaardig zijn.
Maar stel dat de high-end (gaming) monitoren allemaal G-Sync gaan ondersteunen (misschien is die nVidia scaler ook wel veel beter dan random Chinese meukscalers die op papier dan wel DisplayPort doen), en de non-G-Sync monitors allemaal lelijke budget-TNs zijn?

Of... dat je denkt: "Die 50-100 euro meer voor een monitor is geen probleem, daar ga ik toch vele jaren mee doen. Mocht ik bij m'n volgende upgrade nVidia nemen, dan heb ik toch mooi G-Sync".

[ Voor 6% gewijzigd door Verwijderd op 25-11-2014 14:15 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Ik ben niet bekend met de Samsung lineup van schermen maar 4k schermen klinken mij niet als erg low-end.
In maart 2015 krijgt Samsungs UD590-lijn van 23,6"- en 28"-modellen FreeSync-ondersteuning, samen met de UE850-modellen met diagonalen van 23,6", 27" en 31,5". Uiteindelijk moeten alle uhd-beeldschermen van Samsung AMD's standaard ondersteunen. Dat maakten AMD en Samsung bekend tijdens AMD's Future of Compute-evenement in Singapore.
Zijn er al monitoren met G-Sync en een ips pannel? In de pricewatch zie ik alleen TN pannels. Volgens mij hadden een aantal fabrikanten geen zin om de "inferieure" scalar van Nvidia te gebruiken in plaats van hun eigen.
Mocht ik bij m'n volgende upgrade nVidia nemen, dan heb ik toch mooi G-Sync".
Beetje krom wat je zegt, dat geldt dus ook voor Freesync monitoren. Mocht ik bij m'n volgende upgrade AMD nemen, dan heb ik toch mooi Freesync.
Helaas moeten we dan in beide gevallen ook ons beeldscherm een upgrade geven indien we er nu een hebben zonder een van deze technologien. Persoonlijk wacht ik wel totdat er fatsoenlijke IPS schermen zijn met Freesync voordat ik weer een upgrade doe. Ik hoef geen crappy TN pannel, dat had ik hiervoor en het is een wereld van verschil.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik snap de haat die mensen hebben niet tegen TN panelen.

Sure, er zijn veel slechte TN panelen op de markt, maar het 8-bit TN paneel wat in mijn huidige monitor zit doet nauwelijks onder voor de Full HD 27" IPS die ik daarvoor had qua kleuren.

Het enige wat deze echt als nadeel heeft is de slechtere kijkhoek, en dan nog in veel mindere mate dan sommige andere TN's die je ziet.

Wat mij betreft is de keuze, zeker voor gaming een no-brainer. Het grappige is namelijk dat je ogen wennen aan kleurintensiteit, maar niet aan tearing, dat blijft storen. IPS Panelen zijn domweg niet snel genoeg voor 144Hz, dus zit je met TN opgescheept.

Ik kan je zeggen, ik ben nog niemand tegen gekomen die dat storend vind aan mijn monitor. Ik krijg veel vaker "wouw" reacties dan niet.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op dinsdag 25 november 2014 @ 11:49:
[...]


Het kan ook de andere kant op gaan: nVidia kan waarschijnlijk met een simpele firmware-update ook support voor adaptive sync volgens de DisplayPort-standaard ondersteunen met hun G-Sync module.
Op dat moment heb je dus de keus tussen FreeSync of FreeSync+G-Sync.
Waarbij FreeSync+G-Sync de betere investering is?
ALS nVidia dat zou doen wel ja. Al vermoed ik dat ze dan eerst willen dat AMD en Intel licentie geld gaan betalen voordat ze ondersteuing in de drivers mogen toevoegen. Zie ook SLi support.

Maar als je met een AMD of Intel GPU ook de Gsync monitoren zou kunnen gebruiken met FreeSync is dat inderdaad een goede optie. Maar dit is iets wat ik niet snel zie gebeuren al zou ik het wel toejuigen.
Wolf schreef op dinsdag 25 november 2014 @ 13:45:
Ik meen ergens gelezen te hebben dat GTX9xx kaarten van nVidia al Freesync ondersteunen, ik kan het alleen niet meer terug vinden...

Als dat zo is dan gaat FreeSync een hele hoge vlucht nemen denk ik. Ik heb nu GTX970 SLI en een G-Sync monitor (ja ik weet het wat doe ik in dit topic) en ondanks dat de monitor 750,- euro was heb ik er geen minuut spijt van. Zo heerlijk gamet dat.

Als FreeSync net zo goed werkt (wat ik wel verwacht) dan gaat elke zichzelf respecterende gamer dat willen!

Op dat moment gaan de prijzen vanzelf dalen omdat door de hoge vraag steeds meer monitors het gaan ondersteunen. Ik vermoed dat G-Sync op dat moment een langzame dood gaat sterven.
Ik zit er ook met smart op te wachten. Maar ik heb qua scherm ook wat hogere eisen. hoge HZ is voor mij het laatste punt. Resolutie, kleurechtheid, Grote en kijkhoeken zijn voor mij veel belangrijker. Dus 60Hz met FreeSync zou mij al heel blij maken.

Ook al wordt TN steeds beter ik vind het nog steeds geen vervanger voor een goed IPS scherm. Nadeel is dat de IPS schermen minder snel zijn maar voor mij zijn de voordelen van IPS belangrijker dan de voordelen van TN.

[ Voor 5% gewijzigd door Astennu op 25-11-2014 15:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 23:20
Wolf schreef op dinsdag 25 november 2014 @ 15:39:
Ik snap de haat die mensen hebben niet tegen TN panelen.

Sure, er zijn veel slechte TN panelen op de markt, maar het 8-bit TN paneel wat in mijn huidige monitor zit doet nauwelijks onder voor de Full HD 27" IPS die ik daarvoor had qua kleuren.

Het enige wat deze echt als nadeel heeft is de slechtere kijkhoek, en dan nog in veel mindere mate dan sommige andere TN's die je ziet.

Wat mij betreft is de keuze, zeker voor gaming een no-brainer. Het grappige is namelijk dat je ogen wennen aan kleurintensiteit, maar niet aan tearing, dat blijft storen. IPS Panelen zijn domweg niet snel genoeg voor 144Hz, dus zit je met TN opgescheept.

Ik kan je zeggen, ik ben nog niemand tegen gekomen die dat storend vind aan mijn monitor. Ik krijg veel vaker "wouw" reacties dan niet.
Het verschil is wel heel groot alleen jij hebt blijkbaar geen last van het verschil, laat staan dat je het ziet (zoals je zelf aangeeft).

IPS schermen zijn er genoeg in 120Hz en dat verschil met 144 is niet groot genoeg dat jij het gaat zien. Als ik moet kiezen tussen 120Hz IPS of 144Hz TN dan is de keuze makkelijk, TN kan gewoon niet op tegen IPS, elke serieuze TFT benchmark site (tftcentral) zal dit je laten zien met grafiekjes e.d.

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
chaoscontrol schreef op dinsdag 25 november 2014 @ 15:59:
[...]
IPS schermen zijn er genoeg in 120Hz en dat verschil met 144 is niet groot genoeg dat jij het gaat zien. Als ik moet kiezen tussen 120Hz IPS of 144Hz TN dan is de keuze makkelijk, TN kan gewoon niet op tegen IPS, elke serieuze TFT benchmark site (tftcentral) zal dit je laten zien met grafiekjes e.d.
Er is maar 1 niet TN 120 Hz scherm, de FG2421, en dat is geen IPS scherm.

Scoort niet fantastisch in latency, maar wel fantastische beeldkwaliteit, zowel bij stilstaand als bewegend beeld.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 15:23:
Beetje krom wat je zegt, dat geldt dus ook voor Freesync monitoren. Mocht ik bij m'n volgende upgrade AMD nemen, dan heb ik toch mooi Freesync.
Even beter lezen:
Ik heb het over een monitor die G-Sync EN FreeSync ondersteunt, best of both worlds.
Als je een monitor met alleen FreeSync hebt, kun je dus nooit G-Sync gaan gebruiken als je naar een nVidia-kaart gaat upgraden.
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 15:23:
Volgens mij hadden een aantal fabrikanten geen zin om de "inferieure" scalar van Nvidia te gebruiken in plaats van hun eigen.
Daar geef je het al aan: hun eigen scaler.
Het ging hier om high-end fabrikanten, ik meen dat het Eizo was.
De meeste goedkope schermen hebben gewoon een generieke third-party scaler.
Astennu schreef op dinsdag 25 november 2014 @ 15:40:
[...]
ALS nVidia dat zou doen wel ja. Al vermoed ik dat ze dan eerst willen dat AMD en Intel licentie geld gaan betalen voordat ze ondersteuing in de drivers mogen toevoegen. Zie ook SLi support.
Nee, ik bedoel het andersom: de G-Sync module is in feite ook een scaler die het DisplayPort-protocol spreekt.
nVidia kan hun software uitbreiden zodat hun scaler ook de adaptive sync-extensie ondersteunt die voor FreeSync nodig is.
nVidia kan daar geen geld voor vragen, want het is niet hun standaard.

Een reden waarom nVidia het zou kunnen doen is om meer fabrikanten over te halen om hun G-Sync module te gebruiken.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

chaoscontrol schreef op dinsdag 25 november 2014 @ 15:59:
[...]

Het verschil is wel heel groot alleen jij hebt blijkbaar geen last van het verschil, laat staan dat je het ziet (zoals je zelf aangeeft).

IPS schermen zijn er genoeg in 120Hz en dat verschil met 144 is niet groot genoeg dat jij het gaat zien. Als ik moet kiezen tussen 120Hz IPS of 144Hz TN dan is de keuze makkelijk, TN kan gewoon niet op tegen IPS, elke serieuze TFT benchmark site (tftcentral) zal dit je laten zien met grafiekjes e.d.
Ik weet dat een IPS altijd beter is, ik zeg alleen maar dat bij die specifieke monitor die ik heb het verschil wel erg klein is geworden. Lees hier bijvoorbeeld.

Wat die kerel zegt kan in beamen. Ik heb zowel deze monitor als mijn IPS naast elkaar gehad en ik was aangenaam verrast. Deze TN is echt een veelvoud beter dan wat je typisch in de mediamarkt ziet staan.

Bovendien zoals hierboven gezegd wordt, echt veel 120Hz IPS panelen zijn er niet. Voor zover ik weet zijn er een paar Koreaanse IPS schermen die je naar 120Hz kunt overclocken maar echt grote aantallen hebben we het hier niet over. Bovendien hebben die ook geen G-Sync of Freesync (wat voor mij echt een must-have is).

Edit: Bovendien is TFTCentral best wel positief over de kleuren van deze monitor.

[ Voor 5% gewijzigd door Blaat op 25-11-2014 16:19 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 25 november 2014 @ 16:12:
[...]


Even beter lezen:
Ik heb het over een monitor die G-Sync EN FreeSync ondersteunt, best of both worlds.
Als je een monitor met alleen FreeSync hebt, kun je dus nooit G-Sync gaan gebruiken als je naar een nVidia-kaart gaat upgraden.


[...]
Dat was niet duidelijk uit jouw tekst, maar als je dat bedoelt dan heb ik niks gezegt.
[...]

Nee, ik bedoel het andersom: de G-Sync module is in feite ook een scaler die het DisplayPort-protocol spreekt.
nVidia kan hun software uitbreiden zodat hun scaler ook de adaptive sync-extensie ondersteunt die voor FreeSync nodig is.
nVidia kan daar geen geld voor vragen, want het is niet hun standaard.

Een reden waarom nVidia het zou kunnen doen is om meer fabrikanten over te halen om hun G-Sync module te gebruiken.
Dat zou een van de weinige redenen zijn dat G-Sync kan blijven bestaan of G-Sync moet qua techniek beter zijn, dit weten we nog niet.
Ik zie Nvidia niet zo snel adaptive sync implementeren in hun G-Sync module. Als klant van bijvoorbeeld AMD of Intel zou ik geen monitor kopen met G-Sync erin als je dan toch alleen maar Freesync krijg (zonder de implicatie te stellen dat de een beter dan de ander is). Dan ga ik liever voor een goedkopere monitor met dezelfde specs en alleen Freesync of voor een even dure monitor met betere specs en alleen Freesync. In mijn situatieschets ga ik er natuurlijk van uit dat de G-Sync monitoren nog steeds 100-200 euro meer kosten dan vergelijkbare monitoren.

Wat je anders impliceerd is dat Nvidia ook G-Sync openstelt. Indien het dan beter zou zijn dan Freesync, dan zal ik pas als klant van AMD/Intel het overwegen om een monitor met G-Sync te kopen. Hoewel ik dan wel huiverig ben over de implementatie, voor hetzelfde geld werkt het niet goed met AMD/Intel of moeten we ineens een Nvidiatm "G-Sync Bridge" erbij kopen :+.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 16:35:
[...]
Dat was niet duidelijk uit jouw tekst, maar als je dat bedoelt dan heb ik niks gezegt.
Het helpt als je leest waarop ik reageer, en waar die persoon op reageerde, want daar stond het duidelijk in.
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 16:35:
Wat je anders impliceerd is dat Nvidia ook G-Sync openstelt.
Nee, dat impliceer ik niet. In mijn verhaal blijft G-Sync gereserveerd voor nVidia-kaarten, maar kun je met andere kaarten wel FreeSync gebruiken op dezelfde monitor.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op dinsdag 25 november 2014 @ 16:12:

Nee, ik bedoel het andersom: de G-Sync module is in feite ook een scaler die het DisplayPort-protocol spreekt.
nVidia kan hun software uitbreiden zodat hun scaler ook de adaptive sync-extensie ondersteunt die voor FreeSync nodig is.
nVidia kan daar geen geld voor vragen, want het is niet hun standaard.

Een reden waarom nVidia het zou kunnen doen is om meer fabrikanten over te halen om hun G-Sync module te gebruiken.
Dat zou inderdaad kunnen. Dat zou die Gsync schermen aanzienlijk aantrekkelijker maken en spreek je een veel grotere doelgroep aan.
Wolf schreef op dinsdag 25 november 2014 @ 16:13:
[...]


Ik weet dat een IPS altijd beter is, ik zeg alleen maar dat bij die specifieke monitor die ik heb het verschil wel erg klein is geworden. Lees hier bijvoorbeeld.

Wat die kerel zegt kan in beamen. Ik heb zowel deze monitor als mijn IPS naast elkaar gehad en ik was aangenaam verrast. Deze TN is echt een veelvoud beter dan wat je typisch in de mediamarkt ziet staan.

Bovendien zoals hierboven gezegd wordt, echt veel 120Hz IPS panelen zijn er niet. Voor zover ik weet zijn er een paar Koreaanse IPS schermen die je naar 120Hz kunt overclocken maar echt grote aantallen hebben we het hier niet over. Bovendien hebben die ook geen G-Sync of Freesync (wat voor mij echt een must-have is).

Edit: Bovendien is TFTCentral best wel positief over de kleuren van deze monitor.
Klopt TN is aardig vooruit gegaan in de afgelopen jaren en er zitten panelen tussen die erg goed zijn in vergelijking met de andere TN schermen. Ik vraag me af hoe ze het verder gaan doorontwikkelen.

Ik vraag me ook af hoe ze dat met TV's doen. Ze hebben het daar over 400hz maar volgens mij refeshed dat panneel niet met 400Hz. Het is meer een software trucje maar hoe snel zijn die IPS pannelen dan wel? ook maar 60Hz? Is er toevallig iemand die dat weet?

[ Voor 53% gewijzigd door Astennu op 25-11-2014 17:39 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 25 november 2014 @ 17:12:
[...]


Het helpt als je leest waarop ik reageer, en waar die persoon op reageerde, want daar stond het duidelijk in.


[...]


Nee, dat impliceer ik niet. In mijn verhaal blijft G-Sync gereserveerd voor nVidia-kaarten, maar kun je met andere kaarten wel FreeSync gebruiken op dezelfde monitor.
Jij plaatst zoveel post dat ik er soms overheen lees of skippend lees, maar inderdaad. Dit doe ik eigenlijk nooit, maar ik was de discussie ervoor wat zat dus ik heb al die posts niet echt gelezen. Helaas was mijn post daardoor inhoudelijk niet helemaal correct.

Ik zeg ook niet dat jij dat impliceerd, maar dat was een "optie" geweest. Dus dat betekent dat het verhaal daarvoor geldt. Niet iedereen zal het iets uitmaken maar in mijn geval ga ik geen extra geld uitgeven aan een monitor die G-Sync kan als AMD/Intel klant ook al kan deze Freesync.

[ Voor 9% gewijzigd door Sp3ci3s8472 op 25-11-2014 17:38 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op dinsdag 25 november 2014 @ 16:12:

Even beter lezen:
Ik heb het over een monitor die G-Sync EN FreeSync ondersteunt, best of both worlds.
Leuk en aardig, maar dan moet nVidia's scalar toch eerst ook de Freesync standaard gaan ondersteunen. Twee verschillende scalars inbouwen in de monitor lijkt me niet echt iets waar de meeste fabrikanten op zitten te wachten.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op dinsdag 25 november 2014 @ 17:34:
[...]

Ik vraag me ook af hoe ze dat met TV's doen. Ze hebben het daar over 400hz maar volgens mij refeshed dat panneel niet met 400Hz. Het is meer een software trucje maar hoe snel zijn die IPS pannelen dan wel? ook maar 60Hz? Is er toevallig iemand die dat weet?
Er zijn bij TV's geen panelen die daadwerkelijk 400Hz doen. Het hoogst haalbare is 240Hz qua refresh rate maar dat zie je alleen bij de snelste S-PVA en MVA panelen.

Bij IPS is dat gewoonweg niet te doen omdat de pixel response tijd zo laag is. In de praktijk schakelen de pixels niet snel genoeg om de die refresh rate bij te houden.

Overigens is dat bij PVA en MVA technologien ook al twijfelachtig,

Die 400Hz en 800Hz specificaties die je ziet op TV's zijn Clearmotion rate nummers, kortom pure marketing praat.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Wolf schreef op dinsdag 25 november 2014 @ 18:02:
[...]


Er zijn bij TV's geen panelen die daadwerkelijk 400Hz doen. Het hoogst haalbare is 240Hz qua refresh rate maar dat zie je alleen bij de snelste S-PVA en MVA panelen.

Bij IPS is dat gewoonweg niet te doen omdat de pixel response tijd zo laag is. In de praktijk schakelen de pixels niet snel genoeg om de die refresh rate bij te houden.

Overigens is dat bij PVA en MVA technologien ook al twijfelachtig,

Die 400Hz en 800Hz specificaties die je ziet op TV's zijn Clearmotion rate nummers, kortom pure marketing praat.
Ja leek me al onzin want ze kwamen daar al met 100 en 200 Hz aanzetten toen je bij computer schermen niet boven de 60 hz kwam. Dus ik vraag me dan altijd af wat ze er mee bedoelen.

Het is overigens ook altijd de feature die ik als eerste uit zet. Het bij verzinnen van frames gaat zo vaak fout. Soms is het beeld onnatuurlijk soepel. Dat is al irritant en soms merk je ineens dat hij het even niet weet en dan loopt het weer trager waardoor het schokkerig aan voelt. In ieder geval niet mooi constant. Dus ik zet die features altijd uit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
dahakon schreef op dinsdag 25 november 2014 @ 17:51:
[...]


Leuk en aardig, maar dan moet nVidia's scalar toch eerst ook de Freesync standaard gaan ondersteunen. Twee verschillende scalars inbouwen in de monitor lijkt me niet echt iets waar de meeste fabrikanten op zitten te wachten.
Scalibq stelde dat Nvidia middels een firmware update wellicht Gsync monitoren ook voor Free Sync kan laten gebruiken. Dat zou betekenen dat je met één Scalar (de G-sync scaler) 2 technieken (free/g-sync) ondersteunt. Beste van twee werelden gaat alleen op als G-sync daadwerkelijk een succes wordt ten opzichte van Freesync aangezien G-sync alleen bestaansrecht heeft als het niet enkel op papier maar ook in de praktijk beter is (iig met deze prijsstelling).

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Astennu schreef op dinsdag 25 november 2014 @ 17:34:
Klopt TN is aardig vooruit gegaan in de afgelopen jaren en er zitten panelen tussen die erg goed zijn in vergelijking met de andere TN schermen. Ik vraag me af hoe ze het verder gaan doorontwikkelen.
Sorry, maar ik geloof er echt niks van als iemand zegt dat TN schermen goed zijn geworden en vooral als die persoon dan over kijkhoeken begint : Die van welk IPS scherm dan ook vind ik al slecht dus hoe slecht moeten die van een TN scherm dan wel niet zijn :? :X

Ook het hele G-Sync en Freesync gebeuren kan me niet boeien. De enige redenen om weer een nieuw scherm te kopen met LCD technologie zijn voor mij in ieder geval :

- Beeldscherm(en) gaan stuk.
- OLED schermen worden ineens redelijk betaalbaar.

Voor de rest geef ik liever mijn geld uit aan videokaarten/SSD's en HDD's of ander leuk speelgoed :Y)
Ik vraag me ook af hoe ze dat met TV's doen. Ze hebben het daar over 400hz maar volgens mij refeshed dat panneel niet met 400Hz. Het is meer een software trucje maar hoe snel zijn die IPS pannelen dan wel? ook maar 60Hz? Is er toevallig iemand die dat weet?
Die technieken gaan toch over beelden erbij verzinnen en niet over de refreshrate ?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

nero355 schreef op woensdag 26 november 2014 @ 00:56:
[...]

Sorry, maar ik geloof er echt niks van als iemand zegt dat TN schermen goed zijn geworden en vooral als die persoon dan over kijkhoeken begint : Die van welk IPS scherm dan ook vind ik al slecht dus hoe slecht moeten die van een TN scherm dan wel niet zijn :? :X

Ook het hele G-Sync en Freesync gebeuren kan me niet boeien. De enige redenen om weer een nieuw scherm te kopen met LCD technologie zijn voor mij in ieder geval :

- Beeldscherm(en) gaan stuk.
- OLED schermen worden ineens redelijk betaalbaar.
Niet eens en wel eens, respectievelijk:

Er zit enorm verschil in TN panelen.

Mijn Samsung P2350 heeft een uitzonderlijk TN paneel, en ik zou denk ik absoluut geen moeite hebben met een Rog Swift paneel.

Als ik laptops zie met TN panelen, is dat VEEL en VEEL erger. Echt totaal geen vergelijk zelfs. Als mensen daarmee TN associeren, tja, dan is die slechte naam wel verdient. Als je echter een fatsoenlijk TN paneel pakt, zoals uit de P2350/P2370 of die Swift zoals hierboven, worden die minpunten snel minder erg.


Wel eens dat ik voor de minieme verschillen in monitors eigenlijk lekker wacht op OLED. Zowel perfecte kleuren als reactietijd zou prachtig zijn :P

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

@ Jeroeneman: het raakvlak met AMD ontgaat mij volledig aan je post over LCD schermen.........

Back-on-topic:

Mevrouw Su zou twee keer zoveel aandelen hebben ontvangen als maximaal is toegestaan bij AMD:

Quote:
......""for breaching an executive-compensation plan by giving new CEO Lisa Su above 6 million shares as part of her pay package. Su, nominated to control the troubled computer chipmaker previous month was awarded above 6.4 million firm shares in violation of the firm’s pay plan, which limits such awards to 3 million shares a year,"".....

http://www.streetwiserepo...works-inc-nysepanw/16885/

Je zou toch mogen verwachten dat ze bij AMD bekend zijn met hun eigen financiele regels :?

Laten we nu maar hopen dat ze het in ieder geval waard is en ze echt zo goed is als word beweerd in het vergroten en vasthouden van meer omzet bij AMD.......

time will tell......
.

[ Voor 10% gewijzigd door Verwijderd op 26-11-2014 08:25 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
nero355 schreef op woensdag 26 november 2014 @ 00:56:
[...]

Sorry, maar ik geloof er echt niks van als iemand zegt dat TN schermen goed zijn geworden en vooral als die persoon dan over kijkhoeken begint : Die van welk IPS scherm dan ook vind ik al slecht dus hoe slecht moeten die van een TN scherm dan wel niet zijn :? :X

Ook het hele G-Sync en Freesync gebeuren kan me niet boeien. De enige redenen om weer een nieuw scherm te kopen met LCD technologie zijn voor mij in ieder geval :

- Beeldscherm(en) gaan stuk.
- OLED schermen worden ineens redelijk betaalbaar.

Voor de rest geef ik liever mijn geld uit aan videokaarten/SSD's en HDD's of ander leuk speelgoed :Y)


[...]

Die technieken gaan toch over beelden erbij verzinnen en niet over de refreshrate ?
En toch is het zo. Mijn broer heeft een Iiyama scherm maar dat vind ik voor een TN er erg goed uit zien. De kleuren zijn best goed en de kijkhoeken ook. Ja het is geen IPS maar slecht is het zeker niet.

Ik heb ook heel veel TN schermen gezien die echt waardeloos slecht zijn.

Hoe schuin zit jij dan dat je de kijkhoek van IPS nog te slecht vind? heb je het niet over IPS glow?

Als je geen games speelt heb je niets aan Gsync en FreeSync. Als je dat wel veel doet kun je niet zeggen dat het je niets boeit tot dat je het een keer geprobeerd hebt want anders weet je waarschijnlijk niet wat je mist.
Het is voor mij DE ontwikkeling op het gebied van Videokaarten en beeldschermen. Dit is iets waar we eigenlijk al jaren op wachten. Want Vsync heeft veel nadelen. En het uitzetten heeft ook nadelen. GSync en FreeSync lossen die problemen op en je krijgt dan het beste van beide werelden.

En over dat 400 / 800 Hz verhaal. Ze suggereren wat anders. Zaken zoals Pixel+ haken in op die hoge refresh rate. Anders is het leuk dat je 120Hz doet als je een film kijkt van 29fps maar daar heb je dan weinig aan. Maar 400 en 800 Hz refresh rates bestaan niet. Dus ik vermoed dat het deels met de refresh rate te maken heeft en deels met een software trucje.

[ Voor 25% gewijzigd door Astennu op 26-11-2014 11:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 26 november 2014 @ 11:21:
[...]
Als je geen games speelt heb je niets aan Gsync en FreeSync.
Dat is niet helemaal waar.
Bij video-content heb je ook het probleem dat er vele verschillende framerates bestaan, zoals 24, 25, 29.94, 30, 48, 50, 60, 70, 72, 100, om maar wat te noemen.

De meeste monitors ondersteunen maar een paar van deze refreshrates. Voor alle andere refreshrates moet de video on-the-fly geresampled worden om bv een 50 Hz filmpje op een 60 Hz desktop af te spelen, wat over het algemeen leidt tot een wat schokkerige weergave.
Met G-Sync/FreeSync is dit probleem opgelost.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op woensdag 26 november 2014 @ 11:27:
[...]


Dat is niet helemaal waar.
Bij video-content heb je ook het probleem dat er vele verschillende framerates bestaan, zoals 24, 25, 29.94, 30, 48, 50, 60, 70, 72, 100, om maar wat te noemen.

De meeste monitors ondersteunen maar een paar van deze refreshrates. Voor alle andere refreshrates moet de video on-the-fly geresampled worden om bv een 50 Hz filmpje op een 60 Hz desktop af te spelen, wat over het algemeen leidt tot een wat schokkerige weergave.
Met G-Sync/FreeSync is dit probleem opgelost.
Correct, ik stel in XBMC ook in dat de gebruikte display (in dit geval een TV) z'n refreshrate moet aanpassen aan de framerate van de afgespeelde video, en het verschil is dag en nacht. Eindelijk is video zo vlot als het moet zijn, zeker met de frame-interpolatie die bij Philips TV's best nog OK is.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 15:23

Edmin

Crew Council

get on my horse!

Zullen we de paneeldiscussie maar even parkeren? AFAIK maakt AMD geen monitoren...

  • 8_ball
  • Registratie: Februari 2008
  • Laatst online: 20-09 10:27
Leuke review van de combinatie van Temash en zotac.

Het resultaat valt mij niet tegen. Ben benieuwd wat deze in Nederland mag gaan kosten.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
8_ball schreef op donderdag 27 november 2014 @ 13:48:
Leuke review van de combinatie van Temash en zotac.

Het resultaat valt mij niet tegen. Ben benieuwd wat deze in Nederland mag gaan kosten.
Mooi mini pctje en ook nog eens voor een leuke prijs.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
De matige single-threaded performance verbaast me eigenlijk wel, ik had begrepen dat de Puma arch wat beter zou performen dan Silvermont maar daar is weinig van terug te zien.

En misschien ben ik wat te kritisch, maar ik vind de grootte van deze miniPC's nog altijd wat tegenvallend. We hebben nu al twee jaar een AppleTV van onder de 100 dollar met een qua grootte vergelijkbare SoC erin die in een behoorlijk wat kleinere behuizing zit dan de NUC's en Zotacs. Wat houdt Intel/AMD tegen om naar dat soort formaten te krimpen?

[ Voor 50% gewijzigd door Dreamvoid op 02-12-2014 14:44 ]


Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 23:20
Dreamvoid schreef op dinsdag 02 december 2014 @ 14:40:
De matige single-threaded performance verbaast me eigenlijk wel, ik had begrepen dat de Puma arch wat beter zou performen dan Silvermont maar daar is weinig van terug te zien.

En misschien ben ik wat te kritisch, maar ik vind de grootte van deze miniPC's nog altijd wat tegenvallend. We hebben nu al twee jaar een AppleTV van onder de 100 dollar met een qua grootte vergelijkbare SoC erin die in een behoorlijk wat kleinere behuizing zit dan de NUC's en Zotacs. Wat houdt Intel/AMD tegen om naar dat soort formaten te krimpen?
Een AppleTV is verre van een PC wat de NUC e.d. toch echt wel zijn. Dat jij het voor hetzelfde doeleind gebruikt betekend niet dat het beperkt is daartoe. ;)

Sterker nog, kleiner dan AppleTv zijn alle willekeurige HDMI dongles al. :)

[ Voor 4% gewijzigd door chaoscontrol op 02-12-2014 14:55 ]

Inventaris - Koop mijn meuk!

Pagina: 1 ... 34 ... 55 Laatste

Dit topic is gesloten.