Nog een kleine toevoeging; CAPs zijn niet alleen voor CF setups. Ook enkel GPU systems hebben profijt van CAPs
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Waanzin! Zou wel vet zijn als er een videokaart komt waarbij je CoH 2 en BF4 krijgt. Twee games die ik t.z.t. wil gaan halen.
Ook wel mooi dat een klapper van een game als Watch Dog GitG/GE is geworden. Ze jatten heel veel games bij nVidia weg, Crysis, Far Cry, Lost Planet en Hitman. Die waren voorheen allemaal TWIMTBP.
Ziet er naaruit dat EA, als ze nog komen met een vervolg, met Mirror's Edge ook zullen overstappen op GitG/GE
Weg met die kloterige vlaggetjes die volgens PhysX wapperen
Ook wel mooi dat een klapper van een game als Watch Dog GitG/GE is geworden. Ze jatten heel veel games bij nVidia weg, Crysis, Far Cry, Lost Planet en Hitman. Die waren voorheen allemaal TWIMTBP.
Ziet er naaruit dat EA, als ze nog komen met een vervolg, met Mirror's Edge ook zullen overstappen op GitG/GE
[ Voor 28% gewijzigd door madmaxnl op 27-04-2013 15:19 ]
Nu er nog een HD8xxx kaart bij en het feest is compleet
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat wordt wel interessant ja. Een upgrade die 200 euro kost (ik zeg maar wat) en bijvoorbeeld 150 euro aan games oplevert, daar hoef ik niet lang over na te denken! AMD koopt dit toch bulk in, het zal hen een stuk minder kosten dan wij, dat betwijfel ik niet.
01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110
Maakt niet uit, bij Nvidia krijgen we vast wel iets voor Farmville
Haha ja lekker nuttig xD
Maar ze hebben nu ook de eerste fatsoenlijke game er bij gestopt. Ik weet niet meer welke het was. Maar het was iets wat wel nuttig zou zijn.
Maar ze hebben nu ook de eerste fatsoenlijke game er bij gestopt. Ik weet niet meer welke het was. Maar het was iets wat wel nuttig zou zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Daar wacht ik dus op.... of GTX780.. heb net ff een 2e hands 4870 besteld voor 25 euroAstennu schreef op maandag 29 april 2013 @ 12:32:
Nu er nog een HD8xxx kaart bij en het feest is compleet
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Dat kan ook. Voor simpele dingen voldoende. HD5850's zijn ook niet duur. (60 euro of zo) zijn toch een heel stuk snellerA87 schreef op dinsdag 30 april 2013 @ 01:39:
[...]
Daar wacht ik dus op.... of GTX780.. heb net ff een 2e hands 4870 besteld voor 25 euro
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat blokdiagram van AMD Hawaii is trouwens user-made en dus nep, zie mijn comment daar. Specs waren volgens mij dus ook nogal erg positief.
Ziet er mij allemaal iets te rooskleurig uit. En nu al 20nm lijkt me ook sterk. We zitten pas een generatie op 28nm. Ik denk dat de next gen kaart gewoon weer 28nm zal zijn iets van 2560 stream processors heeft en een 384bit bus met iets van 6.0 GHz GDDR5. En dat samen met architectuur verbeteringen om de prestatie per stream processor per MHz te verbeteren.TomasH schreef op woensdag 08 mei 2013 @ 23:37:
Dat blokdiagram van AMD Hawaii is trouwens user-made en dus nep, zie mijn comment daar. Specs waren volgens mij dus ook nogal erg positief.
Maar we zullen het wel tegen het einde van het jaar zien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Vrij lange video inzake Frame Rating and FCAT Explanation and Discussion with NVIDIA bij PC Perspective.
Eerste deel is vooral uitleg. Daarna m.n. vanaf vsync erg interessant.
http://www.pcper.com/news...Your-Questions-Answered-0
http://youtu.be/2cH_ozvn0gA
Eerste deel is vooral uitleg. Daarna m.n. vanaf vsync erg interessant.
http://www.pcper.com/news...Your-Questions-Answered-0
http://youtu.be/2cH_ozvn0gA
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
ik denk eigenlijk dat we op 28nm niet veel meer kunnen verwachten dan meer efficiente chips. En tegelijkertijd denk ik toch half als AMD daarvoor was gegaan dat we dan al een nieuwe generatie hadden gehad.
Niemand die iets zinnigs kan zeggen of dat de 9xxx serie de eerste GPU's op 20nm worden?
Zit nu namelijk te twijfelen om een 770/760ti aan te schaffen, maar als aan het eind van het jaar 20nm verwacht kan worden, dan stel ik mijn upgrade maar wat graag uit.
Zit nu namelijk te twijfelen om een 770/760ti aan te schaffen, maar als aan het eind van het jaar 20nm verwacht kan worden, dan stel ik mijn upgrade maar wat graag uit.
Eind van het jaar of misschien begin volgend jaar komt een nieuwe serie, maar eigenlijk is daar nog niks echt bekend van.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kan niemand iets over zeggen. TSMC heeft Fab 14 inmiddels in gebruik dus qua productie zullen ze het wel aankunnen, maar of het procedé inmiddels volwassen genoeg is en of AMD/Nvidia er überhaupt mee bezig zijn weet niemand. Het eerste wat we van AMD's kant *kunnen* horen zal deze zomer tijdens hun summit zijn, maar dat gaat dan vooral over architecturen en dergelijke, de chips zullen we nog lang niets over horeneL_Jay schreef op vrijdag 10 mei 2013 @ 16:04:
Niemand die iets zinnigs kan zeggen of dat de 9xxx serie de eerste GPU's op 20nm worden?
Zit nu namelijk te twijfelen om een 770/760ti aan te schaffen, maar als aan het eind van het jaar 20nm verwacht kan worden, dan stel ik mijn upgrade maar wat graag uit.
en vergeet niet dat amd sowiezo steeds meer de leaks onder controle krijgt.
http://www.anandtech.com/...ia-tech-marketing-to-join
Mooi zo, AMD is weer keihard aan de weg aan het timmeren. GCN en de console wins zijn duidelijk goed voor hun gezondheid geweest.
Mooi zo, AMD is weer keihard aan de weg aan het timmeren. GCN en de console wins zijn duidelijk goed voor hun gezondheid geweest.
nou heb net een vervangkaart voor me broer gekocht en 60e voor een hd5850 had ik direct gedaan.Astennu schreef op donderdag 02 mei 2013 @ 17:28:
[...]
Dat kan ook. Voor simpele dingen voldoende. HD5850's zijn ook niet duur. (60 euro of zo) zijn toch een heel stuk sneller
hij zou toch nog even door mijn handen gaan en op 1000mhz+ is hij bijna net zo snel als een hd7850 van 150e.
helaas dit feest ging niet door voor hd5850's en 70 wordt zo nog 100e plus gevraagd.
gelukkig hier op tweakers wel een iets betere koop kunnen bemachtigen.
mensen weten blijkbaar wel watvoor toppertjes het zijn/waren.
7950 is eigenlijk de eerste goede/nuttige stap omhoog en dat is high end 2 generaties verder.
Nukezone FTW
Dan zijn ze weer gestegen. Er is een tijd geweest dat je ze op tweakers voor 60-70 kon krijgen. Zal wel door de crisis komen. Mensen kopen geen nieuwe kaarten meer maar gaan liever voor 2e hands kaarten die net 20-30 euro goedkoper zijnPowrskin schreef op maandag 20 mei 2013 @ 22:06:
[...]
nou heb net een vervangkaart voor me broer gekocht en 60e voor een hd5850 had ik direct gedaan.
hij zou toch nog even door mijn handen gaan en op 1000mhz+ is hij bijna net zo snel als een hd7850 van 150e.
helaas dit feest ging niet door voor hd5850's en 70 wordt zo nog 100e plus gevraagd.
gelukkig hier op tweakers wel een iets betere koop kunnen bemachtigen.
mensen weten blijkbaar wel watvoor toppertjes het zijn/waren.
7950 is eigenlijk de eerste goede/nuttige stap omhoog en dat is high end 2 generaties verder.
70% van de nieuw prijs verkopen komen nog maar weinig voor. En als het wel is is er vaak iets mis met het product. Vroeger was 60-80% van de nieuwprijs heel normaal. Tegenwoordig is het eerder 90-95% voor iets wat 2e hands is.
Het is zeker een goed teken dat dit soort mensen vertrouwen hebben in het bedrijf en daar vervolgens gaan werken. Ze hebben leuke deals binnen kunnen slepen en de GPU architectuur is goed.Werelds schreef op maandag 20 mei 2013 @ 21:57:
http://www.anandtech.com/...ia-tech-marketing-to-join
Mooi zo, AMD is weer keihard aan de weg aan het timmeren. GCN en de console wins zijn duidelijk goed voor hun gezondheid geweest.
Hopelijk kan AMD het CPU gedeelte met SteamRoller en Excavator ook op orde krijgen zodat ze weer een beetje mee kunnen. Nu is het gat simpelweg te groot. Als ze dat kunnen halveren is AMD ineens weer interessant vanwegen de prijs. En met 20nm kunnen ze het verbruik denk ik ook op een anno 2014 acceptabel niveau krijgen. Nu is het wachten op GF voor 20nm.
[ Voor 40% gewijzigd door Astennu op 21-05-2013 08:49 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vraag me trouwens af wat AMD wil gaan doen tegen de Geforce GTX770 en de GTX780
Die eerste zal iets sneller zijn dan een GTX680. Waar de 2e tussen de GTX680 en de Titan in komt te zitten.
AMD heeft dus alleen iets tegen de GTX770 en dat is de HD7970 GHz. Het wordt echt tijd voor een overtreffende trap een HD8xxx of HD9xxx die weer 20% sneller is.
Het is nog wel even de vraag wat die GTX780 gaat kosten. Als nVidia hem niet te duur maakt heeft AMD echt een probleem. Nu verwacht ik dat nVidia hem niet echt goedkoop maakt. Maar het is nog steeds niet goed dat AMD in die performance klasse geen kaarten heeft. Het is een kleine doelgroep maar wel een uithang bord om te laten zien wat je kan. Als je goede high end kaarten hebt verkoop je ook meer mid en low end kaarten.
Die eerste zal iets sneller zijn dan een GTX680. Waar de 2e tussen de GTX680 en de Titan in komt te zitten.
AMD heeft dus alleen iets tegen de GTX770 en dat is de HD7970 GHz. Het wordt echt tijd voor een overtreffende trap een HD8xxx of HD9xxx die weer 20% sneller is.
Het is nog wel even de vraag wat die GTX780 gaat kosten. Als nVidia hem niet te duur maakt heeft AMD echt een probleem. Nu verwacht ik dat nVidia hem niet echt goedkoop maakt. Maar het is nog steeds niet goed dat AMD in die performance klasse geen kaarten heeft. Het is een kleine doelgroep maar wel een uithang bord om te laten zien wat je kan. Als je goede high end kaarten hebt verkoop je ook meer mid en low end kaarten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wie weet doen ze wel hetzelfde als met hun mobiele chips, gewoon iets hoger geclockte modellen uitbrengen onder een nieuwe serie. Wellicht hebben ze Tahiti, Pitcairn, Bonaire en Cape Verde een respin gegeven om betere clocks en/of yields te krijgen. 20nm chips laten nog wel even op zich wachten, die zullen we denk ik pas in 2014 gaan zien.
AMD begint gewoon niet een een chip die zo groot als die van de Titan/GTX780, die strategie hebben ze al sinds de 2900XT. Ik denk wel dat ze alles op alles zetten om als eerste een nieuwe chip op het volgende procedé uit te brengen. Ondertussen brengen ze op 28nm alleen verbeterde revisies uit van de huidige generatie.
(De HD7790 is een beetje een vreemde eend gezien die duidelijk van de nieuwe generatie is, maar toch in de huidige line-up verkocht word, ik denk dat we kunnen verwachten dat deze later hernoemd wordt naar HD8770)
Interessante info over AMD stacked memory van SemiAccurate.
Verstopt in het bericht "Nvidia GPU roadmaps aren’t an improvement with Volta"


(De HD7790 is een beetje een vreemde eend gezien die duidelijk van de nieuwe generatie is, maar toch in de huidige line-up verkocht word, ik denk dat we kunnen verwachten dat deze later hernoemd wordt naar HD8770)
Interessante info over AMD stacked memory van SemiAccurate.
Verstopt in het bericht "Nvidia GPU roadmaps aren’t an improvement with Volta"

That picture we published in October of 2011 showed a prototype AMD device with stacked memory. We didn’t give many details at the time. However, now that much of it is history we don’t think there will but roast mole if we share a bit more about AMD/ATI and their stacked memory program. The first AMD product slated to have stacked memory was Tiran, the HD89xx GPU that was due in 2012. This was meant to be followed by the Kaveri CPU, then due out in late 2012, and Hawaii which we officially know nothing about, really.

Bron: http://semiaccurate.com/2...ed-flags-for-the-company/None of these products ended up with stacked memory, Tiran never came out, the version of Kaveri that was way ahead of the packaging game was canceled with the new version then delayed by a year or more, and word has it that Hawaii no longer has stacked memory as an option. Before you bring up issues like yield, technical snafus, and unconstrained cost, our moles were very clear that all the technical and cost issues had been solved before Tahiti, it could have been a viable and cost effective product if AMD product planners chose to bring it to market. For reasons out of the scope of this article, they didn’t.
The take home message is that AMD had stacked memory on GPUs ready and waiting in late 2011. They still have that knowledge and can roll it out at any time for any product they choose to, top to bottom, mobile or discrete. AMD did not crow about it years prior to Tahiti, they just did the engineering quietly in a lab somewhere and worked all the kinks out.
Mja dat hebben ze al gedaan met de GHz edition. Nu moeten ze echt een respin doen om hem nog hoger te clocken en dat wordt denk ik te duur. Dan kun je beter je next gen product snel op de markt krijgen.madmaxnl schreef op dinsdag 21 mei 2013 @ 10:02:
Wie weet doen ze wel hetzelfde als met hun mobiele chips, gewoon iets hoger geclockte modellen uitbrengen onder een nieuwe serie. Wellicht hebben ze Tahiti, Pitcairn, Bonaire en Cape Verde een respin gegeven om betere clocks en/of yields te krijgen. 20nm chips laten nog wel even op zich wachten, die zullen we denk ik pas in 2014 gaan zien.
Ik verwacht 20nm voorlopig nog niet. Next gen zal gewoon 28nm worden. HD7xxx is pas de eerste 28nm chip. Met 40nm hebben we 3 generaties gedaan. Dus 28nm zal ook echt wel 2 generaties mee gaan. Als we op 20nm moeten wachten is het sowieso 2014 en misschien zelfs 2015 pas.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het hoeft ook ook niet zo groot als de GK110 te zijn. Maar iets groter moet geen probleem zijn. En op die manier kunnen ze 20-30% performance pakken en dus een Titan Concurrent op de markt zetten. Bv een 2560 shader chip met de nieuwe architectuur die je ook in de 7790 ziet.
Dat over dat Stacked Memory is wel interessant. Ik ben benieuwd wanneer we het gaan zien. AMD is wel goed in stil houden. Eyefinity is ook heel lang stil gehouden. En toen was het er ineens.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ja ik ben er ook wel benieuwd naar, de aankomende consoles zouden er toch wel baat bij hebben...Astennu schreef op dinsdag 21 mei 2013 @ 11:24:
[...]
Dat over dat Stacked Memory is wel interessant. Ik ben benieuwd wanneer we het gaan zien. AMD is wel goed in stil houden. Eyefinity is ook heel lang stil gehouden. En toen was het er ineens.
En veel respect voor het stil houden, daar zijn ze echt koning in. (vs die andere grote GPU maker
U vraagt AMD draait:Het hoeft ook ook niet zo groot als de GK110 te zijn. Maar iets groter moet geen probleem zijn. En op die manier kunnen ze 20-30% performance pakken en dus een Titan Concurrent op de markt zetten. Bv een 2560 shader chip met de nieuwe architectuur die je ook in de 7790 ziet.
Bron: http://semiaccurate.com/2...in-the-wild-and-pictured/That said, a 15% clock boost lines up nicely with the 15% speed increase we mentioned last October quite well. A few other architectural optimizations, a few more driver tweaks, and you have something between the 15% realistic number we claimed and the 30% AMD was claiming last summer.
Voor de rest:
Bron: http://semiaccurate.com/2...-amds-sea-islands-ci-end/There are CI parts in the HD7000 line that was SI only up to this point. Why? That doesn’t even have an explanation much less a good one, it just is. To make matters worse, there are going to be HD8000 parts from the CI family and the SI family, but not a damn bit of rhyme or reason as to what goes where here either. There is also no real way for the buyer to understand which part of which line is from what family, not that there is enough functional difference between SI and CI to actually notice. Even the drivers don’t change, and that is part of what kicked this whole ‘conspiracy’ off in the first place.
Het komt er op neer dat er zo weinig verschil in de verschillende generaties zit dat ze die maar in dezelfde line-up gooien. (HD 7790 is eigenlijk een CI, maar zorgt er voor dat de HD7850 EOL gaat)
Ik gok dat er ook veel druk van de OEM's is om de nieuwe generatie uit te stellen omdat de oude voorraad nog niet op is. nVidia zou hiervoor een creatieve oplossing hebben: http://semiaccurate.com/2...ed-gtx680-to-gtx770-bios/
Tja AMD kiest er voor om het bij Desktops niet te doen waar nVidia het wel doet.
Die GTX770 bios voor een GTX680 is inderdaad een mooi voorbeeld. Het zijn immers dezelfde kaarten. De GPU is ook hetzelfde. Het zou me niet eens verbazen als het dezelfde stepping is.
AMD had de 7790 prima HD8770 kunnen noemen maar kiezen er voor dit niet te doen. (notebook GPU's is wel een ander verhaal die worden allemaal HD8xxx wel met hogere clockspeeds waardoor je toch 10%-20% hogere prestaties hebt (mede door boost en een veel hogere base clock)
En 15% hogere clocks dan een GHz zie ik niet snel gebeuren. Die zijn dan wel heel cherry picked of het moet een nieuwe stepping zijn. Want je hebt het dan over 1150 MHz base met 1200 boost.
Dus of je hebt er niet zo veel van of je TDP gaat behoorlijk omhoog. En dat TDP is al hoog vergeleken met een GTX680.
Die GTX770 bios voor een GTX680 is inderdaad een mooi voorbeeld. Het zijn immers dezelfde kaarten. De GPU is ook hetzelfde. Het zou me niet eens verbazen als het dezelfde stepping is.
AMD had de 7790 prima HD8770 kunnen noemen maar kiezen er voor dit niet te doen. (notebook GPU's is wel een ander verhaal die worden allemaal HD8xxx wel met hogere clockspeeds waardoor je toch 10%-20% hogere prestaties hebt (mede door boost en een veel hogere base clock)
En 15% hogere clocks dan een GHz zie ik niet snel gebeuren. Die zijn dan wel heel cherry picked of het moet een nieuwe stepping zijn. Want je hebt het dan over 1150 MHz base met 1200 boost.
Dus of je hebt er niet zo veel van of je TDP gaat behoorlijk omhoog. En dat TDP is al hoog vergeleken met een GTX680.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
GeForce GTX 680 Can Be Flashed to GTX 770?Toettoetdaan schreef op dinsdag 21 mei 2013 @ 11:47:
Ik gok dat er ook veel druk van de OEM's is om de nieuwe generatie uit te stellen omdat de oude voorraad nog niet op is. nVidia zou hiervoor een creatieve oplossing hebben: http://semiaccurate.com/2...ed-gtx680-to-gtx770-bios/
No you can't, but read on

[ Voor 6% gewijzigd door -The_Mask- op 21-05-2013 16:15 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Is inderdaad gewoon een gemodde 680 Bios. Wat overigens niet betekend dat een 770 bios niet zal werken
Hahaha bedankt!-The_Mask- schreef op dinsdag 21 mei 2013 @ 16:12:
[...]
GeForce GTX 680 Can Be Flashed to GTX 770?
[...]
[afbeelding]
Volgensmij loopt het wel los allemaal. Zolang AMD de juiste prijzen neerzet blijven ze concurrerend omdat ik denk dat nVidia geen hele lage prijzen gaat neerzetten. (Zeker voor de Titan derived chips zullen ze niet heel laag gaan.)Astennu schreef op dinsdag 21 mei 2013 @ 09:07:
Ik vraag me trouwens af wat AMD wil gaan doen tegen de Geforce GTX770 en de GTX780
Die eerste zal iets sneller zijn dan een GTX680. Waar de 2e tussen de GTX680 en de Titan in komt te zitten.
AMD heeft dus alleen iets tegen de GTX770 en dat is de HD7970 GHz. Het wordt echt tijd voor een overtreffende trap een HD8xxx of HD9xxx die weer 20% sneller is.
Het is nog wel even de vraag wat die GTX780 gaat kosten. Als nVidia hem niet te duur maakt heeft AMD echt een probleem. Nu verwacht ik dat nVidia hem niet echt goedkoop maakt. Maar het is nog steeds niet goed dat AMD in die performance klasse geen kaarten heeft. Het is een kleine doelgroep maar wel een uithang bord om te laten zien wat je kan. Als je goede high end kaarten hebt verkoop je ook meer mid en low end kaarten.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
GTX780 is uit. Zoals verwacht behoorlijk wat sneller. Zit tussen de GTX680 en de Titan in. Advies prijs 650 dollar. 200 dollar meer dan een 680 of 7970. Dus een aardig premium bedrag. Niet zo erg als bij de Titan maar nog steeds betaal je relatief veel extra. Maar ze verkopen toch wel omdat er geen concurrentie is in dat segment.
Lijkt weer een beetje op GTX580 vs HD6970. Duurder maar iets sneller vs veel waar voor je geld maar iets langzamer.
Lijkt weer een beetje op GTX580 vs HD6970. Duurder maar iets sneller vs veel waar voor je geld maar iets langzamer.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vind overigens niet dat het nou zo'n noodzaak is voor AMD om meteen de nieuwe generatie op de markt te zetten. Als ze nou concentreren (ja ik weet dat het niet dezelfde teams zijn) op het voorkomen van issues met oa Crossfire is dat een prima zet tegen de GK110. Ga maar na, ook al is nVidia 50% sneller (wat ze lang niet halen), 100% duurder halen ze al snel. En die Titans en derivaten zijn geen partij tegen een tweetal 7970's.
Nieuwe GPU's ontwikkelen is duur en ze doen het beter in één keer goed, zo slecht is het niet voor hun imago om nVidia nog even als afzetter met hun dure kaarten neer te zetten.
Daarnaast vind ik dat huidige games de power toch nog niet nodig hebben. Feit is dat het merendeel qua resolutie toch nog op 1080p zit, en zoals ik eerder zei is voor die <5% met extreme resoluties Crossfire bedoeld. Als 28nm blijft zullen de kaarten niet belachelijk veel zuiniger worden, dus daar hoef je het ook al niet voor te doen. Met de nieuwe consoles zal er wel weer wat extra performance nodig zijn, maar dan nog geloof ik niet dat er veel extra performance nodig gaat zijn op 1080p, de meeste toeters en bellen staan bij de zwaarste spellen toch al aan, en visueel betere games zullen eerder aandacht nodig voor mooie textures ed, nóg meer anti-aliasing gaat weinig nut hebben vrees ik. Het wordt eens tijd voor 30" 4K schermen, of brillen ofzo. Die hardware komt dan wel.
Nieuwe GPU's ontwikkelen is duur en ze doen het beter in één keer goed, zo slecht is het niet voor hun imago om nVidia nog even als afzetter met hun dure kaarten neer te zetten.
Daarnaast vind ik dat huidige games de power toch nog niet nodig hebben. Feit is dat het merendeel qua resolutie toch nog op 1080p zit, en zoals ik eerder zei is voor die <5% met extreme resoluties Crossfire bedoeld. Als 28nm blijft zullen de kaarten niet belachelijk veel zuiniger worden, dus daar hoef je het ook al niet voor te doen. Met de nieuwe consoles zal er wel weer wat extra performance nodig zijn, maar dan nog geloof ik niet dat er veel extra performance nodig gaat zijn op 1080p, de meeste toeters en bellen staan bij de zwaarste spellen toch al aan, en visueel betere games zullen eerder aandacht nodig voor mooie textures ed, nóg meer anti-aliasing gaat weinig nut hebben vrees ik. Het wordt eens tijd voor 30" 4K schermen, of brillen ofzo. Die hardware komt dan wel.
01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110
Meh! Krijg niet het gevoel dat ik mijn 7960 CFX setup moet vervangen ofzo! Die kan nog wel tijde mee!
Best duur ja. Heb laatst 2 x de 7970 gehaald voor 800e. Hiermee heb je naar mijn mening het meeste bang for Bucks.Astennu schreef op donderdag 23 mei 2013 @ 19:15:
GTX780 is uit. Zoals verwacht behoorlijk wat sneller. Zit tussen de GTX680 en de Titan in. Advies prijs 650 dollar. 200 dollar meer dan een 680 of 7970. Dus een aardig premium bedrag. Niet zo erg als bij de Titan maar nog steeds betaal je relatief veel extra. Maar ze verkopen toch wel omdat er geen concurrentie is in dat segment.
Lijkt weer een beetje op GTX580 vs HD6970. Duurder maar iets sneller vs veel waar voor je geld maar iets langzamer.
Leuk maar nVidia heeft al goed werkende SLi en de GTX780 kan ook in SLI .deraco96 schreef op donderdag 23 mei 2013 @ 21:40:
Ik vind overigens niet dat het nou zo'n noodzaak is voor AMD om meteen de nieuwe generatie op de markt te zetten. Als ze nou concentreren (ja ik weet dat het niet dezelfde teams zijn) op het voorkomen van issues met oa Crossfire is dat een prima zet tegen de GK110. Ga maar na, ook al is nVidia 50% sneller (wat ze lang niet halen), 100% duurder halen ze al snel. En die Titans en derivaten zijn geen partij tegen een tweetal 7970's.
Nieuwe GPU's ontwikkelen is duur en ze doen het beter in één keer goed, zo slecht is het niet voor hun imago om nVidia nog even als afzetter met hun dure kaarten neer te zetten.
Daarnaast vind ik dat huidige games de power toch nog niet nodig hebben. Feit is dat het merendeel qua resolutie toch nog op 1080p zit, en zoals ik eerder zei is voor die <5% met extreme resoluties Crossfire bedoeld. Als 28nm blijft zullen de kaarten niet belachelijk veel zuiniger worden, dus daar hoef je het ook al niet voor te doen. Met de nieuwe consoles zal er wel weer wat extra performance nodig zijn, maar dan nog geloof ik niet dat er veel extra performance nodig gaat zijn op 1080p, de meeste toeters en bellen staan bij de zwaarste spellen toch al aan, en visueel betere games zullen eerder aandacht nodig voor mooie textures ed, nóg meer anti-aliasing gaat weinig nut hebben vrees ik. Het wordt eens tijd voor 30" 4K schermen, of brillen ofzo. Die hardware komt dan wel.
Dus ik vind dat geen verkoop argument want de concurrentie bied hetzelfde aan en op dit moment met wat hogere kwaliteit als het gaat om multi GPU.
Helemaal mee eens dat we eens 4K schermen moeten krijgen. Er komen 4K laptops maar 24-30" 4K schermen zijn te veel gevraagd of moeten meer dan 10.000 euro kosten
Ik blijf multi gpu van nVidia en AMD geen optie vinden. Single GPU blijft het mooiste en soepelste werken. Dan moeten ze het nog wat verder verbeteren zodat er echt amper frame latency is.Versteegrob schreef op donderdag 23 mei 2013 @ 22:50:
[...]
Best duur ja. Heb laatst 2 x de 7970 gehaald voor 800e. Hiermee heb je naar mijn mening het meeste bang for Bucks.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://nl.hardware.info/n...-resolutie-kost-4500-euro <= There! I fixed itAstennu schreef op donderdag 23 mei 2013 @ 23:53:
Helemaal mee eens dat we eens 4K schermen moeten krijgen. Er komen 4K laptops maar 24-30" 4K schermen zijn te veel gevraagd of moeten meer dan 10.000 euro kosten
Jeetje zeg... waarom is iedereen zo vreselijk negatief geworden over SLI en Crossfire sinds dat "latency meten" verhaal van een tijdje geledenIk blijf multi gpu van nVidia en AMD geen optie vinden. Single GPU blijft het mooiste en soepelste werken. Dan moeten ze het nog wat verder verbeteren zodat er echt amper frame latency is.
Al die jaren was iedereen er tevreden mee en nu is het opeens alsof al die kaarten stuk zijn in SLI of Crossfire mode

Dat het blijkbaar beter kan, OK, maar om het meteen af te schrijven alsof het een heks is in de middeleeuwen... damn!
Ik stel daarom voor dat iedereen bij deze zijn 7970 GHz of Titan kaarten bij mij afgeeft dan zet ik ze lekker in Quad SLI of Crossfire : Fun, fun, fun !!!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Er zijn er hier (en in de andere draad) enkelen die al langer zo uitgesproken tegen SLI en CFX zijn. Astennu is daar een van, ik ben er ook een van. Het feit dat beide technieken nog steeds uitsluitend AFR of nóg slechtere methodes gebruiken is waarom wij er geen heil in zien. AFR kan simpelweg nooit even soepel worden als een enkele kaart en alles wat ze doen om dat te verbergen (want meer is frame metering niet) zijn software hacks.nero355 schreef op vrijdag 24 mei 2013 @ 01:44:
Jeetje zeg... waarom is iedereen zo vreselijk negatief geworden over SLI en Crossfire sinds dat "latency meten" verhaal van een tijdje geleden
Snap de ophef ook niet echt tegen crossfire. Speel nu ruim een maand met crossfire en het speelt voor mij nagenoeg hetzelfde als een enkele kaart. Speel vrij veel BF3 en ben nog steeds net zo goed. Win nog steeds vaak genoeg potjes. Snelheid is alles in een game zoals BF3 dus hoe slecht is crossfire nou echt in de praktijk? Speel met 2 x 7970 op 3 x 24 inch en zelfs Crysis 3 loopt geweldig.
Hoeveel last heb je hiervan in de praktijk? Snel heb ik er nog niks van gemerkt maar misschien ben ik niet zo kritisch als jij. Is het bij bepaalde games meer aanwezig? Weet wel dat AMD met software bezig is zodat het minder lijkt. Merk er dus gelukkig niks dus ik klaag niet. Ben juist erg tevreden over crossfire.Astennu schreef op donderdag 23 mei 2013 @ 23:53:
[...]
Leuk maar nVidia heeft al goed werkende SLi en de GTX780 kan ook in SLI .
Dus ik vind dat geen verkoop argument want de concurrentie bied hetzelfde aan en op dit moment met wat hogere kwaliteit als het gaat om multi GPU.
Helemaal mee eens dat we eens 4K schermen moeten krijgen. Er komen 4K laptops maar 24-30" 4K schermen zijn te veel gevraagd of moeten meer dan 10.000 euro kosten
[...]
Ik blijf multi gpu van nVidia en AMD geen optie vinden. Single GPU blijft het mooiste en soepelste werken. Dan moeten ze het nog wat verder verbeteren zodat er echt amper frame latency is.
[ Voor 56% gewijzigd door Wackmack op 24-05-2013 09:46 ]
Wow mooi scherm! Alleen dat is me nog steeds iets te duurnero355 schreef op vrijdag 24 mei 2013 @ 01:44:
[...]
http://nl.hardware.info/n...-resolutie-kost-4500-euro <= There! I fixed it
Dat is het dusJeetje zeg... waarom is iedereen zo vreselijk negatief geworden over SLI en Crossfire sinds dat "latency meten" verhaal van een tijdje geleden
Al die jaren was iedereen er tevreden mee en nu is het opeens alsof al die kaarten stuk zijn in SLI of Crossfire mode
Dat het blijkbaar beter kan, OK, maar om het meteen af te schrijven alsof het een heks is in de middeleeuwen... damn!
Ik stel daarom voor dat iedereen bij deze zijn 7970 GHz of Titan kaarten bij mij afgeeft dan zet ik ze lekker in Quad SLI of Crossfire : Fun, fun, fun !!!
Dus ik ben blij dat het nu aangepakt wordt en er focus voor is. Misschien is dit verschijnsel over een jaar verleden tijd en zijn de verschillen zo klein dat we ze niet meer opmerken en SLi en CF wel echte alternatieve zijn voor dure kaarten. Want dan zijn dingen als HD7850 in CF heel interessant.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Klopt als een bus.Astennu schreef op vrijdag 24 mei 2013 @ 10:14:
Dat is het dusik ben nooit echt tevreden geweest. Ik merkte jaren terug al met mijn 3870 X2 4870 X2 en 5970 dat sommige games gewoon stutters hadden terwijl ik wel 80 fps had. Met mijn Single GPU had ik het niet of als je CF uit zette. Later ook hetzelfde toen ik mass effect met 2x 7970 ging spelen. Het liep gewoon minder vloeiend terwijl de FPS bijna 2x zo hoog was. Vooral bij race games is het storend maar ook bij mass effect vond ik het zo erg dat ik liever 40 fps had dan 80 en dus met een kaart ben blijven werken.
Dus ik ben blij dat het nu aangepakt wordt en er focus voor is. Misschien is dit verschijnsel over een jaar verleden tijd en zijn de verschillen zo klein dat we ze niet meer opmerken en SLi en CF wel echte alternatieve zijn voor dure kaarten. Want dan zijn dingen als HD7850 in CF heel interessant.
Ex HD4870 CF en daarna HD5970 (op de eeuwige jachtvelden) + HD5850 Tri-Fire gebruiker.
Hit or mis, het werkte geweldig of het werkte helemaal niet.
Helaas ging het vaak goed met titels die op een enkele kaart al soepel draaide (Source) en fout met titels die de extra GPU('s) goed kon gebruiken (FC2).
(Nadat de HD5970 het begaf overgestapt naar 3-Way GTX680 SLI en daarna naar GTX690 Quad SLI, het schaalt niet altijd perfect maar micro-stuttering is bijna niet aanwezig)
Jammer dat AMD het probleem pas serieus nam nadat gerespecteerde sites als Techreport/PCPER het glashard aantoonden met tools van de concurrent.
ATI wist al in 2008 dat Microstutering een echt probleem was.
The whole point of doing CrossFire in alternate frame rendering mode (AFR) is that the chips never have to talk. The minute you have to start synchronizing them, you kill performance. Sideport was supposed to alleviate that.
Unfortunately, due to power reasons, Sideport was never used on the 4870 X2. ATI’s reference design had it disabled and all vendors followed suit.
Sideport was Carrell Killebrew’s favorite feature, and he had to give it up.
A bunch of my conversation with Carrell at this point had to go off the record. Sideport would have been useful in RV870, but it’s unfortunately not there. Although he did tell me not to be surprised if I saw Sideport again at some point. Carrell doesn’t give up easily.
[ Voor 3% gewijzigd door Zanac-ex op 24-05-2013 14:20 ]
Ik kan uiteraard niet tegenspreken dat een single CPU beter is.Astennu schreef op vrijdag 24 mei 2013 @ 10:14:
[...]
Dat is het dusik ben nooit echt tevreden geweest. Ik merkte jaren terug al met mijn 3870 X2 4870 X2 en 5970 dat sommige games gewoon stutters hadden terwijl ik wel 80 fps had. Met mijn Single GPU had ik het niet of als je CF uit zette. Later ook hetzelfde toen ik mass effect met 2x 7970 ging spelen. Het liep gewoon minder vloeiend terwijl de FPS bijna 2x zo hoog was. Vooral bij race games is het storend maar ook bij mass effect vond ik het zo erg dat ik liever 40 fps had dan 80 en dus met een kaart ben blijven werken.
Dus ik ben blij dat het nu aangepakt wordt en er focus voor is. Misschien is dit verschijnsel over een jaar verleden tijd en zijn de verschillen zo klein dat we ze niet meer opmerken en SLi en CF wel echte alternatieve zijn voor dure kaarten. Want dan zijn dingen als HD7850 in CF heel interessant.
Maar er is inmiddels wel een hoop veranderd in SLI en CF land.
Mijn eerste SLI ervaring met nVidia 280GTX 1GB MSI Super OC Edition was eigenlijk achteraf gewoon vrij slecht.
Mijn eerste CF ervaring daarna met AMD HD6950 2GB MSI was al stukken beter. Ja er was Microstuttering en Spikes alsmede driverproblemen bij nieuwe games maar all in all was de ervaring voor mij beter dan single GPU.
Nu zit ik op mijn 3e Multi GPU oplossing, 670GTX in SLI en het is echt supersmooth. Ook heb ik nog geen driverproblemen gehad bij (nieuwe) games.
Heb je recentelijk nog een goede SLI set geprobeerd?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Vergeet niet dat er eerder gewoon benchmarks werden afgeraffeld en men naar de fps uitkomst keek en daar conclusies aan verbond. Nu wordt er ook veel meer gekeken naar de speelervaring en komen ze er samen met de frametime metingen opeens achter dat er toch wel het een en ander schort aan de speelbaarheid. Filmpjes laten die microstuttering gewoon ook behoorlijk duidelijk zien, al is het bij de ene game natuurlijk veel sterker dan de ander.nero355 schreef op vrijdag 24 mei 2013 @ 01:44:
[...]
Jeetje zeg... waarom is iedereen zo vreselijk negatief geworden over SLI en Crossfire sinds dat "latency meten" verhaal van een tijdje geleden
Al die jaren was iedereen er tevreden mee en nu is het opeens alsof al die kaarten stuk zijn in SLI of Crossfire mode
Een (enigszins goede) review site als HardOCP geeft nu bijv. ook de voorkeur aan een GTX Titan, boven een SLI of CF optie welke ongeveer hetzelfde of zelfs iets minder kost, ondanks dat ze minder fps hebben. De vloeiende beelden geeft nu eenmaal een betere ervaring en dat is waar het om draait.
Ben trouwens benieuwd hoe lang (juni/juli?) we nog moeten wachten op de nieuwe drivers van AMD m.b.t. CF. Wordt het frametime verhaal weer nieuw leven ingeblazen...

Mja, dat is dus ook mijn ervaring : Het loopt gewoon prima in zowel oude als nieuwe games. Ik doe Crossfire alleen uit in rFactor, omdat het in een paar gevallen wat rare effecten geeft, maar dat probleem heb je ook bij SLI dus is het echt een rFactor bugVersteegrob schreef op vrijdag 24 mei 2013 @ 09:43:
Snap de ophef ook niet echt tegen crossfire. Speel nu ruim een maand met crossfire en het speelt voor mij nagenoeg hetzelfde als een enkele kaart. Speel vrij veel BF3 en ben nog steeds net zo goed. Win nog steeds vaak genoeg potjes. Snelheid is alles in een game zoals BF3 dus hoe slecht is crossfire nou echt in de praktijk? Speel met 2 x 7970 op 3 x 24 inch en zelfs Crysis 3 loopt geweldig.
Ik vraag me af of het misschien beter te merken is op een 120 Hz TFT of een CRT eventueelHoeveel last heb je hiervan in de praktijk? Snel heb ik er nog niks van gemerkt maar misschien ben ik niet zo kritisch als jij. Is het bij bepaalde games meer aanwezig? Weet wel dat AMD met software bezig is zodat het minder lijkt. Merk er dus gelukkig niks dus ik klaag niet. Ben juist erg tevreden over crossfire.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
^
Tja, als jullie tevreden zijn met CF dan ben je tevreden. Toch?
Maar zie je de verschillen / haperingen e.d. dan niet in de filmpjes tussen CF/SLI die her en der te vinden zijn.
Voor mij is het heel simpel, ik zie het heel duidelijk. Daarnaast tonen de nieuwe reviewtechnieken aan dat CF broken is. Ik vind de haperingen storend. Dus als de aankoopbeslissing afhangt van puur de beste prestaties in multigpu dan ga ik momenteel voor hetzelfde geld voor een nVidia setup.
Ergens houden jullie jezelf voor de gek imho.
Tja, als jullie tevreden zijn met CF dan ben je tevreden. Toch?
Maar zie je de verschillen / haperingen e.d. dan niet in de filmpjes tussen CF/SLI die her en der te vinden zijn.
Voor mij is het heel simpel, ik zie het heel duidelijk. Daarnaast tonen de nieuwe reviewtechnieken aan dat CF broken is. Ik vind de haperingen storend. Dus als de aankoopbeslissing afhangt van puur de beste prestaties in multigpu dan ga ik momenteel voor hetzelfde geld voor een nVidia setup.
Ergens houden jullie jezelf voor de gek imho.
[ Voor 5% gewijzigd door Help!!!! op 25-05-2013 10:42 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nee, ze houden zichzelf niet voor de gek, sommige mensen zijn er gevoeliger voor dan anderen en voor die anderen is het heel fijn dat ze dus wel op een prettige manier gebruik kunnen maken van sli of crossfire.
Ik merk het zelf ook heel erg en vind het ontzettent storend, het lijkt door een enkele stutter alsof je op een veel lagere framerate draait en dan ineens gaat het weer even te vloeiend omdat de framepjes daarna alweer gedeeltelijk klaar liggen (dit gebeurd vaak in BO2 bij mij) en wel op tijd afgeleverd worden, echt irritant. Ik zit soms uren settings te tweaken, maar het uiteindelijke resultaat is dat de stutters blijven en het gewoon niet smooth te krijgen is. Daarom ben ik nu van plan om veel te veel geld uit te geven aan een gtx780 om eindelijk lekker op 120hz te kunnen spelen.
Een sli of crossfiresetup zal er niet inkomen totdat er dus totaal _NUL_ extra stutters/lags/watdanook gegarandeerd kan worden, ik ga niet 2 kaarten halen om extra problemen te krijgen, liever minder frames, of flink het detail terugschroeven dan haperen op welke manier dan ook.
In ander nieuws, heeft een van jullie Nvidia gebruikers ooit lightboost in 2d geprobeerd?
Ik draai het nu zo'n 3 maanden op mijn hd6970 na het geactiveerd te hebben op mijn oude 8800GT en het is echt mooi.
Wat is lightboost 2d dan meneer paazeitje?
nou, dat zal ik jullie vertellen:
Normaal gesproken heeft een lcd monitor een backlight die constant aanstaat, dit zorgt ervoor dat je alles ziet wat het scherm doet en je ogen constant belicht worden.
Lightboost is een techniek van Nvidia gemaakt voor 3d-shutter brillen om zo de crosstalk tusen je ogen alsmede de lichtsterkte te verbeteren. Wat het in essentie doet is je backlight in een stoboscoopstand zetten en alleen een korte pulse te geven wanneer de pixels grotendeels klaar zijn met hun transitie zodat alleen dat beeld exra fel uitgelicht wordt, op dat moment staat ook je shutter open en BAM volle bak licht (meer licht dan normaal gesproken binnenkomt terwijl de shutter openstaat) van een stilstaand framepje die uitgetransitioneerd is.
Leuk, ik heb geen 3d-bril dus dat kan me ook allemaal niet zoveel boeien..
Hetgene dat deze techniek echter heel interessant maakt is dat je het ook kan gebruiken in 2d mode. Wat doet het dan? Precies hetzelfde met alle voordelen en een paar nadelen.
Je krijgt dus alleen 120x per seconde een frame te zien op het moment dat de pixels klaar zijn met hun transitie van kleur, al die transitie wordt dus gedaan in het donker en komt niet als smeer/blur op je scherm. Daarnaast heeft het hebben van een stroboscopische backlight ook voordelen voor motiontracking, maar dat kan ik allemaal niet zo goed uitleggen, komt erop neer dat je ogen makkelijker een object kunnen volgen wanneer je een beeld op het netvlies brand ipv alles constant belichten.
Ik kan het niet zogoed uitleggen, maar daarvoor wil ik doorverwijzen naar Hardforum als je geintresseerd bent.
Wat we nu dus hebben is bijna blurvrije bewegingen, hoge resolutietextures worden niet meer uitgesmeerd, maar zijn elk framepje kristalhelder, je kan personen/voertuigen veel makkelijker tracken, kleine details zien bewegen, het is echt een mooie ervaring om eindelijk van de nadelen van het langzame lcd af te zijn en weer helder te kunnen spelen.
Als ik nu een venster over mijn desktop sleep kan ik de text altijd lezen, hoe snel ik ook beweeg, als mijn ogen het kunnen tracken en ik 120fps haal, (wat op de desktop altijd kan natuurlijk) dan is het kraakhelder.
Er zitten wat kleine nadelen aan, zoals je beeld wordt wat dimmer (logisch je backlight staat 3/4 van de tijd uit, maar de pulse is 2x zo fel) de kleuren verschuiven een beetje, je ziet de kleine artifacts van pixeloverdrive en andere dingetjes (pixels staan nooit stil, lcd's zijn te langzaam), maar die wegen niet op tegen de hoeveelheid blur die je ermee verwijderd.
Algoed, ik post het hier, de techniek kan namelijk alleen geactiveerd worden door een Nvidia-kaart en je moet een scherm hebben dat lightboost ondersteund (alle 144hz schermen doen dit), maar dan gaat er een wereld voor je open.
Voor mensen die nog op een CRT gamen is dit de uitkomst.
-> http://hardforum.com/showthread.php?t=1734114
Voor wie wil weten hoeveel verschil, probeer een Pixperan test en kijk hoe hoog je komt. Met lightboost komen mensen tot 30 (hoger gaat de test niet) ik kan het niet testen want de test werkt niet onder w8.
Oh crap, ik zie nu pas dat dit niet het nvidiatopic is, maar ati, sorry.. werkt alsnog als je een nvidia kaart hebt om het even te triggeren, een laptop met dual-dvi en nvidiakaart kan ook, daarna kan je door de timings van je monitor aan te passen lightboost permanent fixeren.
Ik merk het zelf ook heel erg en vind het ontzettent storend, het lijkt door een enkele stutter alsof je op een veel lagere framerate draait en dan ineens gaat het weer even te vloeiend omdat de framepjes daarna alweer gedeeltelijk klaar liggen (dit gebeurd vaak in BO2 bij mij) en wel op tijd afgeleverd worden, echt irritant. Ik zit soms uren settings te tweaken, maar het uiteindelijke resultaat is dat de stutters blijven en het gewoon niet smooth te krijgen is. Daarom ben ik nu van plan om veel te veel geld uit te geven aan een gtx780 om eindelijk lekker op 120hz te kunnen spelen.
Een sli of crossfiresetup zal er niet inkomen totdat er dus totaal _NUL_ extra stutters/lags/watdanook gegarandeerd kan worden, ik ga niet 2 kaarten halen om extra problemen te krijgen, liever minder frames, of flink het detail terugschroeven dan haperen op welke manier dan ook.
In ander nieuws, heeft een van jullie Nvidia gebruikers ooit lightboost in 2d geprobeerd?
Ik draai het nu zo'n 3 maanden op mijn hd6970 na het geactiveerd te hebben op mijn oude 8800GT en het is echt mooi.
Wat is lightboost 2d dan meneer paazeitje?
nou, dat zal ik jullie vertellen:
Normaal gesproken heeft een lcd monitor een backlight die constant aanstaat, dit zorgt ervoor dat je alles ziet wat het scherm doet en je ogen constant belicht worden.
Lightboost is een techniek van Nvidia gemaakt voor 3d-shutter brillen om zo de crosstalk tusen je ogen alsmede de lichtsterkte te verbeteren. Wat het in essentie doet is je backlight in een stoboscoopstand zetten en alleen een korte pulse te geven wanneer de pixels grotendeels klaar zijn met hun transitie zodat alleen dat beeld exra fel uitgelicht wordt, op dat moment staat ook je shutter open en BAM volle bak licht (meer licht dan normaal gesproken binnenkomt terwijl de shutter openstaat) van een stilstaand framepje die uitgetransitioneerd is.
Leuk, ik heb geen 3d-bril dus dat kan me ook allemaal niet zoveel boeien..
Hetgene dat deze techniek echter heel interessant maakt is dat je het ook kan gebruiken in 2d mode. Wat doet het dan? Precies hetzelfde met alle voordelen en een paar nadelen.
Je krijgt dus alleen 120x per seconde een frame te zien op het moment dat de pixels klaar zijn met hun transitie van kleur, al die transitie wordt dus gedaan in het donker en komt niet als smeer/blur op je scherm. Daarnaast heeft het hebben van een stroboscopische backlight ook voordelen voor motiontracking, maar dat kan ik allemaal niet zo goed uitleggen, komt erop neer dat je ogen makkelijker een object kunnen volgen wanneer je een beeld op het netvlies brand ipv alles constant belichten.
Ik kan het niet zogoed uitleggen, maar daarvoor wil ik doorverwijzen naar Hardforum als je geintresseerd bent.
Wat we nu dus hebben is bijna blurvrije bewegingen, hoge resolutietextures worden niet meer uitgesmeerd, maar zijn elk framepje kristalhelder, je kan personen/voertuigen veel makkelijker tracken, kleine details zien bewegen, het is echt een mooie ervaring om eindelijk van de nadelen van het langzame lcd af te zijn en weer helder te kunnen spelen.
Als ik nu een venster over mijn desktop sleep kan ik de text altijd lezen, hoe snel ik ook beweeg, als mijn ogen het kunnen tracken en ik 120fps haal, (wat op de desktop altijd kan natuurlijk) dan is het kraakhelder.
Er zitten wat kleine nadelen aan, zoals je beeld wordt wat dimmer (logisch je backlight staat 3/4 van de tijd uit, maar de pulse is 2x zo fel) de kleuren verschuiven een beetje, je ziet de kleine artifacts van pixeloverdrive en andere dingetjes (pixels staan nooit stil, lcd's zijn te langzaam), maar die wegen niet op tegen de hoeveelheid blur die je ermee verwijderd.
Algoed, ik post het hier, de techniek kan namelijk alleen geactiveerd worden door een Nvidia-kaart en je moet een scherm hebben dat lightboost ondersteund (alle 144hz schermen doen dit), maar dan gaat er een wereld voor je open.
Voor mensen die nog op een CRT gamen is dit de uitkomst.
-> http://hardforum.com/showthread.php?t=1734114
Voor wie wil weten hoeveel verschil, probeer een Pixperan test en kijk hoe hoog je komt. Met lightboost komen mensen tot 30 (hoger gaat de test niet) ik kan het niet testen want de test werkt niet onder w8.
Oh crap, ik zie nu pas dat dit niet het nvidiatopic is, maar ati, sorry.. werkt alsnog als je een nvidia kaart hebt om het even te triggeren, een laptop met dual-dvi en nvidiakaart kan ook, daarna kan je door de timings van je monitor aan te passen lightboost permanent fixeren.
[ Voor 6% gewijzigd door paazei op 25-05-2013 16:06 ]
UIteraard houden ze zichzelf voor de gek. Als de reviews aantonen dat de "echte" framerate ongeveer gelijk is aan een singlecard.paazei schreef op zaterdag 25 mei 2013 @ 13:25:
Nee, ze houden zichzelf niet voor de gek, sommige mensen zijn er gevoeliger voor dan anderen en voor die anderen is het heel fijn dat ze dus wel op een prettige manier gebruik kunnen maken van sli of crossfire.
http://www.pcper.com/file...31/BF3_1920x1080_OFPS.png
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Let it be, SLI wordt toch ook gegeneraliseerd als slecht, puur omdat de CFX-ervaring(en) bij sommigen slecht zijn? Het aantal dat over beide opties klaagt en ze ook beide werkelijk getest heeft in de afgelopen 2 jaar is waarschijnlijk lang niet zo hoog als vaak wordt beweerd. Sterker nog, iedereen op WSGF is zo goed als geswitched van CFX naar SLI, omdat daar iedereen zegt hoe groot de verschillen wel niet zijn. Dit wordt dan wel ook versterkt door het feit dat je met 3 monitoren al snel amper 60 fps haalt, en dan zijn de verschillen tussen de 2 merken nogal reusachtig bij een dual-GPU opstelling (voelt als 35 vs 55-60).
Uiteindelijk blijft het ieder zijn eigen geld, en is het dan ook een eigen keuze wat men koopt, en wat voor redenen men al niet kan bedenken om de eigen aankopen goed te praten (zie ook alle Titan verdedigingen nu zoals 6GB is een must voor 1080p
). Het is alleen jammer dat dit soms ten koste moet gaan van mensen die minder kennis hebben op dit gebied en dan maar gewoon de meningen van anderen overnemen terwijl deze dus lang niet altijd kloppen.
Dit betekent overigens niet dat SLI wel perfect is voor iedereen, maar zeker wel door het grootste deel wordt ervaren als goed, en een heel groot deel als beter dan...
Overigens blijft dit toch wel de duidelijkste, http://www.pcper.com/revi...e-Rating-Update/Frame-Rat
Uiteindelijk blijft het ieder zijn eigen geld, en is het dan ook een eigen keuze wat men koopt, en wat voor redenen men al niet kan bedenken om de eigen aankopen goed te praten (zie ook alle Titan verdedigingen nu zoals 6GB is een must voor 1080p
Dit betekent overigens niet dat SLI wel perfect is voor iedereen, maar zeker wel door het grootste deel wordt ervaren als goed, en een heel groot deel als beter dan...
Overigens blijft dit toch wel de duidelijkste, http://www.pcper.com/revi...e-Rating-Update/Frame-Rat
[ Voor 6% gewijzigd door Paprika op 25-05-2013 14:49 ]
UIteraard mag iedereen het zelf weten.Paprika schreef op zaterdag 25 mei 2013 @ 14:40:
....
Uiteindelijk blijft het ieder zijn eigen geld, en is het dan ook een eigen keuze wat men koopt, en wat voor redenen men al niet kan bedenken om de eigen aankopen goed te praten (zie ook alle Titan verdedigingen nu zoals 6GB is een must voor 1080p).
Precies. En daarom dus niet "let it be".Het is alleen jammer dat dit soms ten koste moet gaan van mensen die minder kennis hebben op dit gebied en dan maar gewoon de meningen van anderen overnemen terwijl deze dus lang niet altijd kloppen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nee want ik ben zelf niet zo kapot van nVidia. Ik vind CCC veel prettiger werken. Ik heb een 570M in mijn notebook. Werkt allemaal prima. Maar als ik dan mag kiezen heb ik liever een AMD kaart.Help!!!! schreef op vrijdag 24 mei 2013 @ 14:15:
[...]
Ik kan uiteraard niet tegenspreken dat een single CPU beter is.
Maar er is inmiddels wel een hoop veranderd in SLI en CF land.
Mijn eerste SLI ervaring met nVidia 280GTX 1GB MSI Super OC Edition was eigenlijk achteraf gewoon vrij slecht.
Mijn eerste CF ervaring daarna met AMD HD6950 2GB MSI was al stukken beter. Ja er was Microstuttering en Spikes alsmede driverproblemen bij nieuwe games maar all in all was de ervaring voor mij beter dan single GPU.
Nu zit ik op mijn 3e Multi GPU oplossing, 670GTX in SLI en het is echt supersmooth. Ook heb ik nog geen driverproblemen gehad bij (nieuwe) games.
Heb je recentelijk nog een goede SLI set geprobeerd?
Ik geloof je meteen dat er veel verandert is. Zeker nu AMD ook focus op micro stuttering heeft. Het zou zo maar kunnen dat het volgend jaar prima werkt en weer een goede optie zal zijn.
Ik zal het wel weer eens een keer gaan testen als ik toch een nieuwe HD79xx voor mijn broer ga regelen. Dan test ik hem wel even naast mijn huidige HD7970. Kan ik eens kijken hoe het nu loopt.
Het verbruik is ook verbeterd. Bij AMD schakelt een 2e kaart in 2D zo goed als uit. Dus daar heb je ook minder nadelen van als je niet aan het gamen bent.
Sommige mensen zijn er niet gevoelig voor. Dus het kan dat bepaalde mensen er geen last van hebben. Maar aan de andere kant zouden die mensen dan ook niet voor CF of SLI hoeven gaan want dan heb je ook minder last van het stotteren door lage FPS.Help!!!! schreef op zaterdag 25 mei 2013 @ 10:41:
^
Tja, als jullie tevreden zijn met CF dan ben je tevreden. Toch?
Maar zie je de verschillen / haperingen e.d. dan niet in de filmpjes tussen CF/SLI die her en der te vinden zijn.
Voor mij is het heel simpel, ik zie het heel duidelijk. Daarnaast tonen de nieuwe reviewtechnieken aan dat CF broken is. Ik vind de haperingen storend. Dus als de aankoopbeslissing afhangt van puur de beste prestaties in multigpu dan ga ik momenteel voor hetzelfde geld voor een nVidia setup.
Ergens houden jullie jezelf voor de gek imho.
Daarnaast verschilt het wel per game. Dat was met de 4870 X2 en de 5970 ook. Soms werkte het echt goed en was er geen micro stuttering. (in ieder geval zo weinig dat je het niet merkte) Maar soms wel erg veel en was het zwaar irritant.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zowel CCC als nVidia's oplossing werken prima voor mij. Ik ben ook meer AMD fan dan nVidia, m.n. vanwege het feit dat ze minder aggressief zijn en minder closed tech proberen te pushen. Maar dat weet je wel van me denk ik. Maar ik probeer het wel zo objectief mogelijk te bekijken.Astennu schreef op maandag 27 mei 2013 @ 08:51:
[...]
Nee want ik ben zelf niet zo kapot van nVidia. Ik vind CCC veel prettiger werken. Ik heb een 570M in mijn notebook. Werkt allemaal prima. Maar als ik dan mag kiezen heb ik liever een AMD kaart.
Ik geloof je meteen dat er veel verandert is. Zeker nu AMD ook focus op micro stuttering heeft. Het zou zo maar kunnen dat het volgend jaar prima werkt en weer een goede optie zal zijn.
Ik zal het wel weer eens een keer gaan testen als ik toch een nieuwe HD79xx voor mijn broer ga regelen. Dan test ik hem wel even naast mijn huidige HD7970. Kan ik eens kijken hoe het nu loopt.
Het verbruik is ook verbeterd. Bij AMD schakelt een 2e kaart in 2D zo goed als uit. Dus daar heb je ook minder nadelen van als je niet aan het gamen bent.
Echter als je puur naar de gebruikservaring kijkt doen ze imho op single gpu weinig onder voor elkaar.
Los vd titan is een 79x0 vanwege prijs/prestatie en meer RAM momenteel interessanter dan een 670/680.
Qua multi-gpu zijn er momenteel weinig goede objectieve redenen om voor AMD te gaan.
Natuurlijk is single gpu altijd beter maar ik denk dat te weinig mensen een goede recente nVidia SLI setup hebben getest. Dat is echt een goede ervaring en een reeele optie.
Het is dat je wat ver uit de buurt woont anders had je zo langs mogen komen om het eens goed te proberen.
(Niet om te laten zien dat nVidia nou zo geweldig is, maar om te laten zien dat multi gpu echt een goede oplossing kan zijn)
Natuurlijk is de ene persoon gevoeliger dan de andere maar als ik het aanwijs zal ook een ongevoelige persoon het al snel wel zien verwacht ik.[...]
Sommige mensen zijn er niet gevoelig voor. Dus het kan dat bepaalde mensen er geen last van hebben. Maar aan de andere kant zouden die mensen dan ook niet voor CF of SLI hoeven gaan want dan heb je ook minder last van het stotteren door lage FPS.
Daarnaast verschilt het wel per game. Dat was met de 4870 X2 en de 5970 ook. Soms werkte het echt goed en was er geen micro stuttering. (in ieder geval zo weinig dat je het niet merkte) Maar soms wel erg veel en was het zwaar irritant.
Qua multi-gpu zijn er een paar issues:
Micro Stuttering
Inherent aan de SLI/CF techniek. Mijn stelling is echter dat het bij nVidia zo goed onder controle is dat je het amper/niet merkt.
Runt/dropped/peak frames
Dit is waar AMD heel veel last van heeft. In feite zie je op je scherm meestal niet meer frames dan een single-gpu kaart.
Als je dus roept dat CF "prima' werkt dan kan je die perceptie wel hebben maar als de tests uitwijzen dat je beeld niet vloeiender is dan een single gpu, dan is dat imho een erg dure manier om voor je gevoel een premium game ervaring te hebben. En dan zeg ik: je houdt je zelf voor de gek.
Momenteel zijn de kaarten behoorlijk geschud. Ben zelf vooral erg benieuwd naar de refresh eind dit jaar / begin volgend jaar
Mocht de AMD en nVidia refresh vergelijkbaar zijn qua technnische mogelijkheden/prestaties, dan denk ik dat AMD erg interessant gaat worden. Vooral ook omdat ze in alle consoles zitten.
Daarnaast hebben ze hun Dev relations enorm verbeterd en zijn goed bezig met hun bundled games.
Wel moeten ze hun multi-gpu (ook voor eyefinity) met grote spoed op gelijke hoogte zien te krijgen als nVidia. Dat zou ze hopelijk wel moeten lukken voor die tijd.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Mja dat is jouw mening, maar geloof mij nou maar dat als je 3 schermen hebt in EyeFinity of in geval van nVidia Surround Gaming je echt niet blij wordt van maar 1 snelle kaart : Dan wil je er minimaal 2 hebben en dan is Crossfire of SLI gewoon een must haveHelp!!!! schreef op maandag 27 mei 2013 @ 13:21:
Als je dus roept dat CF "prima' werkt dan kan je die perceptie wel hebben maar als de tests uitwijzen dat je beeld niet vloeiender is dan een single gpu, dan is dat imho een erg dure manier om voor je gevoel een premium game ervaring te hebben. En dan zeg ik: je houdt je zelf voor de gek.
Verder zeg ik ook niet dat al die tests ongelijk hebben of zo, maar door die tests krijg je nu wel een hoop mensen die maar een beetje elkaar napraten en met de rest mee gaan zitten roepen hoe slecht een multi GPU opstelling wel niet is zonder het daadwerkelijk zelf meegemaakt te hebben gewoon thuis met hun eigen PC


Een zeldzaam voorbeeld van iemand die het zelf getest heeft is Astennu bijvoorbeeld en als die zegt "Ik vind het niks." dan kan ik dat begrijpen, maar ga me niet vertellen dat ineens 90% van de members van een willekeurige website of forum meerdere kaarten in zijn eigen PC heeft gehad : No way.
En die roepen ondertussen wel net zo hard mee met de rest over de o zo slechte ervaringen die ze zogenaamd hebben met Crossfire of SLI

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Kom je nu met het relaas dat je eigenlijk niks over product X kunt zeggen als je product X niet hebt gehad? En al helemaal niks kunt zeggen van product X t.o.v. product Y als je beiden niet hebt gehad?
Waarom kijken we überhaupt nog naar reviews als we vervolgens niks met die informatie zouden mogen doen omdat die puur en alleen op reviews is gebaseerd en niet op eigen ervaring?
Astennu zijn menig is leuk, maar weegt eigenlijk net zoveel als iedereen zijn mening. Het is maar net wie je vertrouwd/kent en welke reputatie deze persoon bij jou heeft. Idem met de review sites, deze laten vaak ook discrepanties zien, welke review site heeft het bij het rechte eind? Over dit laatste zijn vaak ook al oeverloze discussies. Kun je na gaan als Astennu X zegt en Pietje Y zegt. Vervolgens krijgen ze een dikke discussie over elkaars standpunten die ze proberen te staven met feiten die ze weer uit reviews hebben welke onderling dusdanige discrepanties vertonen waardoor zowel X als Y overtuigd zijn van hun gelijk.
Waarom kijken we überhaupt nog naar reviews als we vervolgens niks met die informatie zouden mogen doen omdat die puur en alleen op reviews is gebaseerd en niet op eigen ervaring?
Astennu zijn menig is leuk, maar weegt eigenlijk net zoveel als iedereen zijn mening. Het is maar net wie je vertrouwd/kent en welke reputatie deze persoon bij jou heeft. Idem met de review sites, deze laten vaak ook discrepanties zien, welke review site heeft het bij het rechte eind? Over dit laatste zijn vaak ook al oeverloze discussies. Kun je na gaan als Astennu X zegt en Pietje Y zegt. Vervolgens krijgen ze een dikke discussie over elkaars standpunten die ze proberen te staven met feiten die ze weer uit reviews hebben welke onderling dusdanige discrepanties vertonen waardoor zowel X als Y overtuigd zijn van hun gelijk.
Nee : Ik zeg alleen dat een lullig probleempje totaal overdreven de wereld in is gebracht en nu iedereen ineens niks van Crossfire of SLI moet hebben, terwijl er zonder dat onderzoek bijna niemand of erg weinig gebruikers over stotteren zouden klagen.
Nu is die groep ineens groter geworden dan die ooit had kunnen zijn omdat een hoop mensen elkaar maar een beetje napraten naar aanleiding van een review en dat vind ik een beetje jammer...
Als je op die manier andere produkten zoals TFT's bekijkt om maar wat te noemen dan hadden TN panelen nooit het daglicht mogen zien
Zo wordt nu een beetje over multiGPU gedacht in feite...
Nu is die groep ineens groter geworden dan die ooit had kunnen zijn omdat een hoop mensen elkaar maar een beetje napraten naar aanleiding van een review en dat vind ik een beetje jammer...
Als je op die manier andere produkten zoals TFT's bekijkt om maar wat te noemen dan hadden TN panelen nooit het daglicht mogen zien
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ja ik ben het met je eens hoor
Ik heb zelf een HD6850CF setup gehad. Microstuttering heb ik nooit gezien dus ik kan me ook niet vinden in al die tam tam. Enige probleem dat ik had met CF had was flikkering van dingen die niet helemaal goed gerenderd werden en dit probleem ben ik alleen bij BFBC2 tegengekomen.
Heb zelf 6950 in CFX gehad, nooit problemen mee gehad! Heb nu 7950 in CFX ook nooit problemen mee gehad. Of dingen als micro-stuttering. Of ik merk het gewoon niet.. Maar in de games die ik speel en heb gespeeld liep alles altijd goed!
Helemaal mee eens. Het is ook mijn persoonlijke voorkeur. Maar het is ook om aan te geven dat ik wel een nVidia GPU heb en op basis daar van liever met CCC werk.Help!!!! schreef op maandag 27 mei 2013 @ 13:21:
[...]
Zowel CCC als nVidia's oplossing werken prima voor mij. Ik ben ook meer AMD fan dan nVidia, m.n. vanwege het feit dat ze minder aggressief zijn en minder closed tech proberen te pushen. Maar dat weet je wel van me denk ik. Maar ik probeer het wel zo objectief mogelijk te bekijken.
Echter als je puur naar de gebruikservaring kijkt doen ze imho op single gpu weinig onder voor elkaar.
Los vd titan is een 79x0 vanwege prijs/prestatie en meer RAM momenteel interessanter dan een 670/680.
Qua multi-gpu zijn er momenteel weinig goede objectieve redenen om voor AMD te gaan.
Natuurlijk is single gpu altijd beter maar ik denk dat te weinig mensen een goede recente nVidia SLI setup hebben getest. Dat is echt een goede ervaring en een reeele optie.
Het is dat je wat ver uit de buurt woont anders had je zo langs mogen komen om het eens goed te proberen.
(Niet om te laten zien dat nVidia nou zo geweldig is, maar om te laten zien dat multi gpu echt een goede oplossing kan zijn)
De HD7970 is imo wat meer future proof dan de GTX680. Maar hij verbruikt wel meer als je aan het gamen bent. Voor de resolutie die ik gebruik is dat ook een betere keuze dan de 680.
Ik geloof je meteen dat SLi beter werkt. De tests met de frame times laten zien dat SLi oplossingen daar erg goed scoren. Maar ook daar zie je dat niet elk spel perfect werkt. Ik denk dat dit wel zal verbeteren in de komende jaren en dat het over 1-2 jaar gewoon geen issue meer is.
Je ziet ook dat AMD grote sprongen vooruit aan het maken is. Dus misschien wordt CF straks wel weer echt een optie. Op dit moment is dat niet het geval.
Je hebt gelijk dat je het eigenlijk moet ervaren maar je gaat niet zo maar 2 nVidia kaarten kopen om het te testen. Daarnaast is een 7970 OC op dit moment voldoende. Soms moet de instellingen een beetje tweaken om helemaal soepele gameplay op 2560x1600 te hebben (bv AOC of andere extreem zware IQ features die relatief weinig opleveren uit zetten) maar de meeste games draaien erg goed. Zodat een SLi / CF setup geen noodzaak is.
Al moet ik zeggen dat Titan achtige performance wel lekker zou zijn. Ik hoop dan ook dat AMD eind dit jaar nog met een echte opvolger van de 7970 komt die 20-30% sneller is. Dan is er voor mij geen noodzaak om voor dual GPU te gaan. Tenzij ik ga upgraden naar een 4K2K scherm. Maar die willen maar niet uit komen (in een betaalbaar segment 1000-2000 euro)
Maar het kan toch zijn dat dit runt frames niet altijd op treden? het kan toch zijn dat het in een bepaald spel amper voor komt omdat het uit zichzelf gewoon goed aansluit bij de timings van de engine, video kaart en het scherm?Natuurlijk is de ene persoon gevoeliger dan de andere maar als ik het aanwijs zal ook een ongevoelige persoon het al snel wel zien verwacht ik.
Qua multi-gpu zijn er een paar issues:
Micro Stuttering
Inherent aan de SLI/CF techniek. Mijn stelling is echter dat het bij nVidia zo goed onder controle is dat je het amper/niet merkt.
Runt/dropped/peak frames
Dit is waar AMD heel veel last van heeft. In feite zie je op je scherm meestal niet meer frames dan een single-gpu kaart.
Als je dus roept dat CF "prima' werkt dan kan je die perceptie wel hebben maar als de tests uitwijzen dat je beeld niet vloeiender is dan een single gpu, dan is dat imho een erg dure manier om voor je gevoel een premium game ervaring te hebben. En dan zeg ik: je houdt je zelf voor de gek.
Momenteel zijn de kaarten behoorlijk geschud. Ben zelf vooral erg benieuwd naar de refresh eind dit jaar / begin volgend jaar![]()
Mocht de AMD en nVidia refresh vergelijkbaar zijn qua technnische mogelijkheden/prestaties, dan denk ik dat AMD erg interessant gaat worden. Vooral ook omdat ze in alle consoles zitten.
Daarnaast hebben ze hun Dev relations enorm verbeterd en zijn goed bezig met hun bundled games.
Wel moeten ze hun multi-gpu (ook voor eyefinity) met grote spoed op gelijke hoogte zien te krijgen als nVidia. Dat zou ze hopelijk wel moeten lukken voor die tijd.
Ik moet zeggen dat ik er toen de tijd niet zo mee bezig was. Toen was dit allemaal nog niet zo bekend. Toen kwam de term micro stuttering net om de hoek kijken omdat mensen soms dat soort problemen ervaarde. Het was toen niet altijd zo. En toen was het gelukkig wel vaker zo dat de 4870 X2 een betere game play gaf dan een single HD4890 OC. Het was toen wel soepeler.
Dat wilde inderdaad niet zeggen dat de runt frames er niet waren en het dus nog vloeiender had kunnen zijn. Er waren toen ook games waarbij je ondanks de hogere FPS wel een slechtere gameplay had. En dat is dan een duidelijk probleem.
Maar goed het verleden boeit niet zo veel meer. Het gaat om de toekomst. En gelukkig zijn AMD en nVidia beide druk bezig om SLi en CF steeds beter te maken.
Daarnaast denk ik ook dat er nu steeds meer naar hardware matige oplossingen gekeken gaat worden (zoals de sideport) om te zorgen dat dit soort problemen niet meer voor komen.
Ik ben het ook met je eens dat het heel spannend gaat worden. Zeker nu de twee belangrijkste consoles CGN gebruiken. Dit is in mijn ogen een voordeel voor de AMD desktop kaarten omdat meer dev's met die architectuur werken en er dus meer voor gaan optimaliseren. Wellicht komen er dan ook optimalisaties naar het windows/linux platform of in ieder geval in de engine. En misschien ook aan de soort van workload die nodig is voor de beelden. Denk aan veel pixel weinig geometry of juist andersom.
De tijd zal het leren. Maar gelukkig is er in de GPU markt wel veel concurrentie.
Je ziet in de CPU markt dat het niet meer wilt opschieten. 10-15% performance winst per jaar is echt weinig. Bij GPU's ligt dat percentage gelukkig nog iets hoger.
Kan inderdaad dat je het gewoon niet merkt. Maar het wil niet zeggen dat het er niet is. In de ene game is het erger dan de ander. Maar tests wijzen wel uit dat het er is.Grudgie schreef op maandag 27 mei 2013 @ 22:45:
Heb zelf 6950 in CFX gehad, nooit problemen mee gehad! Heb nu 7950 in CFX ook nooit problemen mee gehad. Of dingen als micro-stuttering. Of ik merk het gewoon niet.. Maar in de games die ik speel en heb gespeeld liep alles altijd goed!
Als je het niet merkt is het alleen maar mooi
[ Voor 5% gewijzigd door Astennu op 28-05-2013 09:29 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Astennu schreef op dinsdag 28 mei 2013 @ 09:27:
Al moet ik zeggen dat Titan achtige performance wel lekker zou zijn. Ik hoop dan ook dat AMD eind dit jaar nog met een echte opvolger van de 7970 komt die 20-30% sneller is. Dan is er voor mij geen noodzaak om voor dual GPU te gaan. Tenzij ik ga upgraden naar een 4K2K scherm. Maar die willen maar niet uit komen (in een betaalbaar segment 1000-2000 euro)
nieuws: 'AMD brengt Volcanic Islands-kaarten tegelijk uit met Battlefield 4'
Seems legit right?Jammer dat er gerefereerd wordt naar een grove fout.... Alweer....

http://semiaccurate.com/2...nic-islands-architecture/
Dat ze de kaarten dan releasen? Ja
De specs? Nee
Ik verwacht gewoon weer 28nm 2560 shaders met 384bit mem bus 3GB 6GHz GDDR5.
Waarschijnlijk 2 tesselators en gewoon 32 ROPS.
Gewoon een mooie refresh. Noem het GCN1.5 misschien zelfs niet eens en is het gewoon GCN maar dan wat verder opgeschaald.
De grote stap zal pas bij 20nm komen maar daar moeten we denk ik tot eind 2014 als niet 2015 op wachten.
Een verdubbeling in snelheid zit er anno 2013 gewoon niet in voor een nieuwe generatie. Met 50% moet je al heel blij zijn. Dus 4096 shaders is wishfull thinking. Ze willen waarschijnlijk liever een lager verbruik dan extra performance. Want die trend zie je ook steeds vaker. (beter performance per watt).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
verdubbeling hebben we zowiezo al heel lang niet meer gehad. Ik geloof dat de 3870 > 4870 een verdubbeling was en de 4870>5870 iets van 60-80%
En nvidia heeft al helemaal lang geen verdubbeling gehad.
Op zich is er wel een redelijke kans dat bf4 tegelijkertijd uitkomt met de nieuwe amd kaarten. Het past wel bij de huidige marketing van AMD.
We hebben op zich 2 jaar gedaan met high end 40nm kaarten. De 1ste high end 28nm kaarten zijn nu ruim een jaar geleden uitgekomen. Stel dat de overgang op 20nm echt gemakkelijk gaat dan zitten we op een kleine 2 jaar tussen 28 en 20. Het zou op zich misschien wel kunnen als de overstap naar een kleinere node een keer beter in plaats van slechter dan verwacht verloopt.
En nvidia heeft al helemaal lang geen verdubbeling gehad.
Op zich is er wel een redelijke kans dat bf4 tegelijkertijd uitkomt met de nieuwe amd kaarten. Het past wel bij de huidige marketing van AMD.
We hebben op zich 2 jaar gedaan met high end 40nm kaarten. De 1ste high end 28nm kaarten zijn nu ruim een jaar geleden uitgekomen. Stel dat de overgang op 20nm echt gemakkelijk gaat dan zitten we op een kleine 2 jaar tussen 28 en 20. Het zou op zich misschien wel kunnen als de overstap naar een kleinere node een keer beter in plaats van slechter dan verwacht verloopt.
Schijnbaar heeft AMD een GPU chip zonder UVD en display controler:
Ik heb geen idee wat de bedoeling is van die chip, maar zou het kunnen dat deze gecombineerd kan worden met een iGPU en het geheugen daarvan.
AMD heeft al functionaliteit om geheugen te delen, dus theoretisch hoeven ze geen 1:1 kopie meer in eigen geheugen te hebben, ofwel ze kunnen een 'slave' GPU maken zonder werkgeheugen en die combineren met een 'master' GPU die wel werkgeheugen heeft (en een display controller en UVD).
Bij de high-end GPU's zou de PCI-e bus niet toerijkend zijn, maar bij low-end chips moet het prima te doen zijn.
Bron: http://forum.beyond3d.com...php?p=1736306#post1736306The interesting thing (if you look at the code) is that Hainan has no display controllers (and no UVD)
Ik heb geen idee wat de bedoeling is van die chip, maar zou het kunnen dat deze gecombineerd kan worden met een iGPU en het geheugen daarvan.
AMD heeft al functionaliteit om geheugen te delen, dus theoretisch hoeven ze geen 1:1 kopie meer in eigen geheugen te hebben, ofwel ze kunnen een 'slave' GPU maken zonder werkgeheugen en die combineren met een 'master' GPU die wel werkgeheugen heeft (en een display controller en UVD).
Bij de high-end GPU's zou de PCI-e bus niet toerijkend zijn, maar bij low-end chips moet het prima te doen zijn.
Zoiets? of dit? Wellicht werken ze hier al aan sinds de HD4000 serie? Een master slave combinatie zou ook mooi werken voor APUs. Master zit in de APU en er kan nog een slave naast geplaatst worden voor CF.
That is no cat piss
AMD’s Xbox deal worth more than $3 billion
Dit plus de omzet en inkomsten van de AMD APU in de PS4 en de GPU in de WiiU.That is no cat piss
[ Voor 55% gewijzigd door madmaxnl op 28-05-2013 17:35 ]
Ik dacht altijd dat 2x 4870 even snel is als 1x 5870 en dat 2x 5870 weer even snel is als 1x 7970 en alles wat daar tussen zit/zat ongeveer 15-30% sneller is afhankelijk van de gametomcatha schreef op dinsdag 28 mei 2013 @ 15:05:
verdubbeling hebben we zowiezo al heel lang niet meer gehad. Ik geloof dat de 3870 > 4870 een verdubbeling was en de 4870>5870 iets van 60-80%
De 2xxx en 3xxx serie weet ik niet, want dat was zulke bagger vergeleken met de 19xx en 4xxx series dat ik die liever negeer
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
HD2xxx serie ja, maar HD3xxx serie zeker niet. De HD2900XT (R600) heeft destijds gewoon gefaald, te laat, te traag, te groot (die size), te hoog verbruik, te veel lawaai. Prijs prestatie verhouding van dat ding daarentegen was wel weer goed, vandaar dat ik er ééntje hadnero355 schreef op dinsdag 28 mei 2013 @ 19:02:
De 2xxx en 3xxx serie weet ik niet, want dat was zulke bagger vergeleken met de 19xx en 4xxx series dat ik die liever negeer
Waarom de R600 precies gefaald heeft kun je nog wel terug lezen in bepaalde artikelen. Kwam voornamelijk omdat hij zijn tijd vooruit was 512bits memory bus, TruForm (tesselation), aan beiden had je toen helemaal niks.
Enfin, een HD2900XT doet het vandaag de dag nog een 8800GTX mag je eerst in je oven gaan liggen bakken
[ Voor 17% gewijzigd door madmaxnl op 28-05-2013 20:12 ]
Ik ben met je eens dat het mensen eigen is om elkaar (ongefundeerd) na te praten.nero355 schreef op maandag 27 mei 2013 @ 20:25:
[...]
Mja dat is jouw mening, maar geloof mij nou maar dat als je 3 schermen hebt in EyeFinity of in geval van nVidia Surround Gaming je echt niet blij wordt van maar 1 snelle kaart : Dan wil je er minimaal 2 hebben en dan is Crossfire of SLI gewoon een must have
Verder zeg ik ook niet dat al die tests ongelijk hebben of zo, maar door die tests krijg je nu wel een hoop mensen die maar een beetje elkaar napraten en met de rest mee gaan zitten roepen hoe slecht een multi GPU opstelling wel niet is zonder het daadwerkelijk zelf meegemaakt te hebben gewoon thuis met hun eigen PC![]()
Een zeldzaam voorbeeld van iemand die het zelf getest heeft is Astennu bijvoorbeeld en als die zegt "Ik vind het niks." dan kan ik dat begrijpen, maar ga me niet vertellen dat ineens 90% van de members van een willekeurige website of forum meerdere kaarten in zijn eigen PC heeft gehad : No way.
En die roepen ondertussen wel net zo hard mee met de rest over de o zo slechte ervaringen die ze zogenaamd hebben met Crossfire of SLI
Echter men doet dit ook vaak obv reviews en daar is imo niet echt iets mis mee. Hooguit kun je zeggen dat je daarmee erg afhankelijk bent van de kwaliteit vd reviews.
Tot voor kort waren de reviews helaas niet goed genoeg om te pinpointen waar het nu aan lag dat bijv. HardOCP al jaren meldt dat de CF ervaring minder vloeiend is dan SLI en een hogere minimum fps vereist voor dezelfde ervaring. Het is geen onwil geweest vd meeste reviewers maar puur een kwestie van 'niet weten wat je niet weet".
Echter ik heb wel ervaring met CF en SLI.
Met mijn 6950 CF setup was ik heel "tevreden" maar later realiseerde ik me pas dat bepaalde artifacts die ik zag te maken hadden met frame spikes / microstuttering. Maw nav de reviews met framerating en de bijbehorende filmpjes begon ik te begrijpen dat de CF/SLI oplossingen die ik tot dan toe had voor een belangrijk deel placebo waren en eigenlijk helemaal niet zoveel toegevoegde waarde hadden tov een single-gpu. Je blijft vrij makkelijk in een bepaalde waan. Het is interessant om te zien hoe makkelijk je jezelf voor de gek houdt.
Met die opgedane kennis durf ik de stelling wel aan dat mijn huidige SLI setup wel echt die toegevoegde waarde geeft.
Uiteraard eens. Vrijwel niemand heeft de middelen (geld en tijd) om alles goed zelf te testen en het beste te houden. We zullen het toch grotendeels met de reviews moeten doen.madmaxnl schreef op maandag 27 mei 2013 @ 21:45:
Kom je nu met het relaas dat je eigenlijk niks over product X kunt zeggen als je product X niet hebt gehad? En al helemaal niks kunt zeggen van product X t.o.v. product Y als je beiden niet hebt gehad?
Waarom kijken we überhaupt nog naar reviews als we vervolgens niks met die informatie zouden mogen doen omdat die puur en alleen op reviews is gebaseerd en niet op eigen ervaring?
.....
Bovendien ik deel mijn mening / ervaring vooral om hopelijk een positieve bijdrage te leveren aan andermans aankoopbeslissing en daarmee game ervaring.
Maar mijn mening, hoe goed ik het ook probeer te onderbouwen, is ook maar een mening in een zee van meningen.
Dat is uiteraard ook prima. Voor mij is het zeker ook een randvoorwaarde maar niet doorslaggevend omdat ze voor mij allebij werkbaar zijn.Astennu schreef op dinsdag 28 mei 2013 @ 09:27:
[...]
Helemaal mee eens. Het is ook mijn persoonlijke voorkeur. Maar het is ook om aan te geven dat ik wel een nVidia GPU heb en op basis daar van liever met CCC werk.
De reviews, fwiw, laten imho overduidelijk zien dat de tendens qua frametimes over meerdere games dominant is.Ik geloof je meteen dat SLi beter werkt. De tests met de frame times laten zien dat SLi oplossingen daar erg goed scoren. Maar ook daar zie je dat niet elk spel perfect werkt. Ik denk dat dit wel zal verbeteren in de komende jaren en dat het over 1-2 jaar gewoon geen issue meer is.
Ik heb daar wel vertrouwen in, maar het is best lastig als je vanuit het niets en zonder hardware implementatie dit even moet oplossen. Ook hardwareimplementatie is best lastig omdat de nieuwe refresh waarschijnlijk al zodanig gevorderd is dat het wellicht moeilijk is om iets doorwrochts nog te implementeren. Ik denk wel dat het momenteel zo'n beetje prioriteit nr.1 is bij AMD dus daar moeten we hoop uit putten.Je ziet ook dat AMD grote sprongen vooruit aan het maken is. Dus misschien wordt CF straks wel weer echt een optie. Op dit moment is dat niet het geval.
Ben ik met je eens maar de reviews laten imho overduidelijk zien dat de tendens qua frametimes / runt frames over meerdere games dominant is.{...]
Maar het kan toch zijn dat dit runt frames niet altijd op treden? het kan toch zijn dat het in een bepaald spel amper voor komt omdat het uit zichzelf gewoon goed aansluit bij de timings van de engine, video kaart en het scherm?
Zeker eens.Maar goed het verleden boeit niet zo veel meer. Het gaat om de toekomst. En gelukkig zijn AMD en nVidia beide druk bezig om SLi en CF steeds beter te maken.
Ik ben heel erg benieuwd naar de nieuwe AMD drivers. Hoop echt dat ze het gat flink zullen dichten.En wordt het er in de toekomst zeker niet slechter op als AMD met nieuwe drivers komt waar dit probleem opgelost is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
madmaxnl schreef op dinsdag 28 mei 2013 @ 19:37:
Enfin, een HD2900XT doet het vandaag de dag nog een 8800GTX mag je eerst in je oven gaan liggen bakken

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
In de tijd dat ik mijn HD4870x2 had heb ik eigenlijk nooit echt last gehad van microstuttering, wat ik hiermee wilde zeggen ik nam het niet waar nam tijdens het spelen omdat ik opging in het spel. Destijds speelde ik vooral first person shooters dus vsync stond nooit aan, ik ergerder mij ook nooit aan de lijnen die je krijgt als vsync uitstaat, doordat het uitstond had ik minder last van (input) lag.Help!!!! schreef op dinsdag 28 mei 2013 @ 19:54:
[...]
Ik ben met je eens dat het mensen eigen is om elkaar (ongefundeerd) na te praten.
Echter men doet dit ook vaak obv reviews en daar is imo niet echt iets mis mee. Hooguit kun je zeggen dat je daarmee erg afhankelijk bent van de kwaliteit vd reviews.
Tot voor kort waren de reviews helaas niet goed genoeg om te pinpointen waar het nu aan lag dat bijv. HardOCP al jaren meldt dat de CF ervaring minder vloeiend is dan SLI en een hogere minimum fps vereist voor dezelfde ervaring. Het is geen onwil geweest vd meeste reviewers maar puur een kwestie van 'niet weten wat je niet weet".
Dit wil niet zeggen dat ik geen microstuttering zag, dit zag ik wel degelijk. Maar alleen als ik bijvoorbeeld een benchmark draaide van een spel, in het geval van Farcry 2 was het behoorlijk aanwezig, dit terwijl de fps goed was. De reden dat ik het nu wel zag is omdat ik niet geconcentreerd aan het spelen was maar rustig naar het filmpje keek.
Het is dus heel persoonlijk of je er last van hebt of niet en het hangt veel van de situatie af.
Je hoeft tijdens het spelen dus helemaal geen last te hebben van microstuttering ook al is het wel degelijk aanwezig
Maar wat ik al in eerder post heb gezegt, liever dat AMD het aan ons laat om te kiezen voor framemetering of niet, want ik ben niet gecharmeerd van input lag ook al ziet het er op een filmpje beter uit.
Dat is misschien ook wel het probleem, placebo effect en self-fulfilling prophecy. Zeker met dat stigma dat Crossfire had en nu nog heeft m.b.t. stabiliteit, microstuttering, drivers etc (t.o.v. SLI).Sp3ci3s8472 schreef op dinsdag 28 mei 2013 @ 23:37:
Je hoeft tijdens het spelen dus helemaal geen last te hebben van microstuttering ook al is het wel degelijk aanwezig.
Moet je maar eens opletten als je in een ruimte bent met een tikkende klok. Niemand heeft door dat de klok tikt totdat jij men daarop attendeert en dan hoort iedereen alleen nog maar de klok tikken.
De HD29xx had geen trueform. De enige die dat had was de Radeon 8500. De HD2900 had heeft net als de Xenos C1 in de Xbox 360 een tesselator. Alleen een wat nieuwere versie dan in de Xbox zat.madmaxnl schreef op dinsdag 28 mei 2013 @ 19:37:
[...]
HD2xxx serie ja, maar HD3xxx serie zeker niet. De HD2900XT (R600) heeft destijds gewoon gefaald, te laat, te traag, te groot (die size), te hoog verbruik, te veel lawaai. Prijs prestatie verhouding van dat ding daarentegen was wel weer goed, vandaar dat ik er ééntje hadMet de RV670 werden al die punten waar de R600 op faalde verbeterd.
Waarom de R600 precies gefaald heeft kun je nog wel terug lezen in bepaalde artikelen. Kwam voornamelijk omdat hij zijn tijd vooruit was 512bits memory bus, TruForm (tesselation), aan beiden had je toen helemaal niks.
Enfin, een HD2900XT doet het vandaag de dag nog een 8800GTX mag je eerst in je oven gaan liggen bakken
De HD2900 had geen hardware AA resolve en zou dit via de shaders gaan doen. Maar dit bleek gewoon veel te traag. Daarnaast was het een grote chip op 80nm die heel veel last had van lekstroom waardoor het verbruik te hoog was.
Bij de HD3870 is dit recht getrokken. AA was nog steeds niet goed maar het verbruik was onder controle.
Bij de HD48xx hebben ze de hardware AA gefixt en de shaders op de schop genomen zodat ze kleiner werden.
De HD2900 was in een aantal opzichten revolutionair. Hij had bv WDDM2.0 waar we nu terug zijn gegaan naar WDDM1.1 dit was onder druk van nVidia. Die had geen 2.0 support. MS is daar in mee gegaan waardoor 2.0 geschrapt is. Hier een quote van onze Legende: CJ:
En helaas hebben we vandaag de dag nog steeds geen WDDM2.xOorspronkelijk zou Windows Vista als basis Windows Drivermodel 2.0 krijgen.... met als uitbreiding WDDM 2.1. Dit zou er o.a. voor zorgen dat multi-tasking op de GPU seamless gebeurde en veel zaken konden veel efficienter gemanaged worden door de GPU en het OS, waardoor de boel veel stabieler en sneller zou zijn. Dit kwam o.a. door de Advanced Scheduler die in WDDM2.0 zat. Je kan dan bv tegelijkertijd Folding@Home doen, terwijl tegelijkertijd een HD filmpje seamless zonder glitches op je scherm getoverd wordt, dit alles zonder dat de GPU stalled of de desktop er onder te lijden heeft.
Microsoft gooide de plannen voor WDDM2.0 echter in de ijskast en Vista werd geleverd met WDDM 1.0. Met DX11 en Win 7 gaan we naar WDDM 1.1, dus nog niet datgene wat WDDM 2.0 had kunnen brengen. Het vermoeden (eigenlijk meer een publiek geheim) is dat NV als een verwaand klein kind moord en brand begon te krijsen en dat MS daarvoor gezwicht is.
ATI was erg pissig over deze beslissing, want zij hadden binnen het ontwerp van de R6x0 generatie al gates toegewezen aan de pre-emption functies van WDDM2.0. Dus de R600 had veel ongebruikte functies aan boord.... transistoren die niet gebruikt werden.
Ooit afgevraagd hoe de RV670 zo'n 60M transistoren kleiner was dan de R600, maar toch volledig DX10.1 compliant was (die 256-bit memory interface bespaarde zo'n 200M transistoren)? Of hoe de RV635 ten opzichte van de RV630 kleiner was, terwijl die RV635 wel DX10.1 compliant was en RV630 niet? Ik heb dit nooit 100% bevestigd gekregen, maar het zou me niks verbazen als ATI in de refreshes al die WDDM2.0 functies er uit gesloopt heeft aangezien het toch voorlopig niet gebruikt zou worden. Niet in Windows 7, niet in DX11.
Overigens kan ik je zeggen dat het verhaal van Charlie dit keer voor de verandering wel eens erg dicht bij de waarheid zou kunnen liggen.
Voor meer informatie over hoe WDDM2.0 er eigenlijk uit had moeten zien en wat voor voordelen het bracht tov WDDM1.0 zie dit informatie PPT bestand: http://download.microsoft...cf47d23cd/PRI103_WH06.ppt
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
niet helemaal. een HD4870 X2 was 10% sneller dan de 5870. (toen de tijd) Dit was wel afhankelijk van hoe goed CF het deed en welke resolutie je gebruikte soms was de 5870 ook duidelijk sneller.:nero355 schreef op dinsdag 28 mei 2013 @ 19:02:
[...]
Ik dacht altijd dat 2x 4870 even snel is als 1x 5870 en dat 2x 5870 weer even snel is als 1x 7970 en alles wat daar tussen zit/zat ongeveer 15-30% sneller is afhankelijk van de game
De 2xxx en 3xxx serie weet ik niet, want dat was zulke bagger vergeleken met de 19xx en 4xxx series dat ik die liever negeer
http://www.computerbase.d...st-ati-radeon-hd-5870/23/
Ik gok dat een 7970 iets van 60% sneller is als een 5870. Aangezien de 6970 maar 10-15% sneller is:
http://www.computerbase.d...est-amd-radeon-hd-7970/9/
Er zijn situaties waar het 300% is maar dat is dan vooral als de 5870 te weinig geheugen heeft:
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Mijn punt is dat je (fors) betaalt voor ervaring X.Sp3ci3s8472 schreef op dinsdag 28 mei 2013 @ 23:37:
[...]
In de tijd dat ik mijn HD4870x2 had heb ik eigenlijk nooit echt last gehad van microstuttering, wat ik hiermee wilde zeggen ik nam het niet waar nam tijdens het spelen omdat ik opging in het spel. Destijds speelde ik vooral first person shooters dus vsync stond nooit aan, ik ergerder mij ook nooit aan de lijnen die je krijgt als vsync uitstaat, doordat het uitstond had ik minder last van (input) lag.
Dit wil niet zeggen dat ik geen microstuttering zag, dit zag ik wel degelijk. Maar alleen als ik bijvoorbeeld een benchmark draaide van een spel, in het geval van Farcry 2 was het behoorlijk aanwezig, dit terwijl de fps goed was. De reden dat ik het nu wel zag is omdat ik niet geconcentreerd aan het spelen was maar rustig naar het filmpje keek.
Het is dus heel persoonlijk of je er last van hebt of niet en het hangt veel van de situatie af.
Je hoeft tijdens het spelen dus helemaal geen last te hebben van microstuttering ook al is het wel degelijk aanwezig.
Maar wat ik al in eerder post heb gezegt, liever dat AMD het aan ons laat om te kiezen voor framemetering of niet, want ik ben niet gecharmeerd van input lag ook al ziet het er op een filmpje beter uit.
Vervolgens denk je ook dat je ervaring X krijgt. Feitelijk krijg je de mindere ervaring Y. Tot op het punt dat je eigenlijk niet of nauwelijks beter krijgt dan een single-gpu.
De conclusie is dat je dus teveel betaald hebt. En nog pijnlijker dat je een positief verschil toedicht aan multi-gpu wat er in feite niet is.
Je maakt je zelf wijs dat je die ervaring X wel hebt. Het is een vorm van kopers bias.
(overigens, ik schrijf "je" maar bedoel alle CF buyers incl. mijzelf destijds
Daarnaast is het kijken naar een filmpje anders dan diezelfde walkthrough zelf spelen.
Het is gewoon duidelijk minder vloeiend.
Mijn doel is altijd om de best mogelijke ervaring te krijgen voor mijn geld. Daarom is het voor mij irrationeel om op dit moment CF te kopen of te verdedigen.
Tav de vermeende inputlag: Dit is hoogstwaarschijnlijk volstrekt insignificant en een broodje aap verhaal wat iedereen weer napraat.
Als ik het me goed herinner is er een videocast over dit onderwerp waarin nVidia aangeeft dat framemetering, hoe tegenstrijdig dit ook mag klinken, de inputlag juist vermindert.
Uiteindelijk moet iedereen het natuurlijk wel zelf weten met welke argumenten men een aankoop verdedigt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Input lag, indien merkbaar, is altijd nog beter dan Runt frames.Help!!!! schreef op woensdag 29 mei 2013 @ 10:15:
[...]
Tav de vermeende inputlag: Dit is hoogstwaarschijnlijk volstrekt insignificant en een broodje aap verhaal wat iedereen weer napraat.
Als ik het me goed herinner is er een videocast over dit onderwerp waarin nVidia aangeeft dat framemetering, hoe tegenstrijdig dit ook mag klinken, de inputlag juist vermindert.
En als het voorkomt ligt de oorzaak vaak bij een gebrek aan vrij GPU geheugen is, AA iets lager lost het voor mij vaak op.
Mijn ervaring met een Quad GTX690 setup is dat input lag minimaal is, drivers met Extreme Multi GPU setups zijn een veel groter probleem. Bijv. Bioshock infinite en Metro Last Light die nog steeds niet lekker werken/schalen met Quad SLI (Oftewel het is zowel bij Rood als Groen nog niet perfect)
Ligt het aan mij of is HardOCP een beetje hard aan het achteruitgaan de laatste tijd. 
http://www.hardocp.com/ar...d_performance_iq_review/9
Hele lofzang op nVidia PhysX. En nergens een kritische opmerking dat dit soort effecten ook makkelijk op een manier ingebouwd kunnen worden zodat zowel nVidia als AMD dit allebei prima zouden kunnen tonen..
http://www.hardocp.com/ar...d_performance_iq_review/9
Hele lofzang op nVidia PhysX. En nergens een kritische opmerking dat dit soort effecten ook makkelijk op een manier ingebouwd kunnen worden zodat zowel nVidia als AMD dit allebei prima zouden kunnen tonen..
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Quad SLI is ook wel erg lastig om een goede driver voor te schrijven. 't probleem is dat je niet zomaar kunt zeggen van jij doet frame 1 en ik doe frame 2, want dan zou je 1, 2, 3, 4 frames doen en dus zijn 1 en 2 al lang klaar. Helaas werkt de load onderverdelen nog altijd niet geweldig (en tja, de berekeningen hiervoor zijn complexer dan het 3D werk is als je 3-SLI/3-XFire zou runnen, dus eigenlijk is Quad gewoon een joke meestal, vooral omdat je daardoor soms CPU Limits haalt, en dus een lagere FPS krijgt dan met een Tri-GPU setup).
Ik pak even alleen de resultaten van 7680x1600 (3x 30 inch), omdat iemand met een Quad-setup hopelijk ook een beetje een degelijke resolutie heeft
(verder is er ook nog 3x 24-inch @ 1200p en 1x 30 inch @ 1600p en zelfs (ja wtf) 1080p voor die met interesses hiervoor, al is 1080p wel echt absurd
).
Voor de scaling resultaten let ik alleen op de absolute %, het kan dat bv van Dual-GPU naar Tri-GPU een andere opstelling bij die stap een grotere sprong maakt, maar de absolute %-gain nog altijd lager is, en die tel ik dan, immers is 100% ==> 170% ==> 240% beter dan 100% => 140% ==> 220% bij voorbeeld.
source: http://www.coolenjoy.net/...rd=&qa=0&ga=&cat=0&vote=0
Leuke foto's overigens....
http://www.coolenjoy.net/...hp?id=review&no=12442&p=6
Tip: review bekijken is leuker, krijg je van die leuke grafiekjes etc, maar voor de luie mensen toch maar even dan...
Aliens vs Predator:
SLI:
[100% ==> 189.6% ==> 255.4% ==> 346.4%]
CFX:
[100% ==> 191.3% ==> 280.9% ==> 367.6%]
Beste scaling: CFX (op alle vlakken)
Blade & Soul:
SLI:
[100% ==> 187.1% ==> 219.0% ==> 212.9%] Probleem wat ik al zei: Tri-SLI > Quad-SLI
[b]CFX:
[100% ==> 194.3% ==> 243.0% ==> 367.9%]
[b]Beste scaling: CFX (op alle vlakken)
Crysis 3:
SLI:
[100% ==> 185.4% ==> 246.7% ==> 345.3%]
CFX:
[100% ==> 189.7% ==> 185.5% ==> 177.8%] CFX == Tri-CFX == Quad-CFX (Oftewel GPU1 doet frame 1, GPU2 doet frame2, GPU3 doet frame3 etc, maar doordat dit rekenkracht kost, heb je feitelijk minder FPS dan CFX)
Beste scaling: Dual-GPU: CFX >= Tri-GPU: SLI
DiRT: Showdown
SLI:
[100% ==> 155.4% ==> 207.6% ==> 268.9%]
CFX:
[100% ==> 181.9% ==> 224.3% ==> 286.1%]
Beste scaling: CFX (op alle vlakken)
Just Cause 2:
SLI:
[100% ==> 166.8% ==> 200.9% ==> 242.9%]
CFX:
[100% ==> 192.1% ==> 284.2% ==> 290%] Tri-CFX == Quad-CFX, performance t.o.v. van CFX is wel heel goed
Beste scaling: CFX (op alle vlakken)
Dual-GPU & Triple-GPU wint CFX helemaal, maar eigenlijk %-gezien ook nog op Quad-GPU, alleen krijg je bij CFX amper FPS erbij, terwijl dit bij SLI wel zo is, maar hun scaling is bij alle setups relatief (aan CFX) slecht. SLI krijgt dus wel een check en CFX niet, maar je kunt beter (gekekenen naar scaling) CFX draaien
Battlefield 3:
SLI:
[100% ==> 188.2% ==> 262.7% ==> 342.0%]
CFX:
[100% ==> 192.8% ==> 288.4% ==> 369.1%]
Beste scaling: CFX (op alle vlakken)
DeadSpace 3:
SLI:
[100% ==> 185.0% ==> 255.7% ==> 319.7%]
CFX:
[100% ==> 184.3% ==> 189.5% ==> 200.4%] Slechte scaling vanaf CFX, maar de load wordt wel verdeelt, alleen krijgt dan 1 dus een zeer zwaar deel en de andere is al "lang" (relatief) klaar, dus krijg je amper FPS erbij, oftewel de berekeningen hiervoor zijn er nog niet echt.
Beste scaling: SLI (op alle vlakken)
Devil May Cry:
SLI:
[100% ==> 188.1% ==> 214.6% ==> 214.3%] Zelfde probleem als hierboven bij CFX en DeadSpace3, alleen nu bij de nVidia kant.
CFX:
[100% ==> 193.7% ==> 279.5% ==> 287.9%] Tri-CFX == Quad-CFX, performance t.o.v. van CFX is wel heel goed (CPU limit?)
Beste scaling: CFX (op alle vlakken)
Lost Planet 2:
SLI:
[100% ==> 177.8% ==> 219.3% ==> 246.2%]
CFX:
[100% ==> 190.3% ==> 262.2% ==> 303.9%]
Beste scaling: CFX (op alle vlakken)
Totaal:
SLI:
[100% ==> 179.4% ==> 227.4% ==> 274.6%]
CFX:
[100% ==> 189.5% ==> 242.9% ==> 284.0%]
Beste scaling: CFX (op alle vlakken)
Ik neem aan dat er sowieso wel wat SLI scaling verloren gaat door de hardware frame metering werking, maar je ziet wel dat CFX eigenlijk in aardig wat games gewoon heerlijk scaled als je kijkt naar de percentages. Zeker als je Quad-GPU even negeert en alleen kijkt naar Dual-GPU & Tri-GPU. Verder zullen die Titans alle Quad-setups wel zo goed als de fik invliegen, gezien ze de lucht van elkaars kont inhalen.
Frame gebabbel, zover dat er is:
http://www.coolenjoy.net/...p?id=review&no=12457&p=21
Kan dit kloppen? Al zullen de Titans wel constant gethrottled worden, en dus minder verbruiken (80C, Quad-SLI enzo).

, 680s blijven in ieder geval wel nog zuinig (relatief).
Ik pak even alleen de resultaten van 7680x1600 (3x 30 inch), omdat iemand met een Quad-setup hopelijk ook een beetje een degelijke resolutie heeft
Voor de scaling resultaten let ik alleen op de absolute %, het kan dat bv van Dual-GPU naar Tri-GPU een andere opstelling bij die stap een grotere sprong maakt, maar de absolute %-gain nog altijd lager is, en die tel ik dan, immers is 100% ==> 170% ==> 240% beter dan 100% => 140% ==> 220% bij voorbeeld.
source: http://www.coolenjoy.net/...rd=&qa=0&ga=&cat=0&vote=0
Leuke foto's overigens....

http://www.coolenjoy.net/...hp?id=review&no=12442&p=6
Tip: review bekijken is leuker, krijg je van die leuke grafiekjes etc, maar voor de luie mensen toch maar even dan...
Aliens vs Predator:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Blade & Soul:
SLI:
[b]CFX:
[b]Beste scaling: CFX (op alle vlakken)
Crysis 3:
SLI:
CFX:
Beste scaling: Dual-GPU: CFX >= Tri-GPU: SLI
DiRT: Showdown
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Just Cause 2:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Dual-GPU & Triple-GPU wint CFX helemaal, maar eigenlijk %-gezien ook nog op Quad-GPU, alleen krijg je bij CFX amper FPS erbij, terwijl dit bij SLI wel zo is, maar hun scaling is bij alle setups relatief (aan CFX) slecht. SLI krijgt dus wel een check en CFX niet, maar je kunt beter (gekekenen naar scaling) CFX draaien
Battlefield 3:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
DeadSpace 3:
SLI:
CFX:
Beste scaling: SLI (op alle vlakken)
Devil May Cry:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Lost Planet 2:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Totaal:
SLI:
CFX:
Beste scaling: CFX (op alle vlakken)
Ik neem aan dat er sowieso wel wat SLI scaling verloren gaat door de hardware frame metering werking, maar je ziet wel dat CFX eigenlijk in aardig wat games gewoon heerlijk scaled als je kijkt naar de percentages. Zeker als je Quad-GPU even negeert en alleen kijkt naar Dual-GPU & Tri-GPU. Verder zullen die Titans alle Quad-setups wel zo goed als de fik invliegen, gezien ze de lucht van elkaars kont inhalen.
Frame gebabbel, zover dat er is:
http://www.coolenjoy.net/...p?id=review&no=12457&p=21
Kan dit kloppen? Al zullen de Titans wel constant gethrottled worden, en dus minder verbruiken (80C, Quad-SLI enzo).

[ Voor 7% gewijzigd door Paprika op 29-05-2013 18:42 ]
Crap... voor een eventuele toekomstige 4x 7970 GHz Edition setup moet ik WEER een nieuwe voeding kopen volgens dat overzicht 
Why ?! Because we can !! En omdat we geen microstuttering zien
Why ?! Because we can !! En omdat we geen microstuttering zien
Ik ben een expert in geirriteerd worden door de klok of een voeding/transformator die brak is en tot nu toe heb ik dat effect nog nooit meegemaakt (helaas) : "Nee joh, niks aan de hand ! "madmaxnl schreef op woensdag 29 mei 2013 @ 00:07:
Moet je maar eens opletten als je in een ruimte bent met een tikkende klok. Niemand heeft door dat de klok tikt totdat jij men daarop attendeert en dan hoort iedereen alleen nog maar de klok tikken.

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Horse poppynero355 schreef op woensdag 29 mei 2013 @ 21:33:
Crap... voor een eventuele toekomstige 4x 7970 GHz Edition setup moet ik WEER een nieuwe voeding kopen volgens dat overzicht
Huh wat ? Ben niet bekend met de term...
Ik zou het uiteraard eerst testen, maar ik vind het een beetje op het randje eerlijk gezegdMet jou 1250watt voeding zou het totaal geen probleem moeten zijn. Een QCF HD7970GE setup gebruikt volgens het overzicht namelijk 1293watt. Dat is waarschijnlijk gemeten vanaf het stopcontact. Uitgaande van een super voeding met 90% zou je dan uitkomen op 1164watt dat de setup zelf verbruikt. Jou voeding kan dit dus leveren, die 1250watt
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Zijn wel grote stappen die erbij komen (meer warmte -> meer verbruik?):
HD7970 CFX: 611-352 = 259, 947 - 611 = 336, 1293 - 947 = 346. Resultaat: 259 -> 336 -> 346
GTX680 SLI: 477 - 289 = 188, 661 - 477 = 184, 843 - 661 = 182. Resultaat: 188 -> 184 -> 182
Titan SLI: 619 - 371 = 248, 852 - 619 = 233, 1141 - 852 = 289, Resultaat: 248 -> 233 -> 289
Oftewel een 4e HD7970 toevoegen zou evenveel extra verbruik opleveren als het toevoegen van nog eens 2 GTX680s (voor 6-SLI
)? 346 / 2 = 173, 4e GTX680 zorgde voor een stijging van 182W.
Iemand die weet of dit überhaupt kan kloppen? 346W erbij is bijna evenveel als het gehele systeem gebruikte met een 1 HD7970 (352W).
HD7970 CFX: 611-352 = 259, 947 - 611 = 336, 1293 - 947 = 346. Resultaat: 259 -> 336 -> 346
GTX680 SLI: 477 - 289 = 188, 661 - 477 = 184, 843 - 661 = 182. Resultaat: 188 -> 184 -> 182
Titan SLI: 619 - 371 = 248, 852 - 619 = 233, 1141 - 852 = 289, Resultaat: 248 -> 233 -> 289
Oftewel een 4e HD7970 toevoegen zou evenveel extra verbruik opleveren als het toevoegen van nog eens 2 GTX680s (voor 6-SLI
Iemand die weet of dit überhaupt kan kloppen? 346W erbij is bijna evenveel als het gehele systeem gebruikte met een 1 HD7970 (352W).
[ Voor 20% gewijzigd door Paprika op 29-05-2013 23:13 ]
Ik weet wel dat temperatuur invloed heeft op het verbruik van de 7970. En dat kan veel schelen 20 watt is zeker niet raar. Maar deze stijgende lijn vind ik wel heel extreem. Op Auto fan speeds zouden die kaarten niet zo veel warmer moeten worden. Of het zijn geen refferenced kaarten geweest maar kaarten die de warmte allemaal in de kast blazen. Maar nog steeds vind ik het dan erg veel.Paprika schreef op woensdag 29 mei 2013 @ 23:11:
Zijn wel grote stappen die erbij komen (meer warmte -> meer verbruik?):
HD7970 CFX: 611-352 = 259, 947 - 611 = 336, 1293 - 947 = 346. Resultaat: 259 -> 336 -> 346
GTX680 SLI: 477 - 289 = 188, 661 - 477 = 184, 843 - 661 = 182. Resultaat: 188 -> 184 -> 182
Titan SLI: 619 - 371 = 248, 852 - 619 = 233, 1141 - 852 = 289, Resultaat: 248 -> 233 -> 289
Oftewel een 4e HD7970 toevoegen zou evenveel extra verbruik opleveren als het toevoegen van nog eens 2 GTX680s (voor 6-SLI)? 346 / 2 = 173, 4e GTX680 zorgde voor een stijging van 182W.
Iemand die weet of dit überhaupt kan kloppen? 346W erbij is bijna evenveel als het gehele systeem gebruikte met een 1 HD7970 (352W).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waar woon je? Zou bijna mijn hele set afbreken en bij je langsrijden om naast elkaar te testen....nero355 schreef op woensdag 29 mei 2013 @ 21:33:
Crap... voor een eventuele toekomstige 4x 7970 GHz Edition setup moet ik WEER een nieuwe voeding kopen volgens dat overzicht
Why ?! Because we can !! En omdat we geen microstuttering zien![]()
![]()
[...]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Horse poppy, zelf bedacht. Geen idee hoe ik erbij komt wellicht heb ik het toch wel ergens gehoordnero355 schreef op woensdag 29 mei 2013 @ 22:20:
[...]
Huh wat ? Ben niet bekend met de term...
Ik zou het uiteraard eerst testen, maar ik vind het een beetje op het randje eerlijk gezegdGelukkig duurt het nog wel effe voordat er leuk geprijsde 7970 kaarten in V&A opduiken!
Met jou voeding kun je juist tot het randje. Wat is anders het nu van het hebben van een goede, peperdure, voeding als je deze vervolgens niet op zijn staart kunt trappen.
Wat wil je testen danHelp!!!! schreef op donderdag 30 mei 2013 @ 08:43:
Waar woon je? Zou bijna mijn hele set afbreken en bij je langsrijden om naast elkaar te testen....
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Hebben ze in het verleden waarschijnlijk wel gedaan en je kan het 26 keer herhalen, maar dat schiet ook niet op en het is nu eenmaal zoals het is... En tjonge, HardOCP gaat opeens 'achteruit' als er een keer iets positiefs wordt gezegd over PhysX.... So what?Help!!!! schreef op woensdag 29 mei 2013 @ 17:51:
Ligt het aan mij of is HardOCP een beetje hard aan het achteruitgaan de laatste tijd.
http://www.hardocp.com/ar...d_performance_iq_review/9
Hele lofzang op nVidia PhysX. En nergens een kritische opmerking dat dit soort effecten ook makkelijk op een manier ingebouwd kunnen worden zodat zowel nVidia als AMD dit allebei prima zouden kunnen tonen..
Zij ervaren dat het wat toevoegt aan de gameplay en dat een Nvidia kaart dus gewoon een klein voordeeltje biedt t.o.v. AMD. Daar vergaat de wereld toch niet van? Beetje overdreven reactie als je het mij vraagt, tis maar één game...
Vind jouw reactie eerder overdreven.
Omdat jij het al weet en zij het al eerder gezegd hebben (wat jij blijkbaar niet eens zeker weet want je schrijft "waarschijnlijk") betekent dat voor mij niet dat ze er wel mee kunnen stoppen.
En ja, als je zoiets niet noemt ga je achteruit. Laatste tijd komen ze op mij sowieso minder scherp/kritisch over.
Ik lees zo'n site voor (hopelijk) onafhankelijke reviews dus dat moet imo op zijn minst weer even gemeldt worden.
Omdat jij het al weet en zij het al eerder gezegd hebben (wat jij blijkbaar niet eens zeker weet want je schrijft "waarschijnlijk") betekent dat voor mij niet dat ze er wel mee kunnen stoppen.
En ja, als je zoiets niet noemt ga je achteruit. Laatste tijd komen ze op mij sowieso minder scherp/kritisch over.
Ik lees zo'n site voor (hopelijk) onafhankelijke reviews dus dat moet imo op zijn minst weer even gemeldt worden.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
PhysX is een onding, prima als jou mening daar heel anders over is, maar je moet nagenoeg bij nVidia werken wil je een goed woord over hebben voor PhysX.Verwijderd schreef op vrijdag 31 mei 2013 @ 10:13:
[...]
Hebben ze in het verleden waarschijnlijk wel gedaan en je kan het 26 keer herhalen, maar dat schiet ook niet op en het is nu eenmaal zoals het is... En tjonge, HardOCP gaat opeens 'achteruit' als er een keer iets positiefs wordt gezegd over PhysX.... So what?
Zij ervaren dat het wat toevoegt aan de gameplay en dat een Nvidia kaart dus gewoon een klein voordeeltje biedt t.o.v. AMD. Daar vergaat de wereld toch niet van? Beetje overdreven reactie als je het mij vraagt, tis maar één game...
- PhysX gebruikt te veel resources (zeker als je kijkt wat je ervoor terug krijgt)
- PhysX is niet compatibel met AMD
- PhysX is expres kreupel gemaakt voor CPUs
- PhysX is niet breed toegepast (is voor mij persoonlijk een plus punt)
- PhysX voegt niets toe als je kijkt wat met concurrerende physics engine ook kan
- PhysX wordt misbruikt door nVidia als marketingtool
Zie hier een paar Quadfire 7970 set-ups voorbij komen. Zijn de eigenaren er tevreden mee?
Ik vond X-fire 7970 zo ontieglijk veel stutter hebben dat ik nooit aan de X-fire zal gaan. (het setje SLI 670 erlangs had geen enkel probleem
.
Kan me haast niet voorstellen dat Quad-fire minder stutter heeft dan gewoon X-fire.
Ik vond X-fire 7970 zo ontieglijk veel stutter hebben dat ik nooit aan de X-fire zal gaan. (het setje SLI 670 erlangs had geen enkel probleem
Kan me haast niet voorstellen dat Quad-fire minder stutter heeft dan gewoon X-fire.
Tsja, objectief testen is iets wat steeds moeilijker wordt, als je als site producten van een producent wilt ontvangen voor release, wanneer er allerhande eisen zijn verbonden aan reviews, met als risico dat als je je er niet aan houdt, je een volgende ronde wordt overgeslagen, met alle gemiste inkomsten van page-hits van dien.
De laatste tijd waren Frame-times erg populair, vooral om AMD over af te zeiken (persoonlijk ervaar ik mijn A8-3850+HD6670 crossfire als aangenaam bij praktisch elke game die ik de afgelopen tijd gespeeld heb). Wat ik me af vraag, is of een andere benchmethode ooit populair zal worden. Namelijk eentje zoals hardware.fr heeft gedaan met de nieuwe nVidia kaarten.
Punt om dit naar voren te brengen is twee-ledig. Ten eerste is het relevant sinds nVidia met een flexibele turboboost kwam, die af hing van de kwaliteit van de die alsmede de koeling. Het tweede is Intels HD4000, waarvan men (meestal in de CPU-draadjes) altijd zo leuk claimt dat in laptops HD4000 even goed werkt als de GPU van Trinity.
Als je de test van Hardware.fr bekijkt, dan zie je dat als ze een benchmark overnieuw draaien, nadat de videokaart op temperatuur is gekomen, de resultaten aanzienlijk lager kunnen zijn dan bij een koude benchmark, tot wel 19%. Dus als je lekker gaat gamen, vallen je framerates tot wel 19% terug met een GTX6xx/7xx, waar je HD7K gewoon dezelfde framerates blijft uitpersen. Zo zullen ook HD4000 framerates inkakken, wanneer je laptop erg warm begint te worden. Tijd dus voor dergelijke testen. Maar ik vrees, daar het ten nadele is van Intel en nVidia en juist ten voordele van AMD, dat dergelijke objectieve metingen niet masaal in het benchmark geweld terug zullen komen.
De laatste tijd waren Frame-times erg populair, vooral om AMD over af te zeiken (persoonlijk ervaar ik mijn A8-3850+HD6670 crossfire als aangenaam bij praktisch elke game die ik de afgelopen tijd gespeeld heb). Wat ik me af vraag, is of een andere benchmethode ooit populair zal worden. Namelijk eentje zoals hardware.fr heeft gedaan met de nieuwe nVidia kaarten.
Punt om dit naar voren te brengen is twee-ledig. Ten eerste is het relevant sinds nVidia met een flexibele turboboost kwam, die af hing van de kwaliteit van de die alsmede de koeling. Het tweede is Intels HD4000, waarvan men (meestal in de CPU-draadjes) altijd zo leuk claimt dat in laptops HD4000 even goed werkt als de GPU van Trinity.
Als je de test van Hardware.fr bekijkt, dan zie je dat als ze een benchmark overnieuw draaien, nadat de videokaart op temperatuur is gekomen, de resultaten aanzienlijk lager kunnen zijn dan bij een koude benchmark, tot wel 19%. Dus als je lekker gaat gamen, vallen je framerates tot wel 19% terug met een GTX6xx/7xx, waar je HD7K gewoon dezelfde framerates blijft uitpersen. Zo zullen ook HD4000 framerates inkakken, wanneer je laptop erg warm begint te worden. Tijd dus voor dergelijke testen. Maar ik vrees, daar het ten nadele is van Intel en nVidia en juist ten voordele van AMD, dat dergelijke objectieve metingen niet masaal in het benchmark geweld terug zullen komen.
Dat is nieuw voor me. Als dat klopt dan is dat wel echt een fors minpunt. Interessante catch.dahakon schreef op vrijdag 31 mei 2013 @ 17:12:
Tsja, objectief testen is iets wat steeds moeilijker wordt, als je als site producten van een producent wilt ontvangen voor release, wanneer er allerhande eisen zijn verbonden aan reviews, met als risico dat als je je er niet aan houdt, je een volgende ronde wordt overgeslagen, met alle gemiste inkomsten van page-hits van dien.
De laatste tijd waren Frame-times erg populair, vooral om AMD over af te zeiken (persoonlijk ervaar ik mijn A8-3850+HD6670 crossfire als aangenaam bij praktisch elke game die ik de afgelopen tijd gespeeld heb). Wat ik me af vraag, is of een andere benchmethode ooit populair zal worden. Namelijk eentje zoals hardware.fr heeft gedaan met de nieuwe nVidia kaarten.
Punt om dit naar voren te brengen is twee-ledig. Ten eerste is het relevant sinds nVidia met een flexibele turboboost kwam, die af hing van de kwaliteit van de die alsmede de koeling. Het tweede is Intels HD4000, waarvan men (meestal in de CPU-draadjes) altijd zo leuk claimt dat in laptops HD4000 even goed werkt als de GPU van Trinity.
Als je de test van Hardware.fr bekijkt, dan zie je dat als ze een benchmark overnieuw draaien, nadat de videokaart op temperatuur is gekomen, de resultaten aanzienlijk lager kunnen zijn dan bij een koude benchmark, tot wel 19%. Dus als je lekker gaat gamen, vallen je framerates tot wel 19% terug met een GTX6xx/7xx, waar je HD7K gewoon dezelfde framerates blijft uitpersen. Zo zullen ook HD4000 framerates inkakken, wanneer je laptop erg warm begint te worden. Tijd dus voor dergelijke testen. Maar ik vrees, daar het ten nadele is van Intel en nVidia en juist ten voordele van AMD, dat dergelijke objectieve metingen niet masaal in het benchmark geweld terug zullen komen.
Maar dat speelt neem ik aan alleen bij laptops
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat van nVidia geldt voor desktops (en waarschijnlijk ook laptops, maar ik weet niet hoe agressief die turbo's zijn ingesteld). In de test van hardware.fr ging de turbo weer omhoog, wanneer ze 2 fans vol op de videokaart hadden blazen, iets wat niet veel mensen zullen doen in je typische desktop behuizing.
Voor Intel's HD4000 geval is het met name op het gebied van laptops, daar die zwaar koelings-beperkt zijn. Maar het zou me ook niet verbazen als je throttling tegen gaat komen in mini-ITX behuizingen of slecht geventileerde micro-ATX behuizingen/media-pc oplossingen.
Voor Intel's HD4000 geval is het met name op het gebied van laptops, daar die zwaar koelings-beperkt zijn. Maar het zou me ook niet verbazen als je throttling tegen gaat komen in mini-ITX behuizingen of slecht geventileerde micro-ATX behuizingen/media-pc oplossingen.
[ Voor 5% gewijzigd door dahakon op 31-05-2013 19:11 ]
Hoezo is dit opeens nieuw voor je. Dit is gewoon algemeen bekent, als je logisch kunt nadenken en snapt hoe die turbo functionaliteit werkt. Blijkbaar begrijpen mensen wel het voordeel, maar niet het nadeel. Ze gaan dus uit van de beste situatie waar de hoogst mogelijke prestatie geleverd wordt.Help!!!! schreef op vrijdag 31 mei 2013 @ 18:41:
[...]
Dat is nieuw voor me. Als dat klopt dan is dat wel echt een fors minpunt. Interessante catch.
Maar dat speelt neem ik aan alleen bij laptops
Woensdag heb ik er nog wat over gezegd in het AMD nieuwsdiscussie topic:
madmaxnl in "[Algemeen] AMD nieuwsdiscussie topic - deel 34"
Ik zie 't stukje wat ze als opmerking plaatsen over de GTX 680 anders niet terugkomen... Zij zeggen dat hun GTX680 in gemiddeld maar naar 1058Mhz wilde gaan fixed: ze zetten hem daarop om de minimale boost clock te evenaren?, en bij zware games 1006MHz. Ik heb er 2 in SLI (reference nog wel, dus warmer kan al bijna niet) die beide gewoon altijd >= 1200MHz halen (piek is 1284, maar daar zitten ze zelden op). Nu speel ik geen BF3, maar ik heb toch wel zat spellen waar 99% GPU load geen probleem is. Geen boost bij een GTX 680/770 lijkt me dan ook onwaarschijnlijk. Voor de Titan, maar ook de GTX 780 zal dit wel 't geval zijn, zeker met de normale koeler.
Edit:
Moet ik overigens wel bij vermelden dat dit waarschijnlijk wel als storend geluid mag worden bestempeld, maar ik heb altijd een headset op en merk er dus zelf niks van, draaien overigens niet op 100% ofzo, gewoon auto-modus.
Edit:
Moet ik overigens wel bij vermelden dat dit waarschijnlijk wel als storend geluid mag worden bestempeld, maar ik heb altijd een headset op en merk er dus zelf niks van, draaien overigens niet op 100% ofzo, gewoon auto-modus.
[ Voor 50% gewijzigd door Paprika op 31-05-2013 19:30 ]
Vipeax wil jij soms zeggen dat het niet afhankelijk is van de situatie? M.a.w. temperatuur van de kamer en aantal ventilatoren in je kast?
Nu weet je eigenlijk nooit wat je kunt verwachten enkel wat je minimaal kunt verwachten (qua performance).
Nu weet je eigenlijk nooit wat je kunt verwachten enkel wat je minimaal kunt verwachten (qua performance).
[ Voor 28% gewijzigd door madmaxnl op 31-05-2013 19:31 ]
Zover ik kan zien is de situatie redelijk gelijk met de test setup. Er staat dat de eerste test in een omgeving van ~26C plaats vond. Dat komt wel aardig overheen met de temperatuur in mijn kast op dit moment. Gezien hun platform (volgens de foto) open is, dus geen kast, zal de temperatuur bij mij juist eerder oplopen lijkt me. Zeg ik dat iedere situatie gelijk is? Nee. Durf ik te zeggen dat hun situatie in dit geval beter is dan de mijne? Lijkt mij van wel.
Trouwens zit er dan wel weer een verschil in geluidsproductie,

al zou mij dat (waarschijnlijk) niet veel uitmaken.
Wat ze overigens wel bevestigen (al was dit ook wel bekend, zeker van de 7XX modellen), is dat je beter een aftermarket koeler kunt kopen (zie ook de lightning die constant op volle snelheid draait). Verder misschien wat te veel offtopic AMD vs nVidia etc.
Ik snap gewoon niet waarom de 680 "0%" boost had bij BF3, maar wie weet zie ik wel iets over 't hoofd, maakt verder niet veel uit. De reactie (van dahakom) ging immers erom dat een beetje voorwarmen nodig is om de resultaten te geven die een gebruiker ook zal hebben, en dat klopt gewoon.
Trouwens zit er dan wel weer een verschil in geluidsproductie,

al zou mij dat (waarschijnlijk) niet veel uitmaken.
Wat ze overigens wel bevestigen (al was dit ook wel bekend, zeker van de 7XX modellen), is dat je beter een aftermarket koeler kunt kopen (zie ook de lightning die constant op volle snelheid draait). Verder misschien wat te veel offtopic AMD vs nVidia etc.
Ik snap gewoon niet waarom de 680 "0%" boost had bij BF3, maar wie weet zie ik wel iets over 't hoofd, maakt verder niet veel uit. De reactie (van dahakom) ging immers erom dat een beetje voorwarmen nodig is om de resultaten te geven die een gebruiker ook zal hebben, en dat klopt gewoon.
[ Voor 44% gewijzigd door Paprika op 31-05-2013 19:39 ]
Jij hebt acht Noctua NF-P12, 120mm ventilatoren daarnaast is het niet zo dat als je geen kast hebt dat je dan altijd betere temperaturen hebt dan met een kast. De luchtstroom langs jou setup is waarschijnlijk groter dan de luchtstroom langs hun setup. Met hoe meer lucht de setupt in aanraking komt, hoe meer warmte hij aan die lucht kan afstaan. Wel of geen kast heeft daar geen holle bolle Gijs mee te maken.
offtopic:
Dat snap ik ook, overigens is die inventaris best wel oud
). Nog daargelaten dat 4 fans de CPU alleen koelen, en zich buiten de kast bevinden
. Zijn er nu maar 2 effectief (ook dus door o.a. een andere kast), voor wat dat uitmaakt. Daarbij, die 2 fans zullen vast niet zorgen dat mijn bovenste GPU veel koeler wordt, gezien die altijd 5-10C warmer is dan de onderste.
Dat snap ik ook, overigens is die inventaris best wel oud
Laat de discussie verder maar zitten. Je snapt vast wel waar ik op doelde, maar heeft verder niets te maken met dahakon zijn mening, welke ik overigens zeker niet zou tegenspreken.
[ Voor 13% gewijzigd door Paprika op 31-05-2013 19:43 ]
Ik lees dat een hetere videokaart slechtere performance tot gevolg heeft. Dat is voor mij nieuw in die zin dat dat voorzover ik wist niet het geval zou moeten zijn zolang je binnen de thermal envelope blijft.madmaxnl schreef op vrijdag 31 mei 2013 @ 19:22:
[...]
Hoezo is dit opeens nieuw voor je. Dit is gewoon algemeen bekent, als je logisch kunt nadenken en snapt hoe die turbo functionaliteit werkt. Blijkbaar begrijpen mensen wel het voordeel, maar niet het nadeel. Ze gaan dus uit van de beste situatie waar de hoogst mogelijke prestatie geleverd wordt.
Woensdag heb ik er nog wat over gezegd in het AMD nieuwsdiscussie topic:
madmaxnl in "[Algemeen] AMD nieuwsdiscussie topic - deel 34"
Omdat mijn Frans slecht is kan ik die site verder niet goed volgen. Verder is er, naar ik me heb laten vertellen, vrij weinig mis met mijn logisch nadenken..
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dan heb je de turbofunctionaliteit dus niet begrepen of begrijp ik het nu verkeerd? Als de situatie het namelijk toelaat gaat je kaart zich hogere klokken. Laat de situatie het niet toe dan gaat hij naar zijn oorspronkelijk klokfrequentie.Help!!!! schreef op vrijdag 31 mei 2013 @ 19:57:
[...]
Ik lees dat een hetere videokaart slechtere performance tot gevolg heeft. Dat is voor mij nieuw in die zin dat dat voorzover ik wist niet het geval zou moeten zijn zolang je binnen de thermal envelope blijft.
Het is dus de temperatuur die hier de bepalende factor is voor wel of geen turbo en de hoeveelheid turbo/klokfrequentie toenamen. Er zit natuurlijk wel een limiet aan de hoeveelheid turbo om te zorgen dat hij niet meer gaat verbruiken dan gespecificeerd.
[ Voor 8% gewijzigd door madmaxnl op 31-05-2013 20:43 ]
Verwijderd
Haha, tis weer zover hier hoor.... Er wordt een keertje gezegd dat physx wat toevoegt op gameplay gebied en gut gut ze zijn niet meer objectief. En dan reageer ik overdreven? pffffHelp!!!! schreef op vrijdag 31 mei 2013 @ 12:45:
Vind jouw reactie eerder overdreven.

je hoeft me verder helemaal niet uit te leggen wat voor nadelen er aan physx kleven. Daarbij, wie zegt dat ik er positief tegenover sta? Je legt me woorden in de mond en dat staat me niet aan!madmaxnl schreef op vrijdag 31 mei 2013 @ 17:05:
[...]
PhysX is een onding, prima als jou mening daar heel anders over is, maar je moet nagenoeg bij nVidia werken wil je een goed woord over hebben voor PhysX.
- PhysX gebruikt te veel resources (zeker als je kijkt wat je ervoor terug krijgt)
- PhysX is niet compatibel met AMD
- PhysX is expres kreupel gemaakt voor CPUs
- PhysX is niet breed toegepast (is voor mij persoonlijk een plus punt)
- PhysX voegt niets toe als je kijkt wat met concurrerende physics engine ook kan
- PhysX wordt misbruikt door nVidia als marketingtool
Ik ben hier volgens mij de enige die niet door een bril kijkt en de zaken neemt zoals ze zijn.
Tjongejonge, er wordt gezegd dat bij een game physx iets leuks toevoegt in de game beleving en de heren staan op hun achterste poten. Kleinzerig gedrag weer hier...
^
Denk dat je objectieve vermogen wat aangetast is. De enige die er hier imho gestrekt in vliegt (in meerdere posts) ben jij zelf...
Beetje onprettig aggressief zelfs.
Denk dat je objectieve vermogen wat aangetast is. De enige die er hier imho gestrekt in vliegt (in meerdere posts) ben jij zelf...
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dit topic is gesloten.
Let op:
Het nieuwe deel is hier: CJ's Radeon Info & Nieuwsdiscussie - Deel 126
Het nieuwe deel is hier: CJ's Radeon Info & Nieuwsdiscussie - Deel 126