LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Sinds 331.XX had ik last van een Zwart Scherm vlak na het Windows Laad Scherm. Ik zat vast aan 327.23 omdat dat de laatste driver was die dat probleem niet had.
Sinds ik de volgende Microsoft Hotfix heb geïnstalleerd is het probleem verholpen:
Black screen when you plug in a monitor on a computer or open a lid of a laptop that is running in Windows
Ik gebruik nu 337.61 sinds die uit is en heb geen Zwart Scherm meer gehad
NVIDIA heeft zelf ook het probleem gevonden:
(en op alle forums iedereen maar zeggen dat het aan mijn pc lag)It looks like we have finally been able to figure out which changelist introduced this behavior and finally have a fix that we have tested and verify works. This fix will be in our next driver release. As such, I am going to unpin this thread.
[ Voor 22% gewijzigd door TheDeeGee op 22-04-2014 18:53 ]
Raar als het op een desktop is, want meestal sluit je niet constant een nieuwe monitor aan...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Desktop.nero355 schreef op woensdag 23 april 2014 @ 00:40:
Op een desktop of een laptop ? Welke videokaart ?
Raar als het op een desktop is, want meestal sluit je niet constant een nieuwe monitor aan...
Zotac GTX 680 4GB met een EIZO CX240 aangesloten via DisplayPort.
Dit is nieuws voor mij (zoals al bleek). Ik zal 14.4 eens overwegen, zal eerst eens in de patch notes moeten spitten of er uberhaupt iets aan de e350 is gedaan. Anders heeft het weinig nut een non-whql driver te installeren op een htpc. De 12.10 driver bracht overigens een wereld van verschil in cpu load. Met de originele drivers kreeg je 2 cores niet beide op 100%. Daarnaast nam ook de cpu load bij het afspelen met mpc-hc siginificant af. De nieuwe 13 drivers lijken ook weer iets sneller te zijn, maar heb dit niet gebenchmarked.dahakon schreef op maandag 21 april 2014 @ 11:59:
[...]
Ik zal het beleefd houden... De laatste officiele driver van AMD is van 18 december 2013, voor alle GPU's. Er zijn wel nieuwere beta-drivers en of die de E-350 ondersteunen (al dan niet foutloos) is een vrasg die ik niet kan beantwoorden, maar se driver ondersteunt sowieso wel Brazos/Ontario als chip in verschillende SKU's.
Dus, ten eerste heeft je E-350 nog exact dezelfde ondersteuning als de laatst uitgebrachte videokaarten en ten tweede zal er ongetwijfeld nog wel een nieuwe officiele driver uitkomen voor VLIWx DX11 GPU's.
Voor de rest is het wederom een typisch 'AMD ondersteunt zijn producten amper/niet' geneuzel... Het enige wat AMD niet meer doet, is het maandelijks uitbrengen van gecertificeerde drivers.
Zou de games uit mijn review eens opnieuw kunnen testen productreview: Asus E35M1-M review door sdk1985
Driver reputatie is door AMD zelf gecreërd door (al dan niet terrecht) producten legacy te verklaren. Een GTX 260 uit 2008 krijgt gewoon "updates" van de recent geintroduceerde Geforce experience.
[ Voor 12% gewijzigd door sdk1985 op 25-04-2014 13:51 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Al 3 dagen bekend, en niets te zien op de tweakershomepage.
Maar gelukkig, als AMD een scheet laat lezen we het meteen...
Is dat echt nieuws dan? Beide GPU makers hebben met hoge regelmaat combo deals.Firedre schreef op vrijdag 02 mei 2014 @ 23:41:
http://www.techpowerup.co...es-watch-dogs-bundle.html
Al 3 dagen bekend, en niets te zien op de tweakershomepage.
Maar gelukkig, als AMD een scheet laat lezen we het meteen...
Idd vaag dat dit nog niet op de homepage verschenen is. Vrijwel iedere gerenommeerde tech site heeft hier al wat over gepost.Firedre schreef op vrijdag 02 mei 2014 @ 23:41:
http://www.techpowerup.co...es-watch-dogs-bundle.html
Al 3 dagen bekend, en niets te zien op de tweakershomepage.
Maar gelukkig, als AMD een scheet laat lezen we het meteen...
Watch dogs is een game die ik toch al op mijn verlanglijst heb staan, dus misschien toch maar eens kijken voor een GTX760 of 770 om mijn bejaarde GTX275 te vervangen.
Tja of je het echt interessant vindt verschilt natuurlijk per persoon. Watch Dogs is echter wel een van de grotere releases van 2014. Dat dit je dit spel nu gratis bij een nieuwe nvidia gpu kan krijgen is voor een grote groep mensen wel zeer relevant.unfor schreef op vrijdag 02 mei 2014 @ 23:50:
[...]
Is dat echt nieuws dan? Beide GPU makers hebben met hoge regelmaat combo deals.
[ Voor 27% gewijzigd door ColinZ op 02-05-2014 23:58 ]
Hoe vaak heb je het "nieuws" dan gesubmit?Firedre schreef op vrijdag 02 mei 2014 @ 23:41:
http://www.techpowerup.co...es-watch-dogs-bundle.html
Al 3 dagen bekend, en niets te zien op de tweakershomepage.
Maar gelukkig, als AMD een scheet laat lezen we het meteen...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Op tweakers moet je niet zijn als het om Nvidia gaat, dat word altijd al veel minder besproken en de mensen hier zijn meer AMD minded ook al ontkennen ze het. Dit zie je ook wel terug in de vele berichten die wel en niet worden gepost over Nvidia, die berichten zijn er veel minder aanwezig te wel er genoeg nieuws te vinden is dus dat zegt wel genoeg over de voorkeur, maar wat ook kan zijn is dat hier gewoon veel minder Nvidia minded mensen rond hangen, in mindere mate zeg maar en dat zie je dan wel terug in het aantal posts over een bepaald merk. Dit is verder helemaal niet erg want dit heb je op iedere tech sides, zoo is het bij de buren meer Nvidia intel en bij guru3d ook meer nvidia onder de members.ColinZ schreef op vrijdag 02 mei 2014 @ 23:53:
[...]
Idd vaag dat dit nog niet op de homepage verschenen is. Vrijwel iedere gerenommeerde tech site heeft hier al wat over gepost.
Watch dogs is een game die ik toch al op mijn verlanglijst heb staan, dus misschien toch maar eens kijken voor een GTX760 of 770 om mijn bejaarde GTX275 te vervangen.
[...]
Tja of je het echt interessant vindt verschilt natuurlijk per persoon. Watch Dogs is echter wel een van de grotere releases van 2014. Dat dit je dit spel nu gratis bij een nieuwe nvidia gpu kan krijgen is voor een grote groep mensen wel zeer relevant.
Feiten:Verwijderd schreef op zaterdag 03 mei 2014 @ 12:50:
Op tweakers moet je niet zijn als het om Nvidia gaat, dat word altijd al veel minder besproken en de mensen hier zijn meer AMD minded ook al ontkennen ze het. Dit zie je ook wel terug in de vele berichten die wel en niet worden gepost over Nvidia, die berichten zijn er veel minder aanwezig te wel er genoeg nieuws te vinden is dus dat zegt wel genoeg over de voorkeur, maar wat ook kan zijn is dat hier gewoon veel minder Nvidia minded mensen rond hangen, in mindere mate zeg maar en dat zie je dan wel terug in het aantal posts over een bepaald merk. Dit is verder helemaal niet erg want dit heb je op iedere tech sides, zoo is het bij de buren meer Nvidia intel en bij guru3d ook meer nvidia onder de members.
226 nieuwsitems op "Geforce" sinds 2009
200 nieuwsitems op "Radeon" sinds 2009
Verwijderd
Hier ben ik het volkomen mee eens maar ik bedoel wat onder de members word gepost.Phuncz schreef op zaterdag 03 mei 2014 @ 13:07:
Subjectieve mening:
[...]
Feiten:
226 nieuwsitems op "Geforce" sinds 2009
200 nieuwsitems op "Radeon" sinds 2009
Je hebt fanboys, mensen die overal fanboys zien, en de neutrale poster.Verwijderd schreef op zaterdag 03 mei 2014 @ 13:14:
[...]
Hier ben ik het volkomen mee eens maar ik bedoel wat onder de members word gepost.
Raad eens onder welke categorie jij valt.
Verwijderd
Vrij neutraal want ik post zelf geen artikelen maar ik lees wel weer veel artikelen.unfor schreef op zaterdag 03 mei 2014 @ 13:17:
[...]
Je hebt fanboys, mensen die overal fanboys zien, en de neutrale poster.
Raad eens onder welke categorie jij valt.
Ik zeg verder dat het mij op valt in dat in de geposte artikelen door members meer over AMD gaan en dat het niet erg is want dit heb je op iedere tech site. Ik zeg verder ook niet dat het om fanboy's gaat want dat gaat nog een stapje verder dan alleen maar voorkeur hebben voor een bepaald merk.
Registratie: april 2014Verwijderd schreef op zaterdag 03 mei 2014 @ 13:24:
[...]
Vrij neutraal want ik post zelf geen artikelen maar ik lees wel weer veel artikelen.
Ik zeg verder dat het mij op valt in dat in de geposte artikelen door members meer over AMD gaan en dat het niet erg is want dit heb je op iedere tech site. Ik zeg verder ook niet dat het om fanboy's gaat want dat gaat nog een stapje verder dan alleen maar voorkeur hebben voor een bepaald merk.

Verwijderd
Klopt, je zal geen nieuwsartikelen vinden zoals ik al vertelde want dat lees ik liever van anderen want ik heb ook geen tijd om dat soort zaken op te zoeken vanwege veel te weinig tijd door werk. Ik lees hier zo nu en dan eens maar ben meer actief op buitenlandse websites waar ik wat meer post.
Edit
Weet iemand toevallig of de Titan ook al het geheugen kan aanspreken. De geheugen bus is aardig smal voor zo veel geheugen en ik merk vaak framedrops op als ik instellingen zo hoog mogelijk zet in battlefield 4. Geheugen verbruik zit dan over de 3 gig heen?
[ Voor 22% gewijzigd door Verwijderd op 03-05-2014 13:52 ]
Je kunt in GPU-Z checken hoeveel videogeheugen hij gebruikt. Welke instellingen draai je dan in BF4 als dat gebeurt?Verwijderd schreef op zaterdag 03 mei 2014 @ 13:32:
[...]
Weet iemand toevallig of de Titan ook al het geheugen kan aanspreken. De geheugen bus is aardig smal voor zo veel geheugen en ik merk vaak framedrops op als ik instellingen zo hoog mogelijk zet in battlefield 4. Geheugen verbruik zit dan over de 3 gig heen?
Hier probeert men vaak objectiever te zijn, natuurlijk zal je altijd Nvidia en AMD minded mensen hebben.Verwijderd schreef op zaterdag 03 mei 2014 @ 12:50:
[...]
Op tweakers moet je niet zijn als het om Nvidia gaat, dat word altijd al veel minder besproken en de mensen hier zijn meer AMD minded ook al ontkennen ze het. Dit zie je ook wel terug in de vele berichten die wel en niet worden gepost over Nvidia, die berichten zijn er veel minder aanwezig te wel er genoeg nieuws te vinden is dus dat zegt wel genoeg over de voorkeur, maar wat ook kan zijn is dat hier gewoon veel minder Nvidia minded mensen rond hangen, in mindere mate zeg maar en dat zie je dan wel terug in het aantal posts over een bepaald merk. Dit is verder helemaal niet erg want dit heb je op iedere tech sides, zoo is het bij de buren meer Nvidia intel en bij guru3d ook meer nvidia onder de members.
De meerderheid op tweakers heeft ook door dat een post door een schreeuwerige "fanboy" zonder bronnen van minder waarde is dan een post die goed onderbouwd is.
Tuurlijk, voorkeuren zullen altijd blijven bestaan, of het nu om de fabrikant van je gpu gaat of je favoriete voetbalclub. Dat gezegd hebbende, moet ik wel toegeven dat AMD wel vaak extra credits krijgt onder tweakers. Misschien omdat AMD altijd de underdog is, of omdat ze meer open source gericht zijn dan hun concurrenten. Niks mis natuurlijk, maar het valt me wel op de laatste paar jaar.Sp3ci3s8472 schreef op zaterdag 03 mei 2014 @ 15:57:
[...]
Hier probeert men vaak objectiever te zijn, natuurlijk zal je altijd Nvidia en AMD minded mensen hebben.
De meerderheid op tweakers heeft ook door dat een post door een schreeuwerige "fanboy" zonder bronnen van minder waarde is dan een post die goed onderbouwd is.
Bedankt voor de nuttige toevoeging aan deze discussie...madmaxnl schreef op zaterdag 03 mei 2014 @ 00:00:
Boehoe, bel anders even de krant...
Misschien dat het later weer omdraait, of alleen voor een bepaalde kaart, de tijd zal het ons leren.
Nvidia zal heus niet in prijs gaan zakken, dat zou alleen maar leiden tot eindeloze prijzenoorlogen die betekenen dat de kwaliteit lager zal worden en er uiteindelijk één van de twee partijen failliet gaat door een fout in strategie.
Verwijderd
Als je een argument niet kunt winnen hoef je niet meteen bijdehand te worden!unfor schreef op zaterdag 03 mei 2014 @ 13:26:
[...]
Registratie: april 2014
Verwijderd
Nu haal je ook dingen er bij die gewoon kloppen, ik heb veel winsten met de nieuwe drivers. Niet zo zeer max fps of meer fps maar juist bij de minimum fps. Dat veel tech sites dat niet laten zien komt omdat ze nooit de minimale fps mee nemen.
Het klopt verder wel dat de winsten maar 5-10 % (AVG) is en dat is natuurlijk veel minder dan Nvidia heeft opgegeven (71%). Alleen het belangrijkste word vergeten en dat zijn de minimum fps wisten zoals in bf4 Sieg of Shanghai map. Eerst 40 fps en nu 70 fps minimum. Ook crysis 3 heeft niet meer fps maar ik heb wel 10 fps meer op de mimimale fps waar door het minder schokkerig word.
Het verbruik ligt over de 3gb heen, ultra, resolution scale op 175% 2560x1440 maar heb vele meer last van dipjes dan op de normale instellingen en qua geheugen moet ik genoeg hebben om resolution scale om hoog te zetten.!mark schreef op zaterdag 03 mei 2014 @ 15:57:
[...]
Je kunt in GPU-Z checken hoeveel videogeheugen hij gebruikt. Welke instellingen draai je dan in BF4 als dat gebeurt?
[ Voor 22% gewijzigd door Verwijderd op 04-05-2014 10:22 ]
Scheelt heel erg per segment welke kaart beter/sneller is. Onder de €70 euro kom je bij AMD uit R7250. Kom je op €100 euro dan is ineens de GTX 750 de kaart met veel betere prijs/prestatie.mitsumark schreef op zaterdag 03 mei 2014 @ 18:09:
AMD kost voor evenveel fps net 10% minder, je hoeft geen fanboy te zijn om op dit moment een AMD aan te raden.
Misschien dat het later weer omdraait, of alleen voor een bepaalde kaart, de tijd zal het ons leren.
Daarnaast is het afwegen tussen zaken als Mantle, TrueAudio, Cuda, Physx, NVENC, enz. Iedere "streamer" kan eigenlijk niet anders dan een Nvidia kaart kopen. Scheelt gewoon de noodzaak voor een tweede stream rig voor de zware spellen.
[ Voor 10% gewijzigd door sdk1985 op 06-05-2014 01:05 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ah met die scale wil het geheugengebruik wel omhoog ja. Ter vergelijking 2560x1440 150%=4k[b][message=42179547,noline]
Het verbruik ligt over de 3gb heen, ultra, resolution scale op 175% 2560x1440 maar heb vele meer last van dipjes dan op de normale instellingen en qua geheugen moet ik genoeg hebben om resolution scale om hoog te zetten.
Kan zelf zonder haperingen o.i.d. 2560x1440 100% draaien, percentages boven de 100% moet ik vanaf blijven met één 780
[ Voor 3% gewijzigd door !mark op 06-05-2014 01:50 ]
Het verschilt inderdaad nog een beetje in welke range je kijkt. Ik kijk eigenlijk altijd alleen naar de kaarten boven de 150 eurosdk1985 schreef op dinsdag 06 mei 2014 @ 01:05:
[...]
Scheelt heel erg per segment welke kaart beter/sneller is. Onder de €70 euro kom je bij AMD uit R7250. Kom je op €100 euro dan is ineens de GTX 750 de kaart met veel betere prijs/prestatie.
Daarnaast is het afwegen tussen zaken als Mantle, TrueAudio, Cuda, Physx, NVENC, enz. Iedere "streamer" kan eigenlijk niet anders dan een Nvidia kaart kopen. Scheelt gewoon de noodzaak voor een tweede stream rig voor de zware spellen.
Maar rond de 100 euro heb je ook de 260X, die exact gelijk presteert aan de 750, dus een echte winner is de 750 ook niet (in ieder geval niet met 10% winst).
http://www.techpowerup.com/reviews/ASUS/GTX_750_OC/25.html
Nvidia kaarten zijn beter met opnemen (minder cpu load), maar voor het daadwerkelijk streamen zijn er (nog) te weinig mogelijkheden.
Mits 'dezelfde' prijs hebben beide fabrikanten inderdaad hun voor- en nadelen.
Streamen met NVENC gaat al een tijdje probleemloos. Als ik me niet vergis zit twitch.tv ondersteuning sinds geforce experience 2.x in shadowplay. Met de 337.50 driver kun je nu ook desktop capturen voor games als League of Legends.
Ik gebruikt zelf al een tijd OBS (openbroadcast software). Heb de maker een keer een mailtje gestuurd of hij niet eens kon kijken naar NVENC. Mailtje terug gehad dat hij erna ging kijken en het zit nu in OBS
[ Voor 20% gewijzigd door sdk1985 op 06-05-2014 17:05 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Nog meer Watch Dogs nieuws over Nvidia tech die in de game zit verwerkt.
YouTube: Watch_Dogs featuring NVIDIA Technologies [UK]
OBS kan gewoon alles capturen, dus ook je "OpenTTD" window om maar iets geks te noemen. Resolutie, framerate, bitrate etc stel je zelf in.mitsumark schreef op dinsdag 06 mei 2014 @ 22:14:
Kun je tegenwoordig dan ook wat meer spelen met resolutie en fps voor het streamen?
Waarschijnlijk kan het ondertussen met Shadowplay ook wel ivm desktop capture mode, maar heb deze zelf niet kunnen testen (nog geen 337.50 geinstalleerd).
[ Voor 5% gewijzigd door sdk1985 op 07-05-2014 00:50 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Op het laatste moment NDA's verschuiven is leuk, maar als een papieren magazine al naar de drukker is, kun je daar weinig meer aan doen. Daardoor is de eerste review van de Titan Z uitgelekt en kunnen we meteen begrijpen waarom Nvidia de kaart tot nader order heeft uitgesteld: de Titan Z is niet of nauwelijks sneller dan de R9 295X2, terwijl de adviesprijs meer dan het dubbele bedraagt.
Hoewel er twee volledig ingeschakelde GK110-GPU's worden gebruikt, zijn die ondergeklokt naar 706 MHz met een boostklok van 876 MHz. De Titan Black draait standaard op 890 MHz en kan doorklokken tot 980 MHz: een serieus verschil dus. Uit de review van het Hongkongse E-Zone-magazine blijkt dat de Titan Z onder load meer dan 80 graden warm wordt, terwijl het testsysteem toen 618 watt uit het stopcontact trok. Daarmee is 'ie maar 60 watt zuiniger dan de R9 295X2, die een eigen waterkoelsysteem heeft en daardoor maar ongeveer 60 graden wordt.
Veel rek zit er dus niet meer in de drieslotskoeler van de Titan Z, maar Nvidia zou de kloks maar wat graag hoger instellen. Volgens de benchmarks van E-Zone wisselt het per game of de Titan Z of juist de R9 295X2 sneller is. Een SLI-opstelling van GTX 780 Ti's was in alle gevallen sneller, terwijl de R9 295X2 door de bank genomen juist wat sneller is dan twee 290X-videokaarten in CrossFire.
De Hongkongers waren duidelijk in hun conclusie: voor de prijs van de Titan Z kun je ook vier 780 Ti's kopen, dus koop 'm vooral niet. Wanneer Nvidia de GeForce GTX Titan Z nou wel op de markt zal brengen, weten we nog niet. Eerder werden 29 april en 8 mei als data genoemd, maar het groene kamp zag dus op tijd in dat de Titan Z in deze vorm geen potten zou gaan breken.
Grootgebruiker van MS Word. Maar het wordt nooit perfect...
Verwijderd
Dat nvidia zo'n kaart als nog op de markt wil brengen is om te laten zien wat ze in huis hebben.
Natuurlijk is er altijd een prijspremium bij kaarten met twee chips op een printplaat. Echter verschilt het in dit geval wel heel veel tussen de AMD en nVidia variant:Verwijderd schreef op woensdag 14 mei 2014 @ 11:51:
Maar als je het bekijkt op prijs prestatie verhoudingen dan is de 295x een veel betere keuze maar nog niet om aan te raden want je heb daar tegenover ook een snellere goedkopere oplossing voor.
Dat nvidia zo'n kaart als nog op de markt wil brengen is om te laten zien wat ze in huis hebben.
... de Titan Z is niet of nauwelijks sneller dan de R9 295X2, terwijl de adviesprijs meer dan het dubbele bedraagt.
... blijkt dat de Titan Z onder load meer dan 80 graden warm wordt, terwijl [...] de R9 295X2 maar ongeveer 60 graden wordt
Dat is dus ondanks het "2-in1" prijspremium niet in verhouding tot de rest van nVidias line-up en al helemaal niet t.o.v. die van AMD.... voor de prijs van de Titan Z kun je ook vier 780 Ti's kopen
Ik ben benieuwd of ze de prestaties nog wat op kunnen krikken voor het nieuwe NDA verloopt.
...and your ass will follow
Hmm dan moet ik voortaan maar geen kaarten meer kopen van onder de 500 euroVerwijderd schreef op woensdag 14 mei 2014 @ 11:51:
Maar als je het bekijkt op prijs prestatie verhoudingen dan is de 295x een veel betere keuze maar nog niet om aan te raden want je heb daar tegenover ook een snellere goedkopere oplossing voor.
Dat nvidia zo'n kaart als nog op de markt wil brengen is om te laten zien wat ze in huis hebben.
Ik vraag me af waarom Nvidia niet 2x een 780Ti op een kaart zet, deze is meer gericht op gamen en zal in de meeste gevallen wel beter presteren.
De Titan zal misschien leuk zijn voor mensen die Cuda gebruiken maar die zullen over het algemeen als ze serieus bezig zijn toch een proffesionele kaart kopen.
Was een Z niet 2x de ultieme(full) GK110 chip? Lagere prestaties zijn volgens mij volledig voor rekening van de lagere kloksnelheid. En ondanks dat de Z 60 watt minder verstookt dan een 295x, is wegens enkel luchtkoeling geen ruimte om een hoger verbruik te koelen.Sp3ci3s8472 schreef op woensdag 14 mei 2014 @ 19:03:
[...]
Hmm dan moet ik voortaan maar geen kaarten meer kopen van onder de 500 euro.
Ik vraag me af waarom Nvidia niet 2x een 780Ti op een kaart zet, deze is meer gericht op gamen en zal in de meeste gevallen wel beter presteren.
De Titan zal misschien leuk zijn voor mensen die Cuda gebruiken maar die zullen over het algemeen als ze serieus bezig zijn toch een profesionele kaart kopen.
Ik denk dat voor mensen met een Custom WC en oneindig diepe zakken de Z de betere keus. Met 60 watt extra kan de Z waarschijnlijk wel van zich afbijten, blijft staan dat de bang/buck ridicuul is, maar in hoeverre dat uitmaakt voor mensen die dergelijke kaarten overwegen
Ik zou wel met onbeperkt budget een micro-ATX build willen bouwen met 2 van deze schatjes
Ik zat weg te dromen met 1 reserator per GPU, maar, ik kan er dan beter een WTW van maken denk ik of er een badkuip van modificeren en de componenten coaten;)
[ Voor 10% gewijzigd door eL_Jay op 14-05-2014 19:28 ]
Dat is dacht ik inderdaad de variant waar alles is geunlocked. Bij de GTX780Ti zijn er volgens mij wat GPGPU gerelateerde uitgeschakeld, of dit via de bios of hardwarematig is weet ik niet. Vandaar dat dat mij een betere keuze leek.eL_Jay schreef op woensdag 14 mei 2014 @ 19:13:
[...]
Was een Z niet 2x de ultieme(full) GK110 chip? Lagere prestaties zijn volgens mij volledig voor rekening van de lagere kloksnelheid. En ondanks dat de Z 60 watt minder verstookt dan een 295x, is wegens enkel luchtkoeling geen ruimte om een hoger verbruik te koelen. Ik denk dat voor mensen met een Custom WC en oneindig diepe zakken de Z de betere keus. Met 60 watt extra kan de Z waarschijnlijk wel van zich afbijten, blijft staan dat de bang/buck ridicuul is, maar in hoeverre dat uitmaakt voor mensen die dergelijke kaarten overwegen
Zodra een chip warmer wordt is de perf/watt ook minder hoog, met 60 Watt zou hij inderdaad waarschijnlijk beter presteren. Als hier nou ook waterkoeling op zou zitten
Het is wel een trend bij beide kampen dat het gebruik gigantisch toeneemt, ik heb ooit nog een 7800GS gehad, deze had maar een keer 12volt nodig met natuurlijk het agp slot. Als je kijkt hoeveel die gebruikt tegenover nieuwe kaarten
Is nog steeds +12V hoor - zijn er alleen 2 of 3 (6-/8-pins) in plaats van 1 met nog wat lagere voltagesSp3ci3s8472 schreef op woensdag 14 mei 2014 @ 19:28:
Het is wel een trend bij beide kampen dat het gebruik gigantisch toeneemt, ik heb ooit nog een 7800GS gehad, deze had maar een keer 12volt nodig met natuurlijk het agp slot. Als je kijkt hoeveel die gebruikt tegenover nieuwe kaarten.
Jouw 7800 GS mocht toen 110W trekken (de +3.3V en +5V werden toen ook gebruikt). Zal hij inderdaad niet gedaan hebben, maar je moet voltages hier niet verwarren met wattages
KloptWerelds schreef op woensdag 14 mei 2014 @ 20:06:
[...]
Is nog steeds +12V hoor - zijn er alleen 2 of 3 (6-/8-pins) in plaats van 1 met nog wat lagere voltages
Jouw 7800 GS mocht toen 110W trekken (de +3.3V en +5V werden toen ook gebruikt). Zal hij inderdaad niet gedaan hebben, maar je moet voltages hier niet verwarren met wattages
Ik weet gelukkig wat wattages zijn (W = A × V of P = I * V) ^^.
Dat was toen een highend kaart, die pakken tegenwoordig veel meer.
[ Voor 0% gewijzigd door Sp3ci3s8472 op 14-05-2014 20:59 . Reden: natuurkunde! ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
wattage = volt x ampere
Zo heb ik het geleerd. Dus eigenlijk is dit wel W = A x V maar P = U x I is de officieële
Verwijderd
Bedankt voor deze mededeling, lees ook over performance winsten tegenover driver 337.61bij bij users maar dat komt dan vast weer in de volgende release note te staan. Ik blijf zelf nog even bij 337.50 want die werken top bij mij wan bij veel games gaat de minimale fps met deze drivers flink om hoog, max fps niet maar die zijn minder belangrijk.
Maxwell 20nm gaat nog wel even duren. Maxwell 28nm zou een potentiele tussenstap kunnen zijn maar wordt niet verwacht (buiten de huidige 750/ti). Ik verwacht de komende 5 maanden geen high-end maxwell.Tripwire999 schreef op dinsdag 20 mei 2014 @ 12:32:
Hoe zit het nou precies met de Maxwell release? Ik dacht dat deze midden 2014 uit zou komen maar lees nu verschillende berichten dat deze eind 2014 of zelfs begin 2015 uit komt. Ik wil mijn 670 gaan upgraden naar een 780ti maar als de nieuwe Maxwell kaarten midden 2014 uitkomen wacht ik nog wel even.
Misschien net voor de feestdagen of plausibeler Q1 2015.
Let wel dit is allemaal speculatie
Dat lijkt me duidelijk in ieder geval. Dan denk ik dat ik toch maar ga upgraden. Kan ik altijd nog SLI gaan mochten de kaarten goedkoper worden.eL_Jay schreef op dinsdag 20 mei 2014 @ 12:34:
[...]
Maxwell 20nm gaat nog wel even duren. Maxwell 28nm zou een potentiele tussenstap kunnen zijn maar wordt niet verwacht (buiten de huidige 750/ti). Ik verwacht de komende 5 maanden geen high-end maxwell.
Misschien net voor de feestdagen of plausibeler Q1 2015.
Let wel dit is allemaal speculatie
Ik weet niet of ik het hier of in het Radeon topic had gepost maar er zijn geruchten dat 20nm alleen nog voor lowpowered apparaten gebruikt kan worden, omdat het proces voor high-power (GPU's) niet goed genoeg is om echt competitief te zijn met 28nm. Voeg daaraan toe de alsmaar rijzende kosten van wafers, die inmiddels zo hard stijgen per shrink dat een chip met nog kleinere transistors méér kost ipv minder zoals altijd het geval was, en AMD en nVidia kijken de kat nog even uit de boom.eL_Jay schreef op dinsdag 20 mei 2014 @ 12:34:
[...]
Maxwell 20nm gaat nog wel even duren. Maxwell 28nm zou een potentiele tussenstap kunnen zijn maar wordt niet verwacht (buiten de huidige 750/ti). Ik verwacht de komende 5 maanden geen high-end maxwell.
Misschien net voor de feestdagen of plausibeler Q1 2015.
Let wel dit is allemaal speculatie
AMD heeft echter wel een contract met GlobalFoundries afgesloten dus als TSMC echt niks voor elkaar krijgt hebben zij een backupplan (als ik alles goed begrepen heb). nVidia kan zoiets natuurlijk ook nog overwegen.
01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110
Verwijderd
http://nl.hardware.info/n...-en-g-sync-met-de-xb280hk
Dit komt wel van pas vanwege de lage fps die word gehaalt op 4k.
Ligt helemaal aan je eisen, resolutie en de rest van je systeem.Pixarr schreef op vrijdag 23 mei 2014 @ 12:56:
Is het de moeite waard een GTX 660 al te vervangen door een nieuwere videokaart? Of is dat niet nodig en kan ik bijvoorbeeld Watch Dogs op High spelen?
Verwijderd
De game is verder best pittig wil je echt alles op ultra kunnen spelen met custom ini dan is minimaal een gtx780 of een hd 290 nodig, en daar bij heeft nvidia het voordeel van extra graphics opties zoals HBO+ en TXAA en dergelijke wat het nog mooier maakt.
voor mensen met een Nvidia kaart is deze nieuwe WHQL drivers aan te raden.
eForce 337.88 WHQL, Game Ready Watch Dogs Drivers Increase Frame Rates By Up To 75%
http://www.geforce.com/wh...88-whql-watch-dog-drivers
Graphics Performance en tweaks
http://www.geforce.com/wh...rmance-and-tweaking-guide
http://www.forbes.com/sit...tire-pc-gaming-ecosystem/
Het hele 8core verhaal is gewoon bullisht, http://www.techspot.com/r...ogs-benchmarks/page5.html
Dat is altijd zo, net als dat games HT ondersteunen (je hebt immers een i7 nodig voor de meeste recommended settings!mark schreef op dinsdag 27 mei 2014 @ 10:49:
Ben hem nu aan het downloaden via Uplay, ben wel beniewd eigenlijk.
Het hele 8core verhaal is gewoon bullisht, http://www.techspot.com/r...ogs-benchmarks/page5.html

Oh jee het fragiele pc gaming ecosystem wordt bedreigd.

Wat een drama queen die robert hallock. Als gameworks echt een obstakel is voor goeie performance op amd kaarten dan stoppen ontwikkelaars vanzelf met het gebruik ervan.
Mechwarrior Online: Flapdrol
Hij heeft een punt, als je je groene bril afzet dan kan je dat misschien zien.haarbal schreef op dinsdag 27 mei 2014 @ 13:11:
[...]
Oh jee het fragiele pc gaming ecosystem wordt bedreigd.![]()
Wat een drama queen die robert hallock. Als gameworks echt een obstakel is voor goeie performance op amd kaarten dan stoppen ontwikkelaars vanzelf met het gebruik ervan.
Het is slecht als game developpers zulke dingen gaan gebruiken, Nvidia kan express dingen in hun code verwerken zodat het op de kaarten van de competitie slechter loopt, niemand kan dat controleren.
Mooi voorbeeld is het moment dat AMD TressFX in Tomb Raider had en het had slechte performance op Nvidia kaarten, toen was er geen forum meer veilig voor het gewhine van Nvidia fanboys terwijl dat gewoon open code was. Dit heeft Nvidia dus gewoon kunnen fixen omdat ze bij de code konden komen, het draait nu even goed op Nvidia kaarten als AMD kaarten zoals het hoort.
Nu is er een closed library zoals gameworks, daar kan je gewoon niks mee beginnen want je kan geen fixes schrijven voor zoiets omdat je niet bij de source kan.
Als je als gamedevelopper een zak geld krijgt plus code voor shaders en andere leuke trukjes dan is het hard om niet ja te zeggen, vooral voor kleinere gamestudios. Het scheelt gewoon een boel ontwikkel tijd, ik mag hopen met de nieuwe licentie methodes van Cryengine en Unreal Engine dat meer ontwikkelaars daar voor kiezen en dus minder hoeven te vertrouwens op ondingen zoals gameworks.
Volgens het stukje zit gameworks verwerkt in Unreal Engine 4....Sp3ci3s8472 schreef op dinsdag 27 mei 2014 @ 13:53:
Als je als gamedevelopper een zak geld krijgt plus code voor shaders en andere leuke trukjes dan is het hard om niet ja te zeggen, vooral voor kleinere gamestudios. Het scheelt gewoon een boel ontwikkel tijd, ik mag hopen met de nieuwe licentie methodes van Cryengine en Unreal Engine dat meer ontwikkelaars daar voor kiezen en dus minder hoeven te vertrouwens op ondingen zoals gameworks.
Moet ik er wel bij zeggen dat de twee performance reviews die ik heb gezien (buiten die in het stukje) gewoon laten zien dat een 290(x) betere performance heeft dan een 770. Al had een review wel heel een sloot aan issues met het spel.
Verwijderd
Helaas jaZeara schreef op dinsdag 27 mei 2014 @ 14:05:
[...]
Volgens het stukje zit gameworks verwerkt in Unreal Engine 4....
Moet ik er wel bij zeggen dat de twee performance reviews die ik heb gezien (buiten die in het stukje) gewoon laten zien dat een 290(x) betere performance heeft dan een 770. Al had een review wel heel een sloot aan issues met het spel.
http://blogs.nvidia.com/blog/2014/03/19/epic-games/
Daarmee schieten ze zichzelf dus in de voeten, alle consoles op de PS3 na draaien AMD hardware“Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce,” says Tim Sweeney, founder, CEO and technical director of Epic Games.

@hieronder
Inderdaad, ik bedoel Epic
Verwijderd
[ Voor 8% gewijzigd door Verwijderd op 27-05-2014 15:12 ]
Verwijderd
[ Voor 33% gewijzigd door Verwijderd op 27-05-2014 15:17 ]
Aangezien nu al blijkt dat de hardware van de PS4 maar vooral de XBOne nog steeds niet alles op 1080p60 aankunnen is het natuurlijk niet verstandig een veelgebruikte engine te optimaliseren voor nVidia hardware als er AMD-hardware in beide consoles zit. Dat is wat er bedoeld wordt.Verwijderd schreef op dinsdag 27 mei 2014 @ 15:15:
Ik snap het probleem niet zo, want die games draaien gewoon goed op de console? Dus nee niemand schiet hier mee zich zelf in de voeten. Het gaat meer om de pc versie van de games want op de console is alles gelijk en daar worden vast nog meer dan genoeg games voor verkocht.
Het zal prima draaien op de consoles, maar ondanks de betere low-level optimalisatie en toch prima hardware voor consoles kunnen zij nog steeds niet 1080p60 aan.
...and your ass will follow
Why 'Watch Dogs' Is Bad News For AMD Users -- And Potentially The Entire PC Gaming Ecosystem
[ Voor 34% gewijzigd door madmaxnl op 27-05-2014 17:06 ]
Gameworks is een nieuwe naam voor alles a la twimtbp, txaa, physx, etc. Leipe optimalisaties met complete onverschilligheid mbt de prestaties van de concurrent gebeurde al bij twimtbp/gaming evolved. Ik zie niet wat er nou opeens zo nieuw is. Ook zal unreal engine echt niet brak gaan draaien op amd als ze txaa als optie toevoegen, maar wel "gameworks".Sp3ci3s8472 schreef op dinsdag 27 mei 2014 @ 13:53:
[...]
Het is slecht als game developpers zulke dingen gaan gebruiken, Nvidia kan express dingen in hun code verwerken zodat het op de kaarten van de competitie slechter loopt, niemand kan dat controleren.
en die blogpost (is geen forbes artikel) had el jay 10 posts geleden ook al gelinkt.
[ Voor 3% gewijzigd door haarbal op 27-05-2014 18:12 ]
Mechwarrior Online: Flapdrol
Verwijderd
Dat is het probleem juist, het zijn niet alleen de extra opties. SSAO wordt ook via gameworks gedaan zover ik weet, Nvidia kaarten krijgen daar als extra HBAO nog. Dat ze iets extra's krijgen dat maakt mij in principe niet uit, wat mij wel uitmaakt is dat bepaalde shading code die door alle fabrikanten gebruikt wordt in gameworks zit.Verwijderd schreef op dinsdag 27 mei 2014 @ 19:22:
Precies, het word ook niet tegengehouden, enkel wat extra opties wat je op nvidia kaarten kunt draaien, daar om heen zijn de games voor beide partijen goed geoptimaliseerd. Niets aan het handje dus voor de consoles met AMD hardware.
Het is erg moeilijk (of onmogelijk) optimaliseren voor zoiets.
Stel dat ik jou een dll zou geven met allemaal fancy code, welke ik toevallig voor Via (underdog supreme
Zie het zo vroeger kon je met Nvidia kaarten glreadpixels erg snel pixel data uitlezen. Als je dat met een nieuwe kaart probeert dan is de performance niet vooruit te branden.
De functie hebben ze gethrottled omdat het geen professionele kaart is, in de meeste gevallen is het verschil tussen een professionele kaart en een consumenten kaart niks meer dan de driver.
https://forums.geforce.com/default/topic/464974/geforce-drivers/opengl-glreadpixels-performance-much-lower-on-gtx480-vs-gtx285/2/
hbao en ssao zie je in elk spel, is geen gameworks.Sp3ci3s8472 schreef op dinsdag 27 mei 2014 @ 21:33:
[...]
Dat is het probleem juist, het zijn niet alleen de extra opties. SSAO wordt ook via gameworks gedaan zover ik weet, Nvidia kaarten krijgen daar als extra HBAO nog. Dat ze iets extra's krijgen dat maakt mij in principe niet uit, wat mij wel uitmaakt is dat bepaalde shading code die door alle fabrikanten gebruikt wordt in gameworks zit.
Het is erg moeilijk (of onmogelijk) optimaliseren voor zoiets.
misschien hdao en hbao+? Ik weet er het fijne niet van, mijn gpu is te langzaam voor dat soort grappen.
Mechwarrior Online: Flapdrol
Nee de techniek zelf niet (die bestaat al jaren), maar als het door gameworks code wordt toegevoegd aan een spel dan zit het wel degelijk in gameworks.haarbal schreef op dinsdag 27 mei 2014 @ 22:03:
[...]
hbao en ssao zie je in elk spel, is geen gameworks.
misschien hdao en hbao+? Ik weet er het fijne niet van, mijn gpu is te langzaam voor dat soort grappen.
Dan weet je ook haast wel zeker dat als een spel het heeft en het heeft gameworks dat het daardoor wordt afgehandelt.
Zie link met SSAO code.
https://developer.nvidia.com/gameworks-directx-samples
Punt wat ik probeer te maken is dat gesloten code gewoon slecht is voor de ontwikkeling van de gameindustrie omdat je andere vendors uitsluit van het optimaliseren daarvan.
Als AMD hetzelfde had gedaan dan had je mij daar ook horen zeuren
Gameworks daarentegen is wel vervelend want het wordt je opgedrongen. Nu koop ik zelf weinig spellen, maar ik zou spellen met gameworks om die reden gewoon links laten liggen. Genoeg andere leuke spellen.
En bij Mantle-spellen is straks het DirectX codepath ook geoptimaliseerd voor Nvidia kaarten? Dan is het toch precies hetzelfde, dat je als game-ontwikkelaar voor beide moet optimaliseren? Ik zie het verschil niet.Sp3ci3s8472 schreef op woensdag 28 mei 2014 @ 01:55:
[...]
Als AMD hetzelfde had gedaan dan had je mij daar ook horen zeuren, maar AMD pakt het gewoon anders aan, zie TressFX. Een ander voorbeeld is Mantle, Nvidia kaarten hebben daar geen last van want die pakken gewoon het Directx codepath.
Verwijderd
Klopt het is precies het zelfde en word ook nu veel besproken op tech sites, dat ze beide deze streken gebruiken. Ik vraag me alleen af of bij WD allen gaat om code's voor hbao+ en TXAA, als dit het geval is er geen probleem maar als het om de hele engine gaat is het natuurlijk niet zo mooi voor AMD gebruikers, de vraag is dus nog steeds gaat het om de hele engine of enkel de extra functies?Domokoen schreef op woensdag 28 mei 2014 @ 09:51:
[...]
En bij Mantle-spellen is straks het DirectX codepath ook geoptimaliseerd voor Nvidia kaarten? Dan is het toch precies hetzelfde, dat je als game-ontwikkelaar voor beide moet optimaliseren? Ik zie het verschil niet.
http://www.forbes.com/sit...tire-pc-gaming-ecosystem/
Ze zijn er mee bezig en er word vast nog meer uitgelegt. Ik ga er zelf niet zo over klagen in ieder geval wat dan kan ik gaan klagen over AMD en over Nvidia en daar heb ik helemaal geen zin in, je krijgt er lleen maar een hoop gezeur door op fora, de een wijst naar die de ander weer naar die en de mensen komen er nooit uit vanwge hun brilletjes. Deze AMD vs Nvida is hier ook niet zo gewenst.
Edit
Nog meer er over.
http://www.extremetech.co...ion-and-amd-performance/2
[ Voor 6% gewijzigd door Verwijderd op 28-05-2014 12:06 ]
Mechwarrior Online: Flapdrol
Het grote verschil is dat Nvidia en AMD beide vaak meewerken aan spellen. Als ze merken dat bepaalde dingen bij een developper slecht draaien dan leveren ze vaak zelf code om dit op te lossen.Domokoen schreef op woensdag 28 mei 2014 @ 09:51:
[...]
En bij Mantle-spellen is straks het DirectX codepath ook geoptimaliseerd voor Nvidia kaarten? Dan is het toch precies hetzelfde, dat je als game-ontwikkelaar voor beide moet optimaliseren? Ik zie het verschil niet.
In het geval van DX of OpenGL is er veel kennis in huis bij beide kampen dus kunnen ze code aandragen indien het slecht draait.
Als een ontwikkelaar GameWorks draait en iets daarvan draait slecht op AMD kaarten dan kan AMD nog zo veel code aanleveren maar dat komt er nooit in omdat het vastgebakken zit.
Dat is grote het verschil tussen Mantle en GameWorks.
Verwijderd
Maar je mist al weer het punt dat het om de code gaat die alleen werkt met Nvidia kaarten, dus de GameWorks technieken zoals TXAA en HBAO+ en daar om heen zit nog een open code die door iedereen gebruikt kan worden voor optimalisaties van de game, en het is aan AMD om daar goed gebruik van te maken, verder zit het ook niet in de weg voor die AMD optimalisaties zoals standaard AA, AO, CF en dergelijke.Sp3ci3s8472 schreef op woensdag 28 mei 2014 @ 14:51:
[...]
Het grote verschil is dat Nvidia en AMD beide vaak meewerken aan spellen. Als ze merken dat bepaalde dingen bij een developper slecht draaien dan leveren ze vaak zelf code om dit op te lossen.
In het geval van DX of OpenGL is er veel kennis in huis bij beide kampen dus kunnen ze code aandragen indien het slecht draait.
Als een ontwikkelaar GameWorks draait en iets daarvan draait slecht op AMD kaarten dan kan AMD nog zo veel code aanleveren maar dat komt er nooit in omdat het vastgebakken zit.
Dat is grote het verschil tussen Mantle en GameWorks.
Wat wel een nadeel kan zijn voor iemand met een AMD kaart, en die ook gebruik wil maken van bepaalde Nvidia instellingen, die moeten dat dan missen en dat is het eenige nadeel van GameWorks.
Jij mist het punt het punt is is dat het niet alleen Nvidia only technieken zijn die via GameWorks lopen. Voor je hier op reageerd ga je eerst eens inlezen.Verwijderd schreef op woensdag 28 mei 2014 @ 15:27:
[...]
Maar je mist al weer het punt dat het om de code gaat die alleen werkt met Nvidia kaarten, dus de GameWorks technieken zoals TXAA en HBAO+ en daar om heen zit nog een open code die door iedereen gebruikt kan worden voor optimalisaties van de game, en het is aan AMD om daar goed gebruik van te maken, verder zit het ook niet in de weg voor die AMD optimalisaties zoals standaard AA, AO, CF en dergelijke.
Wat wel een nadeel kan zijn voor iemand met een AMD kaart, en die ook gebruik wil maken van bepaalde Nvidia instellingen, die moeten dat dan missen en dat is het eenige nadeel van GameWorks.
[ Voor 3% gewijzigd door haarbal op 28-05-2014 16:35 ]
Mechwarrior Online: Flapdrol
Verwijderd
Klopt dat punt miste ik nog want er zitten meer opties in zoals 'Bokeh' wat geloof ik ook op AMD draaid en ik denk de optie 'Turbelance' want ik meende te hebben gezin in de ini files van WD.Sp3ci3s8472 schreef op woensdag 28 mei 2014 @ 16:09:
[...]
Jij mist het punt het punt is is dat het niet alleen Nvidia only technieken zijn die via GameWorks lopen. Voor je hier op reageerd ga je eerst eens inlezen.
Hier een mooi overzichtje van alle GameWorks technieken. https://developer.nvidia....roducing-nvidia-gameworks
- nvidia only features omvatten
- maar vooral ook algemene features of
- algemene features waar nvidia een al dan niet nuttige 'exclusieve' twist heeft gegeven
- deze libraries closed zijn zodat AMD/Intel/etc. ze niet in kan zien en de developer alleen icm NDA (en betaling?)
- de features geheel of voor een belangrijk deel niet meer door de developer zelf gecode hoeven worden
- de features ook niet meer via andere 'open' libraries beschikbaar komen
- de developer nog een paar hooibalen geld krijgt van nvidia
- nvidia e.e.a. ook nog zo gecode heeft zodat ze zeker weten dat het kut loopt op de hardware vd concurrent
- ze afgesproken hebben dat gameworks exclusief is zodat de developer in feite niet meer 'mag' samenwerken met intel/amd.
And if so, zie ik werkelijk niet in hoe dit ook maar enigzins in het belang van "de gamer" kan zijn, maar ik laat het me graag uitleggen....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dit is het enige dat echt uitmaakt, en het is gewoon niet zo. Watch dogs zit vol met gameworks, en draait gewoon vergelijkbaar op amd/nvidia.Help!!!! schreef op woensdag 28 mei 2014 @ 19:19:
• ze afgesproken hebben dat gameworks exclusief is zodat de developer in feite niet meer 'mag' samenwerken met intel/amd.
Mechwarrior Online: Flapdrol
Zucht, dat is nu juist het punt, zonder gameworks zou het waarschijnlijk (veel) sneller draaien op AMD/Intel.haarbal schreef op donderdag 29 mei 2014 @ 09:32:
[...]
Dit is het enige dat echt uitmaakt, en het is gewoon niet zo. Watch dogs zit vol met gameworks, en draait gewoon vergelijkbaar op amd/nvidia.
Anyway kwam nog een paar items over gameworks tegen, even lezen, wellicht verheldert dit nog het e.e.a.:
http://www.pcper.com/revi...rks-Program-Devil-Details
http://techreport.com/new...amd-gameworks-allegations
[ Voor 4% gewijzigd door Help!!!! op 29-05-2014 11:48 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Erg interessant, het is dus pas sinds kort (half april) dat de source code wel beschikbaar is voor developpers voor x aantal geld (want de prijs willen ze niet vrijgeven).Help!!!! schreef op donderdag 29 mei 2014 @ 11:30:
[...]
Zucht, dat is nu juist het punt, zonder gameworks zou het waarschijnlijk (veel) sneller draaien op AMD/Intel.
Anyway kwam nog een paar items over gameworks tegen, even lezen, wellicht verheldert dit nog het e.e.a.:
http://www.pcper.com/revi...rks-Program-Devil-Details
http://techreport.com/new...amd-gameworks-allegations
Watchdogs draait volgens mij nu slecht op beide systemen en het ziet er niet eens super next gen uit. Wel jammer, zie hier ook de review van TotalBiscuit (eerste 10 min is hij bezig met zeuren dat zijn GTX780 SLI setup het spel niet goed wil draaien
Ik moet eerlijk zeggen dat als ik vanaf 32 minuten echt haast misselijk wordt om naar de gamefootage te kijken, daar gaat iets fout want het lijkt net alsof het beeld timewarped (misschien door fps issues). Het kan ook aan de opname liggen..
Trouwens nog twee interessante artikelen over OpenGL/Valve/Steambox:
http://richg42.blogspot.c...pengl-driver-quality.html
http://www.extremetech.co...-wretched-state-of-opengl
Nog een (oud maar relevant) artikel over Intel en discrete gpus.
http://semiaccurate.com/2012/12/17/intel-slams-the-door-on-discrete-gpus/
Verwijderd
Hij reviewed volgens mij ook niet op die dingen, voor een gemiddelde gebruiker is een ini al evilVerwijderd schreef op donderdag 29 mei 2014 @ 16:22:
Hij gebruikt niet eens de echte max instellingen van Wacht dogs, die kun je aanpassen met een ini file en dan ziet het er een stuk beter uit. Performance valt nog wel te verbeteren want bij mij heb ik ook af en toe een hapering maar mijn graphics zijn een stukje mooier.
Heb jij geen last van die "dronkenmansrit"?
Verwijderd
Goed nieuw er word nog aan een perormance patch gewerkt.
http://www.forbes.com/sit...ice-to-boost-performance/
Verder zit er ook nog wat in wat Nvidia en AMD aan gaat.
Nvidia says that AMD was free to approach Ubisoft at any time to suggest tweaks and improvements to the game for their hardware.
Verwijderd
Bedankt alvast!
Nee, enkels als je SLI gaat draaien kan het iets noemenswaardigs uitmaken, maar dan is het eerder het aantal PCIe lanes dat daarvoor bepalend is. De Ivy Bridge en Sandy Bridge CPU's doen nog allemaal mee
De tijd dat de CPU's elk jaar rasse schreden verbeterde is gedaan voorlopig.
Verwijderd

3x meegemaakt helaas... maar gelukkig nooit met een eigen videokaart
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dat jij een nare ervaring hebt met een bedrijf wil niet zeggen dat dit altijd zo is. Ik heb namelijk al 3x anders meegemaakt met problemen met dit bedrijf en dit was keurig opgelost en de artikelen vervangen voor een nieuwe waaronder een monitor en 2x een graka.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Verwijderd
http://nl.hardware.info/n...0-hall-of-fame-gelanceerd
Jammer dat er niet gelijk 6gb op de gtx780 werd gezet want het komt nu wel van pas. De ti zal vast ook nog wel volgen?
Ik weet dat er een low profile variant is van de 750TI, die zal toch enigste zijn?
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Deze zou single-slot zijn, maar geen low profile. Er zijn ook niet echt meer single-slots te vinden.
Ik vrees ervoor dat dat juist een brug te ver is.
Ben alleen bang dat de low profile categorie stervende is...
Weet zeker dat als nVidia er low profile reference kaarten van gemaakt hadden, er meer fabrikanten LP varianten uitgebracht hadden. (zeker van de 750)
Ben bang dat ik dan toch de R7 250 moet nemen. Vind dit wel een gemist schot van nVidia.
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Galaxy en KFA2 heeft een low profile, maar ik vrees dat single slot en low profile moeilijk isthijsco19 schreef op zondag 01 juni 2014 @ 15:33:
Nu de GTX750 (/TI) al effe uit zijn, weet iemand of er plannen zijn voor een single slot low profile variant?
Ik weet dat er een low profile variant is van de 750TI, die zal toch enigste zijn?
dan bekom je heel kleine koelers die het toch net niet zijn
een GTX 750 is wel zuinig, maar ook niet zo zuinig vrees ik
Dit topic is gesloten.