Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het is IMO gewoon erg onprofessioneel om de pers kaarten wel gewoon standaard op het OC profiel te laten draaien en de consumenten moeten maar de hele software catalogus van MSI installeren om daar gebruik van te kunnen maken
Laatste reactie, dan is het mooi geweest voor mij.-The_Mask- schreef op dinsdag 21 juni 2016 @ 22:55:
Dus 5%, 10% overklokken of meer vind je ook niet erg? Of speciale versies welke veel verder kunnen overklokken dan de retail samples zijn dan ook geen probleem zeker?
Msi geeft kaarten uit met 3 of 4 presets. Standaard zetten ze die op 1 van die 4, bij reviews kiezen ze ervoor om een andere te kiezen. Maar het blijft gewoon een preset die in de bijbehorende tool zit, er wordt niks gedaan dat niet gewoon standaard geleverd wordt. Dus niks rare overclock of dingen waar de consument moeite voor met doen. Die hoeft alleen op "oc" in de tool te klikken, that's freaking all.
I hear voices in my head, they counsel me, they understand.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)
Hahaha, wat een grap. Not even close. Daar werd massaal de klant voor de gek gehouden. Misschien zelfs de producent van de aftermarket kaart!Paprika schreef op dinsdag 21 juni 2016 @ 22:33:
De nVidia hype is voorbij dus nu moet videocardz met dit soort berichten in de spotlight blijven. Nogmaals, dat sommigen dit vergelijken met, en soms zelfs erger vinden dan, het GTX 970 verhaal...
Hier wordt alleen een andere instelling default aangezet. Je hebt de kaart letterlijk in 2 seconden (incl starten app na installatie) overgezet als je wel zo graag de OC mode wilt. The Source overdreef niet toen hij stelde dat het meer stroom kost voor ~1% snelheidswinst.
43W extra in mijn geval, voor 1978mhz -> 1992mhz onder load in games. En dat is in Far Cry 4 b.v. van 45 naar 46 fps in sommige gevallen. Dat is wat anders lijkt mij dan dat de kaart eigenlijk maar 7GB heeft bij 320GB/s bandbreedte.
Je wilt je product pitchen, mensen willen hoge cijfers zien in hun overkill (geen bottleneck) X99 v3 setjes met silly 1200W voeding. Voor de reviewer die z'n huiswerk niet doet, kan je dan maar beter vast je kaart in "benchmark" mode leveren. Mogen ze zelf gaan wisselen. Maar goed, MSI had er wel even een schrijven of sticker op kunnen plakken om dit te vertellen. Vind dit nog steeds een heel andere klasse dan een 3D mark cheat BIOS erop flashen of Engineering samples die uit duizenden zijn gekozen.tijmenvn schreef op woensdag 22 juni 2016 @ 00:56:
Ik ben er ook gewoon nog steeds van dat het niet kan. Waarom nou net die kleine aanpassing naar reviewers? Dan krijg je dit soort taferelen. Het is wel allemaal makkelijk goedgepraat. Maar doe het gewoon niet. Maak gewoon geen verschil met retail kaarten. Het is gewoon vragen om problemen.
kijk anders eens hier voor een uitgebreide review over 1080 SLItijmenvn schreef op dinsdag 21 juni 2016 @ 21:29:
Zijn hier al mensen met GTX1080 SLI trouwens? Ben benieuwd of ik nou beter af ben met mijn overclockte
http://www.techpowerup.co...Force_GTX_1080_SLI/2.html
Wordt ook gesproken over wat het nut nu is van die nieuwe SLI bridge (hint: maakt geen drol uit)
Kan goed zijn ja, want Nvidia had alleen een grafiekje met 4K surround dat je t verschil zag, je ziet dan geen verschil in average framerates. Maar verschil in dat er minder lagspikes zijn dan met de oude brug.Sjoepap schreef op woensdag 22 juni 2016 @ 03:07:
[...]
kijk anders eens hier voor een uitgebreide review over 1080 SLI
http://www.techpowerup.co...Force_GTX_1080_SLI/2.html
Wordt ook gesproken over wat het nut nu is van die nieuwe SLI bridge (hint: maakt geen drol uit)
Hoe dan ook, bedankt voor t linken! Had deze review nog niet gezien.
AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)
Beetje laat maar het was inderdaad de fps capBlaat schreef op donderdag 16 juni 2016 @ 07:31:
[...]
Kijk eens naar de thread voor thread load in MSI Afterburner?
Je moet je voorstellen dat je CPU 8 threads heeft en het kan zijn dat WoW slecht multicore geoptimaliseerd is (oud spel) en dus op maar 1 thread loopt.
Toevallig krijg je op 1 thread dan een max load van 12,5% te zien.
van het battle.net forum:
[...]
Een andere simpele manier om het te checken is je cpu wat overclocken. Het moet een eitje zijn om de 4GHz te halen. Als je verschil ziet in fps weet je waar je probleem zit.
Ook kan het zijn dat WoW gewoon een fps ingebouwd heeft. Ik las dit op een forum ergens:
[...]
Kijk daar ook even naar.


Haha, bedankt!
Kaart draait een stuk beter dan verwacht. Haal 1950-2100MHz boost (afhankelijk van game lijkt het wel) en hij wordt niet warmer dan 69 graden met een custom fan curve (niet heel agressief), dit resulteert in een 24500 graphics score in 3DMark FireStrike. Ben zeker tevreden!
Kom op iedereen, we zitten hier immers in het ervaringen topic en ik ben benieuwd waar de nieuwe 'GPU koning' toe in staat is.
Lopen allemaal top op 1440p met alle toeters en bellen .
fast sync heb ik ook geprobeerd en b.v doom loopt het super over de 100fps op 1440P.
Maar met de division vindt ik het niet echt lekker lopen .
De kaart heb ik geklokt op +200 core en + 500 mem in game houd het in dat het begint bij 2.1 ghz,
En vervolgens naar 2050/2063 ghz zakt..
Ik heb zelfs nog +230 core en 570 mem gehaald power target op 120% en temp op 92 .
fancurve 80% max temp is 77 graden en dat is met 4 uur gamen.
hier in dit topic staat nog een benchmark van mij persoonlijk vindt ik het niet slecht voor een i5 2500k.
Wat loopt er dan niet lekker precies? Welke instellingen gebruik je?Beaudog schreef op woensdag 22 juni 2016 @ 18:48:
Maar met de division vindt ik het niet echt lekker lopen .
op 1440P met fast sync loopt het, ja wat zal ik zeggen hakkerig zeg maar en met vsync aan in de game zelf dus zonder fast sync.
Loopt het super smooth in doom werkt fast sync super kom niet onder de 100fps met 1440P.
Maar goed als jij je kaart heb kan je het is proberen .
Misschien heb je het ook of ligt het toch nog aan een instelling.
Het klopt op de 1080 is het 1.3%, wellicht in het verleden een veel groter percentage. Echter zien wij het niet als cheaten echter als de OC mode performance, dus het gaat ons niet om hoeveel % het is.-The_Mask- schreef op dinsdag 21 juni 2016 @ 22:34:
[...]
Het gaat om het principe. Je hoort gewoon een 100% retail sample te sturen. Je kunt wel zeggen dat het nu maar 1,3% sneller is, maar de volgende keer wordt dat 5% en de keer daarna 10%. Daarnaast doen jullie het vaker en het zal niet altijd maar 1,3% zijn (als dat al waar is). Een andere keer zal het meer dan dat zijn. En je kunt wel zeggen dat men het zo kan instellen, maar ik en vast veel anderen installeren liever niet van al die honderden tooltjes voor elk onderdeeltje een paar verschillende.
Er zijn aardig wat gebruikers van de Gaming App, deze wordt elke maand meer dan 100.000 keer gedownload. Daarnaast kunnen mensen deze ook nog krijgen via de meegeleverde CD-ROM.-The_Mask- schreef op dinsdag 21 juni 2016 @ 23:13:
Een tool die bijna niemand installeert, waar niet over gesproken wordt. Ze vertellen niemand dat ze snellere kaarten naar reviewers zenden dan retails samples. En dus waar leg je de grens? Als je dit toestaat wordt het de volgende keer alleen maar erger. Het hoort niet, is een vorm van oplichting, simpel.
Omdat er tegenwoordig geen klokspeeds out of de box meer zijn. Deze zijn in te stellen in verschillende modes naar gelang de wens of toepassing (gaming, film kijken, etc). Dit is helaas niet dynamisch vanuit de BIOS te regelen zonder een reboot, dus is er software voor nodig. Nu testen de meeste media maar half en erg inconsequent (hier kan ik een erg lang topic aan wijden) en wordt bij de meeste media de software niet beschrijven of dan wel getest. Vandaar dat wij de snelste mode laten zien, en ja dat heeft ook een impact op de temps en koeler, echter komen die er goed genoeg uit zodat het bij andere modes enkel beter wordt.Trevor schreef op dinsdag 21 juni 2016 @ 22:24:
Als dat zo is, wat is dan de reden om te kiezen om de oc versie naar de reviewers te sturen? Heb je dan geen betere review resultaten met de gaming versie omdat die dus minder stroom verbruikt?
Mij maakt het verder niet uit, storm in een glas water. Veelal door mensen die toch nog veel verder willen overklokken. Maar principes zijn gratis als het om anderen gaat, dus dan worden ze fel gehandhaafd ook :-D
Zoals de meeste al opgemerkt hebben gaat dit niet om een paar FPS winst, die maken ingame niet uit. Vandaar dat het voor ons ook echt een manier is om de maximale modus te laten zien. Ik weet ook niet hoe we dit in de toekomst gaan doen, aangezien de meeste mensen niets meer om performance geven, 100FPS of 104FPS boeit niet, en er is ook geen verschil tussen 58 of 64 FPS. Dat ga je niet merken, echter het geluid boeit de mensen wel, vandaar dat dit iets is om rekening mee te houden bij toekomstige samples. Het zal iig duidelijk naar editors gecommuniceerd worden, dus zij kunnen altijd aangeven mochten ze de OC of Gaming BIOS willen gebruiken.
[ Voor 6% gewijzigd door The Source op 22-06-2016 20:24 ]
Maar hoe zit het nou met die extra hoge Power target die was ingesteld? Deze was niet hetzelfde als met de OC mode van retail samples als ik het goed begrijp. Waarom deze dan weer verhogen? Want dit is zo'n waarde die je alleen weet als jij de VBIOS gaat analyseren. In afterburner zie jij percentages. Maar blijkt dat 100% op een review sample niet 100% is op een retail sample.The Source schreef op woensdag 22 juni 2016 @ 20:24:
[...]
Het klopt op de 1080 is het 1.3%, wellicht in het verleden een veel groter percentage. Echter zien wij het niet als cheaten echter als de OC mode performance, dus het gaat ons niet om hoeveel % het is.
[...]
Er zijn aardig wat gebruikers van de Gaming App, deze wordt elke maand meer dan 100.000 keer gedownload. Daarnaast kunnen mensen deze ook nog krijgen via de meegeleverde CD-ROM.
[...]
Omdat er tegenwoordig geen klokspeeds out of de box meer zijn. Deze zijn in te stellen in verschillende modes naar gelang de wens of toepassing (gaming, film kijken, etc). Dit is helaas niet dynamisch vanuit de BIOS te regelen zonder een reboot, dus is er software voor nodig. Nu testen de meeste media maar half en erg inconsequent (hier kan ik een erg lang topic aan wijden) en wordt bij de meeste media de software niet beschrijven of dan wel getest. Vandaar dat wij de snelste mode laten zien, en ja dat heeft ook een impact op de temps en koeler, echter komen die er goed genoeg uit zodat het bij andere modes enkel beter wordt.
Zoals de meeste al opgemerkt hebben gaat dit niet om een paar FPS winst, die maken ingame niet uit. Vandaar dat het voor ons ook echt een manier is om de maximale modus te laten zien. Ik weet ook niet hoe we dit in de toekomst gaan doen, aangezien de meeste mensen niets meer om performance geven, 100FPS of 104FPS boeit niet, en er is ook geen verschil tussen 58 of 64 FPS. Dat ga je niet merken, echter het geluid boeit de mensen wel, vandaar dat dit iets is om rekening mee te houden bij toekomstige samples. Het zal iig duidelijk naar editors gecommuniceerd worden, dus zij kunnen altijd aangeven mochten ze de OC of Gaming BIOS willen gebruiken.
AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)
Hoe zijn je FPS (inc. frametimes)? Ik heb zelf een G-Sync-scherm, dus zal geen vorm V-Sync gebruiken. The Division loopt i.c.m. mijn huidige GTX 980Ti op 1440p en een mix van 'High/Very High' prima.Beaudog schreef op woensdag 22 juni 2016 @ 20:21:
Met de division gebruik ik alles ultra/high en vsync off.
op 1440P met fast sync loopt het, ja wat zal ik zeggen hakkerig zeg maar en met vsync aan in de game zelf dus zonder fast sync.
Loopt het super smooth in doom werkt fast sync super kom niet onder de 100fps met 1440P.
Maar goed als jij je kaart heb kan je het is proberen .
Misschien heb je het ook of ligt het toch nog aan een instelling.
Met vsync aan.
Wat je kunt proberen is V-Sync uitzetten (in het spel), de framerate vastzetten op '60 FPS' en in het configuratiescherm van Nvidia controleren of de PhysX-instelling op 'GPU' staat i.p.v. 'CPU'.Beaudog schreef op woensdag 22 juni 2016 @ 20:45:
Ik heb geen g-sync scherm maar de fps ingame zijn 55/60 fps op een tv.
Met vsync aan.
Trouwens, mocht het spel op een HDD geïnstalleerd staan is het altijd de moeite waar om deze naar een SSD te verplaatsen, als dat mogelijk is natuurlijk.
Misschien helpt het tegen het stotteren!
Jullie misschien niet, de rest van de wereld wel. Nu is het dan 1,3%, maar een andere kaart is het 5% en de volgende fabrikant denkt wat MSI doet kunnen wij beter, hatseflats 10% erbij en weer een andere denkt laten we speciale reviewsamples maken. Ik ken fabrikanten van voedingen die speciale reviewsamples zenden naar ECOS welke de 80PLUS certificaten uitdeelt en dan vervolgens totaal andere voedingen verkopen. Ik heb fabrikanten 80PLUS Gold voedingen naar ECOS zien versturen en vervolgens veel mindere 80PLUS Bronze voedingen zien verkopen. 80PLUS Bronze voedingen met 80PLUS Gold sticker erop.The Source schreef op woensdag 22 juni 2016 @ 20:24:
[...]
Het klopt op de 1080 is het 1.3%, wellicht in het verleden een veel groter percentage. Echter zien wij het niet als cheaten echter als de OC mode performance, dus het gaat ons niet om hoeveel % het is.
Daar is dus het probleem. De ene keer is het maar 1% 'en maakt het niet uit', de volgende keer is het 5% en de volgende fabrikant maakt speciale reviewsamples. Dus gewoon niet doen de volgende keer, simpel zat. Is gewoon oplichting, niet meer en niet minder. Een klein beetje oplichting is nog steeds oplichting.
Mooi dan vertel je dat de reviewers en zend je hun vervolgens gewoon 100% retailsamples en niet overgeklokte versies.Er zijn aardig wat gebruikers van de Gaming App, deze wordt elke maand meer dan 100.000 keer gedownload. Daarnaast kunnen mensen deze ook nog krijgen via de meegeleverde CD-ROM.
Herinner je je trouwens nog de paar keer dat ik je vroeg waarom de MSI Gaming R9 390X zo extreem slecht was wat betreft verbruik? 100W hoger verbruik tijdens gaming dan andere R9 390X versies van andere fabrikanten. Je gaf er nooit antwoord op, maar dit was de reden neem ik aan. Ook een speciale overgeklokte reviewsample? Dit keer heeft het echter geld gekost, sowieso alleen al honderden (duizenden?) exemplaren minder verkocht in Nederland doordat die dus precies hierdoor uit de Best Buy Guide van Tweakers is geweerd meermaals, toen vervangen door een andere R9 390X. En dat is alleen maar in Nederland, veel anderen zullen ook de review op TechPowerUp hebben gelezen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Vergis je niet. Ik praat het niet goed omdat het nu 1.3% uitmaakt. Als het 10% uitmaakt dan is nog naar mijn mening nog steeds geen cheaten. Elke koper van deze kaart heeft exact dezelfde performance met de gaming app. Daarbij hebben we ook de OC mode BIOS vrij gegeven, dus iedereen kan deze bios ook flashen. Het zijn dus geen overgeklokte kaarten, maar exact dezelfde kaarten in OC mode.-The_Mask- schreef op woensdag 22 juni 2016 @ 22:25:
[...]
Jullie misschien niet, de rest van de wereld wel. Nu is het dan 1,3%, maar een andere kaart is het 5% en de volgende fabrikant denkt wat MSI doet kunnen wij beter, hatseflats 10% erbij en weer een andere denkt laten we speciale reviewsamples maken. Ik ken fabrikanten van voedingen die speciale reviewsamples zenden naar ECOS welke de 80PLUS certificaten uitdeelt en dan vervolgens totaal andere voedingen verkopen. Ik heb fabrikanten 80PLUS Gold voedingen naar ECOS zien versturen en vervolgens veel mindere 80PLUS Bronze voedingen zien verkopen. 80PLUS Bronze voedingen met 80PLUS Gold sticker erop.
Daar is dus het probleem. De ene keer is het maar 1% en maakt het niet uit, de volgende keer is het 5% en de volgende fabrikant maakt speciale reviewsamples. Dus gewoon niet doen de volgende keer, simpel zat. Is gewoon oplichting, niet meer en niet minder. Een klein beetje oplichting is nog steeds oplichting.
[...]
Mooi dan vertel je dat de reviewers en zend je hun vervolgens gewoon 100% retailsamples en niet overgeklokte versies.
Herinner je je trouwens nog de paar keer dat ik je vroeg waarom de MSI Gaming R9 390X zo extreem slecht was wat betreft verbruik? 100W hoger verbruik tijdens gaming dan andere R9 390X versies van andere fabrikanten. Je gaf er nooit antwoord op, maar dit was de reden neem ik aan. Ook een speciale overgeklokte reviewsample? Dit keer heeft het echter geld gekost, sowieso alleen al honderden (duizenden?) exemplaren minder verkocht in Nederland doordat die dus precies hierdoor uit de Best Buy Guide van Tweakers is geweerd meermaals, toen vervangen door een andere R9 390X. En dat is alleen maar in Nederland, veel anderen zullen ook de review op TechPowerUp hebben gelezen.
Ik weet niet waar jij beweerde dat onze R9 390X 100W meer verbruikte, vraag heb ik naar HQ gestuurd en geen antwoord op gestuurd. Als mocht er een OC mode VBIOS op hebben gezeten - dat weet ik niet - en het zou 100W verschil uitmaken dan zou daar ongetwijfeld over gesproken zijn. Als ik het wel wist had ik dat heus wel verteld, het uitsturen van OC mode biossen was echt geen geheim en veel editors weten dit ook. De invloed van een best buy guide overschat je denk ik. Qua sales heeft het helemaal niets uitgemaakt, in tegendeel zelfs als ik naar ons marktaandeel kijk
Anyway ik stop ermee want we verschillen van mening en gaan elkaar ook niet overtuigen.
Ja maar daar ben je dus de enige bij die het niet cheaten noemt.The Source schreef op woensdag 22 juni 2016 @ 22:40:
[...]
Vergis je niet. Ik praat het niet goed omdat het nu 1.3% uitmaakt. Als het 10% uitmaakt dan is nog naar mijn mening nog steeds geen cheaten.
Dat zeg ik lever hem dan standaard uit en geef de reviewers de tool erbij, dan is het geen cheaten.Elke koper van deze kaart heeft exact dezelfde performance met de gaming app. Daarbij hebben we ook de OC mode BIOS vrij gegeven, dus iedereen kan deze bios ook flashen. Het zijn dus geen overgeklokte kaarten, maar exact dezelfde kaarten in OC mode.
In de review op TechPowerUp immers, dat vertelde ik je toen die review werd gepubliceerd.Ik weet niet waar jij beweerde dat onze R9 390X 100W meer verbruikte
https://www.techpowerup.c...SI/R9_390X_Gaming/28.html
Ik beweer ook niet dat je het bewust hebt achtergehouden. Ik gaf alleen aan dat je er nooit antwoord op hebt gegeven en dat dit de meest logische reden is.vraag heb ik naar HQ gestuurd en geen antwoord op gestuurd. Als mocht er een OC mode VBIOS op hebben gezeten - dat weet ik niet - en het zou 100W verschil uitmaken dan zou daar ongetwijfeld over gesproken zijn. Als ik het wel wist had ik dat heus wel verteld,
Voor de meesten was het schijnbaar niet bekent, veel sites publiceerden het als nieuws. HWI was de enige welke zei dat ze het al wisten zover ik heb gelezen en ze zeiden ook dat hun schijnbaar altijd een echte retail sample kregen in plaats van een overgeklokte versie.het uitsturen van OC mode biossen was echt geen geheim en veel editors weten dit ook.
Toch wel honderden in dit geval alleen door de Best Buy Guide, dus al is het marktaandeel groot, hadden honderden meer kunnen zijn alleen maar door Best Buy Guide kopers. Ongetwijfeld nog een stuk meer als het verbruik normaal was geweest.De invloed van een best buy guide overschat je denk ik. Qua sales heeft het helemaal niets uitgemaakt, in tegendeel zelfs als ik naar ons marktaandeel kijk
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Met zoveel kennis zul je ongetwijfeld gelijk hebben.-The_Mask- schreef op woensdag 22 juni 2016 @ 23:03:
[...]
Ja maar daar ben je dus de enige bij die het niet cheaten noemt.
[...]
Dat zeg ik lever hem dan standaard uit en geef de reviewers de tool erbij, dan is het geen cheaten.
[...]
In de review op TechPowerUp immers, dat vertelde ik je toen die review werd gepubliceerd.
https://www.techpowerup.c...SI/R9_390X_Gaming/28.html
[...]
Ik beweer ook niet dat je het bewust hebt achtergehouden. Ik gaf alleen aan dat je er nooit antwoord op hebt gegeven en dat dit de meest logische reden is.
[...]
Voor de meesten was het schijnbaar niet bekent, veel sites publiceerden het als nieuws. HWI was de enige welke zei dat ze het al wisten zover ik heb gelezen en ze zeiden ook dat hun schijnbaar altijd een echte retail sample kregen in plaats van een overgeklokte versie.
[...]
Toch wel honderden in dit geval alleen door de Best Buy Guide, dus al is het marktaandeel groot, hadden honderden meer kunnen zijn alleen maar door Best Buy Guide kopers. Ongetwijfeld nog een stuk meer als het verbruik normaal was geweest.
[ Voor 3% gewijzigd door The Source op 22-06-2016 23:22 ]
Volgensmij kun je beter stil zitten als je/msi geschoren wordt.The Source schreef op woensdag 22 juni 2016 @ 23:21:
[...]
Met zoveel kennis zul je ongetwijfeld gelijk hebben.Anyway zoals ik al zei stop ik ermee want elkaar overtuigen lukt helaas niet. Hoeft ook niet.
Het is wat mij betreft niet acceptabel waar jullie mee bezig zijn.
Gewoon retailkaarten zenden naar reviewers en hiermee ophouden.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wat zijn jouw ervaringen met de GTX 10Blaat schreef op donderdag 23 juni 2016 @ 11:01:
Kunnen we het weer over ervaringen hebben? Dit is niet het "bash MSI" topic.
Johann Sebastian Bach
Nivida_intel schreef op donderdag 23 juni 2016 @ 11:04:
[...]
Wat zijn jouw ervaringen met de GTX 10
Recentste ervaring is dat de nieuwste beta drivers het "flicker probleem" waar ik eerder in dit topic naar refereerde fixt.
Schijnbaar is dit een bekend probleem en kwam dit alleen voor bij 144Hz (of hoger) monitors. Ik heb de beta drivers geprobeerd en dit fixt het probleem helemaal bij mij.
Nu kan ik mijn monitor weer rustig zonder problemen op 165Hz laten draaien.
Zie hier!
Even los van het feit dat ik moeite had je zin te interpreteren, ik zie geen link tussen enthousiaste verhalen van nieuwe eigenaren van de kaarten en een meningsverschil over of MSI wel de juiste keuze heeft gemaakt door kaarten met bepaalde settings naar reviewers te sturen.-The_Mask- schreef op donderdag 23 juni 2016 @ 11:04:
Dit heeft niks met bashen nodig, maar alles met ervaringen over het product...
Je kan het proberen recht te praten wat je wil, maar dat hoort hier domweg niet thuis.
[ Voor 28% gewijzigd door Blaat op 23-06-2016 11:17 ]
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Verwijderd
Het is wel bekend dat HB bridge pas zin heeft bij 5k en surround opstellingen en je met 4k nog prima met de oudere bridges overweg kunt. De review heeft dit dus mooi aangetoond.tijmenvn schreef op woensdag 22 juni 2016 @ 10:56:
Kan goed zijn ja, want Nvidia had alleen een grafiekje met 4K surround dat je t verschil zag, je ziet dan geen verschil in average framerates. Maar verschil in dat er minder lagspikes zijn dan met de oude brug.
Hoe dan ook, bedankt voor t linken! Had deze review nog niet gezien.
Idd coole link.
Het sluit iig aan bij de andere reviews dat SLI opstellingen bij veel games redelijk goed schalen. Alhoewel de prijs/prestatie verhouding minder gunstig is. (Je koopt ook geen sportauto om boodschappen te doen. Maar om te patsen natuurlijk.)
Als iemand specifiek iets wil weten qua performance op 3440x1440 let me know
Eindelijk! Ik wilde weten wat de performance is in de recente games en of de hoogste presets gewoon boven de 60FPS draaien of 60FPS. Al test je alleen GTA V, dan ben ik al tevreden om te weten wat je resultaten zijn. Vriendelijk bedankt.Mmore schreef op donderdag 23 juni 2016 @ 13:01:
Als iemand specifiek iets wil weten qua performance op 3440x1440 let me knowIk heb een aardige game library dus kan veel testen. Reviews slaan ultra wide's meestal over helaas.
AOTS please! Ik game op 2560x1440 gsync dus dat zou een goede indicatie zijn.Mmore schreef op donderdag 23 juni 2016 @ 13:01:
Net de GTX1080 G1 binnen gekregen. Wat testen out of the box, kaart zelf draait op core clock van 1911 Mhz tijdens benchmarks, temperatuur 43 graden idle en 73 graden peak bij full load na 5 minuten met dit weer buitenIndrukwekkend stille kaart overigens, zelfs onder full load. Ga later nog even goed de kaart testen om zeker te weten dat 'ie 100% is maar so far so good
Overclocken ook later vandaag mee bezig maar temperatuur is niet heel lekker hier binnen vandaag en zal 'm daarna weer naar stock terugzetten want dat is voor mijn setup meer dan voldoende het komende jaar vermoed ik.
Als iemand specifiek iets wil weten qua performance op 3440x1440 let me knowIk heb een aardige game library dus kan veel testen. Reviews slaan ultra wide's meestal over helaas.
Welke snap je niet?Jackson6 schreef op donderdag 23 juni 2016 @ 14:43:
Ben eigenlijk al een paar dagen bezig het testen van mijn GTX 1080, echter in het NVIDIA control panel zijn sommige instellingen mij vrij onduidelijk, heeft iemand voor mij zijn instellingen van NVIDIA control panel i.c.m. een GTX 1080?
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Net even The Witcher 3 gedraait, had max FPS op unlimited maar kwam niet boven de 60FPS uit. Voelt alsof het toch begrenst wordt op dat punt door een instelling die ik heb gemistPhntm schreef op donderdag 23 juni 2016 @ 13:51:
[...]
Eindelijk! Ik wilde weten wat de performance is in de recente games en of de hoogste presets gewoon boven de 60FPS draaien of 60FPS. Al test je alleen GTA V, dan ben ik al tevreden om te weten wat je resultaten zijn. Vriendelijk bedankt.
Opmerkelijk: met Shadowplay aan nog steeds 58 FPS (constant) bij de instellingen zonder hairworks aan terwijl ik met een bitrate van 50Mbit/s gameplay footage @ 3440x1440 naar mijn SSDs aan het wegschrijven ben. Echt super dat dit zo efficient kan.The Witcher 3 - 3440x1440 [Postprocessing: High; Graphics: Ultra, Hairworks ON; MAX FPS: Unlimited]
Low: 48FPS
Average: 50FPS
Max: 55FPS
The Witcher 3 - 3440x1440 [Postprocessing: High; Graphics: Ultra, Hairworks OFF; MAX FPS: Unlimited]
Low: 59FPS
Average: 60FPS
Max: 60FPS
GTA V heb ik helaas niet op Steam en herinstallatie via de social club launcher gaat met 2Mbit/s dus dat kan ik over een jaar gaan proberen met dit tempo

Wel nog even Arma3 snel getest, zoals verwacht niet 60FPS, dat kan die engine volgens mij gewoon niet aan
Arma 3 - 3440x1440 [AO: HDAO High, Graphics preset: Ultra, benchmark Altis mission]
Low: 24FPS
Average: 32FPS
Max: 60FPS
Arma 3 - 3440x1440 [AO: HDAO High, Graphics preset: Very High, benchmark Altis mission]
Low: 36FPS
Average: 41FPS
Max: 61FPS
Ga AOTS straks voor je draaien.Soeski schreef op donderdag 23 juni 2016 @ 14:40:
[...]
AOTS please! Ik game op 2560x1440 gsync dus dat zou een goede indicatie zijn.
edit: v-sync stond nog op default 'use 3d application setting', uitgezet.
Ik weet niet zo goed of ik de onderstaande settings nou beter aan of uit kan zetten.
AA - Gamma Correction (staat nu op On)
AA - FXAA (staat nu op Off)
AA - Transparency (staat nu op Off)
Maximum pre-rendered frames (staat nu op Use 3D application setting)
MFAA (staat nu op off)
Texture Filtering - Anisotropic sample option (staat nu op Off)
Texture Filtering - Negative LOD Bias (staat nu op Allow)
Texture Filtering - Trilinear optimization (staat nu op On)
En nog een vraagje, vsync natuurlijk uit i.c.m. G-Sync maar moet triple buffering ook uit, ja toch?
Yes duidelijke benchmark. Echt bedankt, je bent de eerste met duidelijke nummers.Mmore schreef op donderdag 23 juni 2016 @ 14:50:
[...]
Net even The Witcher 3 gedraait, had max FPS op unlimited maar kwam niet boven de 60FPS uit. Voelt alsof het toch begrenst wordt op dat punt door een instelling die ik heb gemist. Hieronder in ongeveer 2 minuten gameplay in een mooi gebied waar veel gebeurd:
[...]
Opmerkelijk: met Shadowplay aan nog steeds 58 FPS (constant) bij de instellingen zonder hairworks aan terwijl ik met een bitrate van 50Mbit/s gameplay footage @ 3440x1440 naar mijn SSDs aan het wegschrijven ben. Echt super dat dit zo efficient kan.![]()
GTA V heb ik helaas niet op Steam en herinstallatie via de social club launcher gaat met 2Mbit/s dus dat kan ik over een jaar gaan proberen met dit tempo![]()
Wel nog even Arma3 snel getest, zoals verwacht niet 60FPS, dat kan die engine volgens mij gewoon niet aanIvm server FPS kom je online toch bijna nooit boven de 40FPS uit. Met de view distance omlaag haal je als snel 60FPS in de singlepayer benchmark.
[...]
[...]
Ga AOTS straks voor je draaien.
edit: v-sync stond nog op default 'use 3d application setting', uitgezet.
Screenshots direct uit de game.Soeski schreef op donderdag 23 juni 2016 @ 14:40:
[...]
AOTS please! Ik game op 2560x1440 gsync dus dat zou een goede indicatie zijn.
DX11 Results: http://i.imgur.com/5Ga91rz.jpg (crazy)
DX12 Results: http://i.imgur.com/indLEWr.jpg (crazy)
edit: ook even extreme, 1 stapje lager, gedraait.
DX12 Results: http://i.imgur.com/t96ROHg.jpg (extreme)
Ik heb niets anders aangepast dan de preset op 'Crazy' gezet (hoogste preset) voor de eerste twee en exteme voor de derde.
@Phntm: NP
[ Voor 18% gewijzigd door Mmore op 23-06-2016 15:39 ]
Hier staan o.a. settings uitgelegd: http://www.tweakguides.com/NVFORCE_5.htmlJackson6 schreef op donderdag 23 juni 2016 @ 14:51:
[...]
Ik weet niet zo goed of ik de onderstaande settings nou beter aan of uit kan zetten.
AA - Gamma Correction (staat nu op On)
AA - FXAA (staat nu op Off)
AA - Transparency (staat nu op Off)
Maximum pre-rendered frames (staat nu op Use 3D application setting)
MFAA (staat nu op off)
Texture Filtering - Anisotropic sample option (staat nu op Off)
Texture Filtering - Negative LOD Bias (staat nu op Allow)
Texture Filtering - Trilinear optimization (staat nu op On)
En nog een vraagje, vsync natuurlijk uit i.c.m. G-Sync maar moet triple buffering ook uit, ja toch?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Danku! Ik ga het even doornemen allemaal.Help!!!! schreef op donderdag 23 juni 2016 @ 15:48:
[...]
Hier staan o.a. settings uitgelegd: http://www.tweakguides.com/NVFORCE_5.html
Nu wou ik de stap maken van full hd 60 hz scherm naar IPS 1440p, 144hz gsync, maar dat kost dus serieus 800 euro.

Geen IPS nemen.OllyNL schreef op donderdag 23 juni 2016 @ 16:59:
Ik zit op het moment te kijken naar de mogelijkheden van een nieuwe pc build. Zit te denken richting een systeem met een gtx 1070. Het volgende probleem waar ik echter op stuit is dat je met een 1070 'maar' 55 a 60 fps haalt op very high settings als je 1440p wil draaien.
Nu wou ik de stap maken van full hd 60 hz scherm naar IPS 1440p, 144hz gsync, maar dat kost dus serieus 800 euro.Dus dan zit ik te denken aan een 1440p IPS 60 hz scherm, maar die zijn weer niet te krijgen met gsync. (meeste ook 6 of 8 ms inputlag) Dus dan krijg je waarschijnlijk tearing. Wat te doen? Zou graag de stap naar 1440p maken op mijn prefered size van 27 inch.
Cunning linguist.
Dat zou iets schelen inderdaad, maar dan heb je z'n krachtig systeem staan en zit je te kijken naar washed out colors, slechte kijk hoeken etc.
Voor de performance op 1440p kijk ff hier: https://tweakers.net/revi...-cars-en-the-witcher.htmlOllyNL schreef op donderdag 23 juni 2016 @ 16:59:
Ik zit op het moment te kijken naar de mogelijkheden van een nieuwe pc build. Zit te denken richting een systeem met een gtx 1070. Het volgende probleem waar ik echter op stuit is dat je met een 1070 'maar' 55 a 60 fps haalt op very high settings als je 1440p wil draaien.
Nu wou ik de stap maken van full hd 60 hz scherm naar IPS 1440p, 144hz gsync, maar dat kost dus serieus 800 euro.Dus dan zit ik te denken aan een 1440p IPS 60 hz scherm, maar die zijn weer niet te krijgen met gsync. (meeste ook 6 of 8 ms inputlag) Dus dan krijg je waarschijnlijk tearing. Wat te doen? Zou graag de stap naar 1440p maken op mijn prefered size van 27 inch.
Een MSI GeForce GTX 1070 GAMING X haalt bij de Witcher 3 op high een gemiddelde van 95 fps. Ik denk dat je vrijwel alle games op max settings wel 60+ fps gaat halen met een gtx 1070 op 1440p
Zelf ben ik ook van plan zo'n scherm te kopen, ik had zelf een lijstje samen gesteld met alle schermen die ook aan jouw eisen voldoet, alleen hebben ze niet allemaal g-sync
(wat je vgm niet echt nodig hebt met een krachtig systeem met een 1070)
144hz ips 2560x1440 27 inch monitoren:
ACER Predator XB270HUBPRZ: pricewatch: Acer XB270HU Zwart
Acer Predator XB271HU: pricewatch: Acer Predator Predator XB271HU Rood, Zwart
Acer XF270HU: pricewatch: Acer XF270HU Zwart
Asus MG279Q: pricewatch: Asus MG279Q Zwart
Asus ROG Swift PG279Q: pricewatch: Asus ROG Swift PG279Q Zwart
De goedkoopste optie komt uit op 590€ (geen G-sync)
Thanks! Helaas nog steeds maar 48fps met een 1080, op jouw resolutie... nu ga ik twijfelen of ik toch niet ook naar een 1080 moet uitkijken ipv 1070. Ik haal nu 29fps op crazy met de gtx970 op qhd.Mmore schreef op donderdag 23 juni 2016 @ 15:07:
[...]
Screenshots direct uit de game.
DX11 Results: http://i.imgur.com/5Ga91rz.jpg (crazy)
DX12 Results: http://i.imgur.com/indLEWr.jpg (crazy)
edit: ook even extreme, 1 stapje lager, gedraait.
DX12 Results: http://i.imgur.com/t96ROHg.jpg (extreme)
Ik heb niets anders aangepast dan de preset op 'Crazy' gezet (hoogste preset) voor de eerste twee en exteme voor de derde.
@Phntm: NP
Zeker 60+ bij veel games inderdaad.(1440p) Maar heb je dan een 144hz scherm nodig is de vraag. (wil het natuurlijk wel) Maar zo bizar duur.Fr3akin_GoD schreef op donderdag 23 juni 2016 @ 17:46:
[...]
Voor de performance op 1440p kijk ff hier: https://tweakers.net/revi...-cars-en-the-witcher.html
Een MSI GeForce GTX 1070 GAMING X haalt bij de Witcher 3 op high een gemiddelde van 95 fps. Ik denk dat je vrijwel alle games op max settings wel 60+ fps gaat halen met een gtx 1070 op 1440p
Zelf ben ik ook van plan zo'n scherm te kopen, ik had zelf een lijstje samen gesteld met alle schermen die ook aan jouw eisen voldoet, alleen hebben ze niet allemaal g-sync
(wat je vgm niet echt nodig hebt met een krachtig systeem met een 1070)
144hz ips 2560x1440 27 inch monitoren:
ACER Predator XB270HUBPRZ: pricewatch: Acer XB270HU Zwart
Acer Predator XB271HU: pricewatch: Acer Predator Predator XB271HU Rood, Zwart
Acer XF270HU: pricewatch: Acer XF270HU Zwart
Asus MG279Q: pricewatch: Asus MG279Q Zwart
Asus ROG Swift PG279Q: pricewatch: Asus ROG Swift PG279Q Zwart
De goedkoopste optie komt uit op 590€ (geen G-sync)
Waarom denk je trouwens dat je met een krachtig 1070 systeem een optie als gsync niet nodig hebt? Want dat zou betekenen dat ik gsync kan skippen, zou geld schelen. Ik moet met mijn huidige systeem bij bepaalde games toch echt vsync aan zetten, maar niet altijd.
Ik kwam deze nog tegen: pricewatch: Asus MX25AQ Grijs, Zwart
Liever 27 inch maar 25 is op zich te overwegen omdat: 1440p, IPS (AH IPS, same shit?), en 75hz. Dus net even wat lekkerder dan de standaard 60hz. Wel 5ms input lag, mja ga je dat merken? Gedachten bij dit scherm?
Thanks voor je lijstje trouwens.
Edit: Bizar dat z'n grotere broer dan toch blijft hangen op 60hz? pricewatch: Asus MX27AQ Zwart
Ik lees wel dat die Asus schermen relatief veel last kunnen hebben van backlight bleeding/IPS glow. Dat is denk ik bij AH IPS minder het geval? pricewatch: Asus MX25AQ Grijs, Zwart Die dus. Lijkt toch een mooie deal voor 370. Hmm
[ Voor 9% gewijzigd door OllyNL op 23-06-2016 18:12 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dat zeker. Ik kijk trouwens voornamelijk voor BF1 naar een nieuwe pc. Ik hoorde dat het ongeveer gelijk zou draaien aan Battlefront. Wat haalt iemand in Battlefront met een 1070 op ultra in 1440p aan fps? Enig idee?sdk1985 schreef op donderdag 23 juni 2016 @ 18:20:
Alles is relatief, wat nu als snel te boek staat is volgend jaar verouderd. Met je monitor doe je in de regel een veelvoud langer dan met je videokaart. Dus de redenatie dat een GTX 1070 zo snel is dat je geen G-Sync nodig hebt lijkt mij niet houdbaar. Wie weet draait hij in Battlefield 1 op Ultra maar 30 fps.
Voor aankoopadvies is er het CAA forum. Niet hier ajb!
Excuus.Edmin schreef op donderdag 23 juni 2016 @ 18:29:
[...]
[mbr] Voor aankoopadvies is er het CAA forum. Niet hier ajb![/]
Het is geen ophemeltopic negatieve ervaring valt er dus ook onder. Men heeft dan ook gewoon recht om te weten waarom hun kaart langzamer is dan degene in de reviews. Dat hoef je echt niet weg te moffelen.Blaat schreef op donderdag 23 juni 2016 @ 11:10:
[...]
Je kan het proberen recht te praten wat je wil, maar dat hoort hier domweg niet thuis.
Nee want het gaat vooral om de frametimes en die worden niet getest omdat je daar een FCAT systeem voor nodig hebt en TechPowerUp dat niet heeft. Dus die review voegt niet veel toe wat betreft het nut van een HB bridge.Verwijderd schreef op donderdag 23 juni 2016 @ 11:28:
[...]
Het is wel bekend dat HB bridge pas zin heeft bij 5k en surround opstellingen en je met 4k nog prima met de oudere bridges overweg kunt. De review heeft dit dus mooi aangetoond.
Bij AMD zag je al een aantal generaties terug problemen ontstaan met een CrossFire bridge met te weinig bandbreedte. Probleem was dan ook niet gemiddelde fps, maar frametimes en dat is ook wat nVidia aangeeft. Je krijgt last van een onstabiele framerate, waardoor hoge fps ineens niet soepeler is maar juist minder soepel.
Tegenwoordig TN nemen is ook niet echt een goede keuze. Al helemaal niet als je een hele dure videokaart koopt zodat je alle instellingen op het hoogst kan zetten en dan vervolgens een goedkoop TN paneel nemen zodat alles er alsnog flets uitziet.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nee precies. Maar zo duur. Ik weet dat dit geen aankoopadvies thread is maar toch even nog deze vraag, waarom staat de pricewatch: Asus MX25AQ Grijs, Zwart-The_Mask- schreef op donderdag 23 juni 2016 @ 19:17:
[...]
Tegenwoordig TN nemen is ook niet echt een goede keuze. Al helemaal niet als je een hele dure videokaart koopt zodat je alle instellingen op het hoogst kan zetten en dan vervolgens een goedkoop TN paneel nemen zodat alles er alsnog flets uitziet.
aangegeven op tweakers als 75hz (zou heel nice zijn) en op andere sites gewoon 60hz? Is dat alleen bij lagere resoluties of zo?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Damn wat jammer. 75hz 1440p zou voor mij echt de sweetspot zijn. 100+ fps ga ik op ultra toch niet halen met een 1070. (op 1440p) Dank in ieder geval.-The_Mask- schreef op donderdag 23 juni 2016 @ 19:29:
Ja dat betekent meestal alleen lagere resolutie.
Ja klopt, het komt er natuurlijk allemaal op neer wat je er nu voor overhebt. Als je er meer voor overhebt om langer voort te kunnen dan kun je net zo goed een 1080 nemen.sdk1985 schreef op donderdag 23 juni 2016 @ 18:20:
Alles is relatief, wat nu als snel te boek staat is volgend jaar verouderd. Met je monitor doe je in de regel een veelvoud langer dan met je videokaart. Dus de redenatie dat een GTX 1070 zo snel is dat je geen G-Sync nodig hebt lijkt mij niet houdbaar. Wie weet draait hij in Battlefield 1 op Ultra maar 30 fps.
Maar voorlopig heb je aan een 1070 genoeg, en je kan natuurlijk altijd nog upgraden naar 1070 sli als je toch nog wat meer performance wil.
Hier nog 1070 sli performance tests voor de geïnteresseerden:
http://www.guru3d.com/art..._2_way_sli_review,21.html
Of je neemt pricewatch: Asus MG279Q Zwart IPS, 144Hz en tussen de 35Hz en 90Hz met de Vesa Adaptive Sync standaard (Free Sync) en je wacht tot nVidia de standaard gaat ondersteunen, zoals ze nu ook al doen met mobile G-sync. Normale G-sync is toch alleen maar omslachtig en duur en bijna geen één monitor fabrikant ziet hier nog heil in. Dus het is waarschijnlijk een kwestie van tijd tot de huidige G-sync ook verdwijnt bij normale schermen en dat nVidia daarbij ook overstapt op mobile G-sync. Doen ze dat niet, dan heb je altijd nog gewoon een 144Hz scherm die natuurlijk ook gewoon prima lagere aantal frames kan weergeven.OllyNL schreef op donderdag 23 juni 2016 @ 19:35:
[...]
Damn wat jammer. 75hz 1440p zou voor mij echt de sweetspot zijn. 100+ fps ga ik op ultra toch niet halen met een 1070. (op 1440p) Dank in ieder geval.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Washed out colors is natuurlijk zwaar overdreven. De kleurechtheid is wel wat minder, maar merk je dat tijdens het gamen? Ik denk het niet. En hoe vaak zit jij met gamen niet recht voor je monitor? Dus slechte kijkhoek is ook niet relevant.OllyNL schreef op donderdag 23 juni 2016 @ 17:39:
[...]
Dat zou iets schelen inderdaad, maar dan heb je z'n krachtig systeem staan en zit je te kijken naar washed out colors, slechte kijk hoeken etc.
Cunning linguist.
Dat is natuurlijk ook een optie ja. Dank. Als ze dat echt op redelijk kort termijn gaan doen..-The_Mask- schreef op donderdag 23 juni 2016 @ 20:03:
[...]
Of je neemt pricewatch: Asus MG279Q Zwart IPS, 144Hz en tussen de 35Hz en 90Hz met de Vesa Adaptive Sync standaard (Free Sync) en je wacht tot nVidia de standaard gaat ondersteunen, zoals ze nu ook al doen met mobile G-sync. Normale G-sync is toch alleen maar omslachtig en duur en bijna geen één monitor fabrikant ziet hier nog heil in. Dus het is waarschijnlijk een kwestie van tijd tot de huidige G-sync ook verdwijnt bij normale schermen en dat nVidia daarbij ook overstapt op mobile G-sync. Doen ze dat niet, dan heb je altijd nog gewoon een 144Hz scherm die natuurlijk ook gewoon prima lagere aantal frames kan weergeven.
Hmm niet echt. Verschil is vrij groot tussen een TN paneel en een IPS scherm. Ieder zn ding hoor, maar ik pleur niet 1500+ euro in een dikke gamebak voor prachtige graphics etc om dan op een TN paneel te gaan gamen.. En verder zit ik er meestal recht voor ja, maar ik speel ook racesims met stuur, en dan beweeg je nog wel is wat meer. Ook kijken er redelijk vaak mensen mee, al is dat natuurlijk minder relevant.Bart ® schreef op donderdag 23 juni 2016 @ 20:08:
[...]
Washed out colors is natuurlijk zwaar overdreven. De kleurechtheid is wel wat minder, maar merk je dat tijdens het gamen? Ik denk het niet. En hoe vaak zit jij met gamen niet recht voor je monitor? Dus slechte kijkhoek is ook niet relevant.
Verwijderd
Interessante review alhoewel nog wel wat te beperkt om echte conclusies te trekken.Fr3akin_GoD schreef op donderdag 23 juni 2016 @ 19:45:
Hier nog 1070 sli performance tests voor de geïnteresseerden:
Als je twijfelt tussen 1080 en 1070 SLI dan hangt het er sterk vanaf welke games je wilt spelen en wat voor resolutie monitor je hebt.
WoW, liefst met shadows off (Daar ga ik mee spelen
Het gaat mij vooral om een raid enviroment en of hij zich netjes kan houden met alles behalve shadows op max op 1080
"Whatever their future, at the dawn of their lives, men seek a noble vision of man’s nature and of life’s potential."
Tot kort had ik nog 2x Asus GeForce 580's in SLI maar de displayport daarop kon geen 144hz aansturen dus een upgrade was voor mij echt wel een must om dit scherm in volle potentieel te kunnen gebruiken.
Ik had daarvoor de ASUS VG278HE, die was ook 27" en 144hz maar het TN paneel en 1080p viel toch wel aardig tegen in beeldkwaliteit op zo een resolutie.
De performance impact van 1440p mag je toch niet onderschatten dus ga zeker voor de GTX 1080 als je hier een beetje future proof wil zijn.
Battlefront draai hier nu bijvoorbeeld in ultra settings op 1440p tegen 120-140fps in combinatie met de toch al oudere i7 2600k.
Moet er wel bij zeggen dat AA op low staat, persoonlijk vind ik dit minder nodig in dergelijke resolutie.
En toegegeven: de ASUS MG279Q heeft inderdaad last van IPS glow maar daar let je na 2 dagen al niet meer op.
[ Voor 5% gewijzigd door reepke op 24-06-2016 16:12 ]
Artikelen?Paprika schreef op dinsdag 21 juni 2016 @ 18:30:
[...]
Daar gaan we weer... Is het niet de FPS dan is het wel de resolutie.![]()
Als jij het niet kunt zien: wees blij, scheelt je veel geld.
Artikelen?Trevor schreef op dinsdag 21 juni 2016 @ 17:21:
Ga maar eens een keer kijken, je ziet dat absoluut wel.
Je zit bij een monitor op ongeveer 60 tot 70 centimeter he, als je dan een beetje fatsoenlijke monitor hebt 27"+ zie je dat verschil echt enorm goed. (ik zit ook op 1.5 tot 2 meter* van mijn tv van 40"... dus ja ook die moet binnen 2 jaar maar eens naar de 4k want die pixels zijn op die afstand prima individueel te zien.
Sowieso zijn dit soort artikelen al zo vaak debunked bij gewoon de praktijk en testen. Zelfde bs-verhalen als over 30fps of hoger. Het gros van dit soort artikelen zijn geschreven door leken die klok wel hebben horen luiden maar nog nooit van een klepel gehoord hebben.
Tuurlijk als jij een 24 inch tv hebt en je gaat op 3 meter afstand zitten dan zie je het verschil niet. Maar op 3 meter afstand is het verschil tussen full hd en UHD prima zichtbaar voor de meeste mensen op een 55".
Zelfde verhalen herinner je je misschien nog tussen de telefoons van 5 inch met full hd of 480*800 (of soort gelijks) ook het internet vol verhalen dat je het niet kon zien. Tot mensen de telefoons in handen kregen, toen las je het nergens meer.
/edit: veel artikelen gaan er ook van uit of je alle details kunt zien. En pas dan zou het nut hebben. Wat natuurlijk onzin is, als je meer details ziet dan op een FHD, dan heeft het al nut. Niet pas bij alle.
*1m70 om precies te zijn. Pixels zijn dan gewoon duidelijk zichtbaar. Overigens wil ik wel naar 48" om meer profijt van de update te hebben natuurlijk ;-)
sinds gisteravond de gelukkige eigenaar van een GTX 1070 FE.

Via Informatique besteld en dezelfde dag kunnen ophalen.
Een geweldige upgrade t.o.v. mn gtx 760.
Per toeval weer een MSI kaart, net als mn vorige.
Geluid is hetzelfde als de vorige, dus daar geen problemen.
resultaten tot nu toe erg verbluffend.
korte samenvatting van de specs:
i5-4460
16 Gb ddr3
GTX 1070 FE
LG 34 inch Ultra Wide Screen. 2560x1080 resolutie
- WoW 190-220 fps
- Dirt Rally 90-95 fps (25-30 fps)
- Enemy Front 110 fps (was oorspronklijk 30 fps)
- Rise of the Tombraider 85 fps (was ook 30 fps oorspronkelijk)
- Diablo 3 - 145 fps
Met vsync tot nu toe alles op max met 60 fps
Dit alles helemaal stock (ook de cpu niet overclocked).
Ben er erg blij mee
Probleem met wow is dat het een van de zwaarste games is die ik ken. Dat heeft met de engine te maken. In raids heb ik geen ultra settings aan staan op mijn GTX970 (oc naar 1504/3900MHz) met een 6700K@4,7GHz. Dan is de fps gewoon niet goed genoeg. In open world kan ultra wel, maar niet met 200% rendering en SSAO aan. Dan krijg ik alsnog maar iets van 45fps. Dit terwijl op dat moment zowel je gpu als cpu niet volledig belast zijn. Ik hoop dan ook dat Legion weer wat verbeteringen brengt op dat vlak.MAGDATTT schreef op vrijdag 24 juni 2016 @ 14:24:
WOW met en GTX1070 gaat wel lukken denk ik, helemaal op die reso.
Sorry moet hier effe op terug komen..weet het alleen 1080 ervaringen... Dat jij 400-500 euro meer voor over hebt voor hoofdzakelijk betere kijk hoeken okej moet je zelf weten. Heb zelf de asus 4k 28 inch 480.- staat die in de pricewatch en als je hem goed hebt gekalibreerd is er niks mis mee tenminste niet iets waardoor ik het nodig vond om 500 piek meer uit te geven... Zelf speel ik ook racespellen en je merkt het nog niet eens met trackir of je moet als een dolle achter je pc zitten of meerdere schermen setup... Het hangt gwn zoveel af van de kwaliteit van het tn paneel en of degene 400-500 euro meer voor een ips scherm over heeftOllyNL schreef op donderdag 23 juni 2016 @ 21:27:
[...]
En verder zit ik er meestal recht voor ja, maar ik speel ook racesims met stuur, en dan beweeg je nog wel is wat meer. Ook kijken er redelijk vaak mensen mee, al is dat natuurlijk minder relevant.
rkwinkel
Probeer van de officiele nvidia site de nieuwste driver te downloaden: http://www.geforce.com/driversrkwinkel schreef op zaterdag 25 juni 2016 @ 00:05:
Heb sinds vandaag een gigabyte gtx 1080 en merk dat het beeld spontaan flikkerd. Dat had ik niet toen ik ermee speelde. Maar nu pas. Iemand ervaring met dit probleem ?
Is inderdaad een bekend driver probleempje. De laatste beta drivers hebben het voor mij opgelost.rkwinkel schreef op zaterdag 25 juni 2016 @ 00:05:
Heb sinds vandaag een gigabyte gtx 1080 en merk dat het beeld spontaan flikkerd. Dat had ik niet toen ik ermee speelde. Maar nu pas. Iemand ervaring met dit probleem ?
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
rkwinkel
GeForce Hotfix Driver 368.51
http://forums.guru3d.com/showthread.php?t=408220
1
2
3
| This is a GeForce Hot Fix driver, version 368.51 that addresses the following issue: • Occasional desktop flicker when launching games on high refresh rate monitors. |
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Meest zinnige optie is meestal om gewoon na 1.5 jaar te upgraden.Fr3akin_GoD schreef op donderdag 23 juni 2016 @ 19:45:
[...]
Ja klopt, het komt er natuurlijk allemaal op neer wat je er nu voor overhebt. Als je er meer voor overhebt om langer voort te kunnen dan kun je net zo goed een 1080 nemen.
Maar voorlopig heb je aan een 1070 genoeg, en je kan natuurlijk altijd nog upgraden naar 1070 sli als je toch nog wat meer performance wil.
Hier nog 1070 sli performance tests voor de geïnteresseerden:
http://www.guru3d.com/art..._2_way_sli_review,21.html
Wat zijn die SLI frame times vooruit gegaan zeg. Met zulke strakke grafieken hoef je het niet meer af te raden.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
rkwinkel
Zelf ook een sli 770 gehad en een maat van me sli 980 maar we gaan er beiden nooit meer voor het word zo slecht geondersteund en altijd gedonder om het werkend te krijgen ook al zegt en adverteerd nvidia er best veel over... Ik moet het nog maar zien heel dat sli maar dat zei een andere maatje van me al 5 jaar geledensdk1985 schreef op zaterdag 25 juni 2016 @ 12:19:
[...]
Meest zinnige optie is meestal om gewoon na 1.5 jaar te upgraden.
Wat zijn die SLI frame times vooruit gegaan zeg. Met zulke strakke grafieken hoef je het niet meer af te raden.
Ten tijde van de gtx 770 was het al heel lang bewezen dat SLI niet werkt. Dat gebeurde namelijk in 2011: Inside the second: A new look at game benchmarking. Toen ze daarna met FCAT kwamen bleek het allemaal nog wat erger te zijn als ze de effectieve framerate gingen berekenen. Daarvoor wisten we het eigenlijk ook wel (micro-stutter was toen de term), maar het kon nooit met cijfers in beeld worden gebracht. Dus toen was er nog iets om over te discussiëren.Jantjuh151 schreef op zaterdag 25 juni 2016 @ 14:25:
[...]
Zelf ook een sli 770 gehad en een maat van me sli 980 maar we gaan er beiden nooit meer voor het word zo slecht geondersteund en altijd gedonder om het werkend te krijgen ook al zegt en adverteerd nvidia er best veel over... Ik moet het nog maar zien heel dat sli maar dat zei een andere maatje van me al 5 jaar geleden
Dus op basis van frame time gate had je niet aan een GTX 770 in sli moeten beginnen, immers je ging in games waarbij het überhaupt werkt alsnog last van stuttering krijgen.
Maar nu is het dus positief om te zien dat er toch flink aan is gesleuteld. Eerder was het per definitie zonde van je geld (en tijd besteed aan gerommel). Nu stel ik mijn mening bij in het voordeel van SLI. Als je het geld en geduld hebt dan zie ik geen bezwaar.
Ik vraag me wel af hoe ze dit voor elkaar hebben gekregen want 5 jaar geleden was de uitleg van Nvidia dat het inherent was aan alternate frame rendering.
[ Voor 29% gewijzigd door sdk1985 op 25-06-2016 16:14 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
noujah ik kocht het toendertijd meerendeel voor arma 3 en 770 sli was daarvoor beter kwa benchmarks dan 1 single titan... dat was mijn reden toen...sdk1985 schreef op zaterdag 25 juni 2016 @ 15:58:
[...]
Ten tijde van de gtx 770 was het al heel lang bewezen dat SLI niet werkt. Dat gebeurde namelijk in 2011: Inside the second: A new look at game benchmarking. Toen ze daarna met FCAT kwamen bleek het allemaal nog wat erger te zijn als ze de effectieve framerate gingen berekenen. Daarvoor wisten we het eigenlijk ook wel (micro-stutter was toen de term), maar het kon nooit met cijfers in beeld worden gebracht. Dus toen was er nog iets om over te discussiëren.
Dus op basis van frame time gate had je niet aan een GTX 770 in sli moeten beginnen, immers je ging in games waarbij het überhaupt werkt alsnog last van stuttering krijgen.
Maar nu is het dus positief om te zien dat er toch flink aan is gesleuteld. Eerder was het per definitie zonde van je geld (en tijd besteed aan gerommel). Nu stel ik mijn mening bij in het voordeel van SLI. Als je het geld en geduld hebt dan zie ik geen bezwaar.
Ik vraag me wel af hoe ze dit voor elkaar hebben gekregen want 5 jaar geleden was de uitleg van Nvidia dat het inherent was aan alternate frame rendering.
- Skyrim met hd mods en een berg visual mods - vanwege vsync strak op 60 fps
- Hitman Absolution - op drukke momenten 75 fps. Rest van de tijd 95+
Beide met alles op max.
Geluidsniveau nog steeds vergelijkbaar met mn gtx 760 msi gaming.
Goed om te lezen! Ben blij dat je eindelijk er één hebt kunnen bemachtigenHenkje.doc schreef op zondag 26 juni 2016 @ 07:51:
Nog wat ervaringen met de gtx 1070:
- Skyrim met hd mods en een berg visual mods - vanwege vsync strak op 60 fps
- Hitman Absolution - op drukke momenten 75 fps. Rest van de tijd 95+
Beide met alles op max.
Geluidsniveau nog steeds vergelijkbaar met mn gtx 760 msi gaming.
https://forums.geforce.co...0-mhz-dl-dvi-pixel-clock/
HDMI and displayport zouden deze issue niet moeten hebben.
|WOW Daggerspine | Troll Hunter Axejess |
[edit]
Al wat gevonden
https://linustechtips.com...80-pcie-30-x8-bottleneck/
[ Voor 33% gewijzigd door dierkx36 op 27-06-2016 10:30 ]
Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.
Goed om te weten voor mensen die geen DP gebruiken. Nu ook op Techpowerup:William/Ax3 schreef op zondag 26 juni 2016 @ 22:00:
Ter info als je dl-dvi scherm hebt op hoger als 80hz dan kan je vreemde problemen hebben met booten van Windows is een probleem met pixelclock boven 330 MHz. Zet je hz zelf hoger na boot zou wel moeten kunnen.
https://forums.geforce.co...0-mhz-dl-dvi-pixel-clock/
HDMI and displayport zouden deze issue niet moeten hebben.
TechPowerup: GeForce GTX "Pascal" Faces High DVI Pixel Clock Booting Problems
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
- EVGA GeForce GTX 1080 FTW Gaming ACX 3.0
- MSI GeForce GTX 1080 Gaming X 8G
Ik wilde eerst voor een Asus ROG Strix of een Gigabyte gaan. Nu heb ik gehoord dat de Gigabyte last heeft van "coil whie" en de asus is me gewoon te duur. Dat vind ik te gek voor woorden.
Heb je een link over die coilwhine bij Gigabyte?Slackers schreef op maandag 27 juni 2016 @ 12:33:
Iemand enige ervaring met de
- EVGA GeForce GTX 1080 FTW Gaming ACX 3.0
- MSI GeForce GTX 1080 Gaming X 8G
Ik wilde eerst voor een Asus ROG Strix of een Gigabyte gaan. Nu heb ik gehoord dat de Gigabyte last heeft van "coil whie" en de asus is me gewoon te duur. Dat vind ik te gek voor woorden.
Nou de enige review hier op tweakers meld het. Ik weet niet of ik dit moet geloven.Leader98 schreef op maandag 27 juni 2016 @ 12:36:
[...]
Heb je een link over die coilwhine bij Gigabyte?
pricewatch: Gigabyte GeForce GTX 1080 G1 Gaming 8GB
Zie dat er ook aardig wat filmpjes van zijn incl. de Xtreme kaart.
http://www.guru3d.com/art...0-g1-gaming-review,1.html
http://hexus.net/tech/rev...force-gtx-1080-g1-gaming/We heard a tiny bit of coil-noise, nothing dramatic. In fact housed inside a closed chassis we doubt you would ever notice it.
http://www.techspot.com/r...force-gtx-1080-g1-gaming/
https://www.techpowerup.c...abyte/GTX_1080_G1_Gaming/
http://www.kitguru.net/co...080-g1-gaming-rgb-review/
http://www.hardwareunboxe...ce-takes-on-the-gtx-1080/Pros:
no coil whine.
http://www.hitechlegion.c...gtx-1080-g1-gaming-review
[ Voor 11% gewijzigd door Paprika op 27-06-2016 12:56 ]
[ Voor 5% gewijzigd door -The_Mask- op 27-06-2016 13:12 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Optimist: The glass is half full; Pessimist: The glass is half empty; Physicist: The glass is full of liquid and air.
Je zit in het verkeerde topic.Verwijderd schreef op maandag 27 juni 2016 @ 15:31:
heb toch maar weer een mail gestuurd en heb dit als antwoord:
Hallo Herr xxxxx
vielen Dank für Ihre E-Mail.
Wir erhalten heute zwar eine geringe Anzahl, aber da Sie in der Liste der 17. Vorbesteller sind, gehen wir davon aus, dass es sehr wahrscheinlich ist, dass Ihre Bestellung heute bearbeitet und versendet werden kann.
dus ze krijgen vandaag hoogstwaarschijnlijk een lading binnen maar handelen eerst de backorders af.. ik ben nummer 17 en heb hem besteld op 08.06.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
In bv Black Ops 3 op hoogste settings, 1440p gebruikt de kaart ongeveer 6900mb aan videogeheugen. Als je dit test in unigine heaven is het natuurlijk mogelijk dat die niet zoveel videogeheugen nodig heeft.amas schreef op maandag 27 juni 2016 @ 15:15:
Even een vraagje tussendoor. Ik heb net m'n Palit GTX1080 GameRock binnen. Natuurlijk gelijk even getest en met MSI afterburner alles in de gaten gehouden. Nu zie ik in de grafieken dat de Memory usage tot maximaal 3896MB gaat, terwijl de 1080 toch echt 8GB heeft. Is dit een bugje in Afterburner?
Ik raad je ook aan om de laatste beta versie '4.3.0' gebruiken van Afterburn.
En congrats met je Palit, ik heb die ook xD.
Wat ik vreemd vond was dat de grafiek maar een maximum van 3896MB kon weergeven. Ik dacht dat Afterburner automatisch detecteerde dat dat het aantal vRAM van de kaart was. Maar blijkbaar had hij die settings nog onthouden van mijn vorige kaart. In de settings kan ik het handmatig veranderen naar 8GB. Dus crisis affertedLeeo schreef op maandag 27 juni 2016 @ 15:48:
[...]
In bv Black Ops 3 op hoogste settings, 1440p gebruikt de kaart ongeveer 6900mb aan videogeheugen. Als je dit test in unigine heaven is het natuurlijk mogelijk dat die niet zoveel videogeheugen nodig heeft.
Ik raad je ook aan om de laatste beta versie '4.3.0' gebruiken van Afterburn.
En congrats met je Palit, ik heb die ook xD.

Nice! Het is echt een monsterlijke grote kaart!
Optimist: The glass is half full; Pessimist: The glass is half empty; Physicist: The glass is full of liquid and air.
Kun je wat benchmarks uitvoeren, zoals hoe hoog die clocked stock/oc, temps,etc?
En hou je clocks in de gaten of die dalen idle onder windows. Bij mij blijven de clocks hoog als m'n monitor op hoge refresh rate (+60hz) staat.
[ Voor 7% gewijzigd door Leeo op 27-06-2016 16:22 ]
Nvidia gaat het bekijken:Help!!!! schreef op maandag 27 juni 2016 @ 12:21:
[...]
Goed om te weten voor mensen die geen DP gebruiken. Nu ook op Techpowerup:
TechPowerup: GeForce GTX "Pascal" Faces High DVI Pixel Clock Booting Problems
https://forums.geforce.co...ock/post/4914565/#4914565
Thanks for the reports, we will look into this.
What OS are you all running?
|WOW Daggerspine | Troll Hunter Axejess |
Dit topic is bedoeld voor ervaringen met de GTX 10XX. Prijzen hebben daar weinig mee te maken.