Lijkt me niet zo vreemd met een ongeoptimaliseerde game met 2,5x zoveel draw calls. Ach ja, laten we hopen dat RockStar niet hetzelfde lapt. Ik ga in ieder geval geen games meer preorderen buiten die van Blizzard, één van de weinige uitgevers die ik nog vertrouw.
Dit kan je niet serieus menen? Waarom vertrouw je Blizzard wel? Wat hebben zij zo goed gedaan de laatste jaren?Phuncz schreef op vrijdag 14 november 2014 @ 17:57:
Lijkt me niet zo vreemd met een ongeoptimaliseerde game met 2,5x zoveel draw calls. Ach ja, laten we hopen dat RockStar niet hetzelfde lapt. Ik ga in ieder geval geen games meer preorderen buiten die van Blizzard, één van de weinige uitgevers die ik nog vertrouw.
De release van WoW-expansions ging telkens opnieuw en opnieuw gepaard met een hoop miserie en problemen. Dat er deze keer toevallig een artikel op de frontpage staat waarin ze toegeven dat ze last hadden van een DDOS neemt helemaal niet weg dat de vorige expansions door de lag de eerste dag onspeelbaar waren (en eigenlijk de hele week haperden).
Diablo 3? Een hoop problemen de eerste periode na release. Ook de zogenaamde heilige graal is er een pak slechter op geworden in de mate dat ik ook deze niet meer vertrouw.
Daar gelaten dat de kwaliteit van de content ook een serieuze deuk heeft gekregen de afgelopen jaren. Nee, bedankt. Ik wacht wel op de reacties van de beginnende spelers. Alle uitgevers lijken inmiddels de melkkoe verneukt te hebben:
- Battlefield 4: lol.
- Diablo 3: hoop server maintenance om de lag te fixen, lol.
- AC: U: LOL.
- Sim City 4: trolololololol
En zo blijf je lekker bezig. Indie dev's noemen dit early access. Grote uitgevers noemen dit kleine release-bugs.
Het is maar natuurlijk een mening maar als je graag verdediging daarvoor hebt, geen probleemFlying schreef op vrijdag 14 november 2014 @ 20:07:
[...]
Dit kan je niet serieus menen? Waarom vertrouw je Blizzard wel? Wat hebben zij zo goed gedaan de laatste jaren?
Geen last van gehad, van geen enkel probleem tijdens de release.Diablo 3? Een hoop problemen de eerste periode na release.
Dat doe je ook best, maar in mijn ervaring heeft Blizzard als de enige grote uitgever nog geen game uitgebracht die overduidelijk brak liep door technische issues, buiten overmacht om zoals met de eerste dag(en) van een online game.Nee, bedankt. Ik wacht wel op de reacties van de beginnende spelers.
Nu zeg ik niet dat iedereen dat moet doen, maar mijn vertrouwen in Blizzard is nooit geschonden geweest als je een beetje redelijk bent. Ik verwacht niet dat een game waar miljoenen mensen op zaten te wachten binnen de eerste twaalf uren goed loopt, dat is tot nu toe zeer zelden goed gelopen en voor mij was Diablo 3 daar juist de uitzondering in.
problemen met diablo 3 met launch waren wijdverspreid. Dus je had geluk.
*kuch* valve?*kuch*Phuncz schreef op zaterdag 15 november 2014 @ 00:16:
[...]
Dat doe je ook best, maar in mijn ervaring heeft Blizzard als de enige grote uitgever nog geen game uitgebracht die overduidelijk brak liep door technische issues, buiten overmacht om zoals met de eerste dag(en) van een online game.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Goed punt, Valve heeft me ook nog geen gevoel gegeven dat ik genaaid wordt.
Jezus hahah... Mooie voorspelling dit. We zitten wel bijna bij de 3000 stream processors, maar 11nm wordt nog taai.
Doet me herinneren aan Intel die in 2000 een voorspelling maakte voor elf jaar later: 10ghz Pentium 4's
Doet me herinneren aan Intel die in 2000 een voorspelling maakte voor elf jaar later: 10ghz Pentium 4's
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Of die vga kaart die MS zou ontwikkelen die alle Nividia's en ATi destijds omver zou blazen, hoe heette die paperweight ook alweer?
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Videokaart van Microsoft?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Intel heeft in 2016 pas 10nm, lijkt me heel sterk dat Nvidia dat ook kan. Intel loopt al enkele jaren voor op de rest met het maken van een kleine procede.XanderDrake schreef op vrijdag 21 november 2014 @ 15:47:
Jezus hahah... Mooie voorspelling dit. We zitten wel bijna bij de 3000 stream processors, maar 11nm wordt nog taai onmogelijk.
Doet me herinneren aan Intel die in 2000 een voorspelling maakte voor elf jaar later: 10ghz Pentium 4's
Misschien dat ze 14nm doen maar ook dat betwijfel ik. Het hangt namelijk af van TSMC.
https://www.semiwiki.com/...dates-20nm-16nm-10nm.html
http://www.extremetech.co...ults-unveils-10nm-roadmap
De keuze voor 11nm lijkt mij ook raar aangezien TSMC en Intel beide voor 10nm gaan.
[ Voor 23% gewijzigd door Sp3ci3s8472 op 21-11-2014 16:51 . Reden: bronnen ]
Bedoel je niet Intel's Larrabee?SAiN ONeZ schreef op vrijdag 21 november 2014 @ 16:39:
Of die vga kaart die MS zou ontwikkelen die alle Nividia's en ATi destijds omver zou blazen, hoe heette die paperweight ook alweer?

[ Voor 15% gewijzigd door -The_Mask- op 21-11-2014 17:17 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Los van dat het tegenwoordig ActivisionBlizzard is heb ik een hele andere ervaring...Phuncz schreef op zaterdag 15 november 2014 @ 00:16:
[...]
Het is maar natuurlijk een mening maar als je graag verdediging daarvoor hebt, geen probleemIn de laatste jaren hebben ze Diablo 3, Starcraft 2 en Hearthstone uitgebracht. Alle drie die game waren goed ontvangen en hebben buiten minimale problemen geen grote issues gehad zoals high-end PC's van €2.000 en meer die tot warme pap gereduceerd werden omdat ze een crappy port hadden gemaakt. Die drie games bevatte ook zeer weinig technische issues in de mate van waar we nu over spreken zoals met AC:U, Watch Dogs, The Evil Within, COD: Ghosts en andere games die bewust brak op de markt gezet worden.
[...]
Geen last van gehad, van geen enkel probleem tijdens de release.
[...]
Dat doe je ook best, maar in mijn ervaring heeft Blizzard als de enige grote uitgever nog geen game uitgebracht die overduidelijk brak liep door technische issues, buiten overmacht om zoals met de eerste dag(en) van een online game.
Nu zeg ik niet dat iedereen dat moet doen, maar mijn vertrouwen in Blizzard is nooit geschonden geweest als je een beetje redelijk bent. Ik verwacht niet dat een game waar miljoenen mensen op zaten te wachten binnen de eerste twaalf uren goed loopt, dat is tot nu toe zeer zelden goed gelopen en voor mij was Diablo 3 daar juist de uitzondering in.
Zeker nooit in Stormwind rondgelopen toen dat nog hip was
Starcraft 2 was veel te cpu heavy voor hoe die game er uit zag (vergelijk het eens met RUSE ofzo, ook rond die tijd).

En dan Diablo 3... Tja het auctionhouse dat alle goldfarmers weg zou houden... We weten hoe dat is afgelopen. (Overigens waren die timeouts rond launch ook irritant want hetzelfde probleem zat al in de open beta).
Nee Blizzard associeer ik niet met geoptimaliseerde games. Als ik denk aan welke games mij verrasten met hoe goed ze liepen en schaalden dan kom ik op Anno 2070 en Ruse. Die laatste was één van de weinige games die nog speelbaar was op mijn AMD E-350 APU.
Beide toevallig van Ubisoft. (Wat die met AC aan het doen zijn weet ik ook niet, game ziet er niet uit. Watch Dogs deed het hier wel prima op 1680x1050 met 50-60 fps op high).
Wat Activision(Blizzard) doet met de CoD reeks is natuurlijk schandalig. Ze recyclen al jaren dezelfde engine. Verder is het een trend om games halfbakken af te leveren... Early acces maakt dat eigenlijk alleen nog maar erger.
[ Voor 6% gewijzigd door sdk1985 op 21-11-2014 17:49 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Of BitBoys' Glaze3D? http://en.wikipedia.org/wiki/Glaze3D-The_Mask- schreef op vrijdag 21 november 2014 @ 17:14:
[...]
Bedoel je niet Intel's Larrabee?
[afbeelding]
Starcraft 2 kon ik nog op 1024*768@low spelen op mijn AMD Yukon (ULV X2 1,6ghz en HD 3200 zonder eigen geheugen, medio 2009) laptopje. Maar inderdaad het is bizar dat SC2 niet fatsoenlijk kon draaien op een overclockte Q6600.sdk1985 schreef op vrijdag 21 november 2014 @ 17:48:
Starcraft 2 was veel te cpu heavy voor hoe die game er uit zag (vergelijk het eens met RUSE ofzo, ook rond die tijd).
[afbeelding]
En dan Diablo 3... Tja het auctionhouse dat alle goldfarmers weg zou houden... We weten hoe dat is afgelopen. (Overigens waren die timeouts rond launch ook irritant want hetzelfde probleem zat al in de open beta).
Nee Blizzard associeer ik niet met geoptimaliseerde games. Als ik denk aan welke games mij verrasten met hoe goed ze liepen en schaalden dan kom ik op Anno 2070 en Ruse. Die laatste was één van de weinige games die nog speelbaar was op mijn AMD E-350 APU.
Een producent die goed geoptimaliseerde games uitbrengt is trouwens Eidos en Square Enix die hun games naar PC laat porten door Nixxes, Neerlands hoop in bange dagen
Of deze: http://en.wikipedia.org/wiki/XGI_TechnologyCheezus schreef op vrijdag 21 november 2014 @ 18:56:
[...]
Of BitBoys' Glaze3D? http://en.wikipedia.org/wiki/Glaze3D
Er zijn meer techbedrijven die niet eens een leverbare GPUs kunnen maken dan bedrijven die dat wel kunnen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 471038
En ook genoeg bedrijven die het risico niet willen lopen.XanderDrake schreef op vrijdag 21 november 2014 @ 19:16:
[...]
Er zijn meer techbedrijven die niet eens een leverbare GPUs kunnen maken dan bedrijven die dat wel kunnen.
Vroeger had je VideoLogic, nu bekend als Imagination Tech, met de PowerVR GPUs.
Ze maakten hun eigen videokaarten, eerst in samenwerking met NEC, later met ST.
Toen zijn ze overgegaan op design-only. En ze verkopen hun designs alleen aan mobiele/embedded klanten.
Best jammer, want hun GPU designs zijn zeer interessant, en goed up-to-date. Het zou leuk zijn om zoiets eens op de schaal te zien van een mainstream tot high-end GPU. Maarja, wie is zo gek om een hele batch kaarten te gaan bouwen, en dan zien of je ze kunt verkopen?
Good old times, heb nog een PowerVR PCX (vergelijkbaar met voodoo1) en Kyro 2 gehad.
Ik mis die tijd wel dat je nog concurrentie had.
Ik mis die tijd wel dat je nog concurrentie had.
S3 Trio Verge 4mb VRAM plus VooDoo2 kaart.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
nieuws: Samsung wil verkoop Nvidia-chips laten verbieden
OK, een patenten gebaseerde counter-sue had ik wel verwacht. Maar Samsung gaat ervoor om nVidia falliet te krijgen. Thats it, zulk anti-concurrentie gedrag kan ik niet waarderen. Ik zal geen Samsung producten meer kopen totdat ze hiermee nokken. Bullsh*t
OK, een patenten gebaseerde counter-sue had ik wel verwacht. Maar Samsung gaat ervoor om nVidia falliet te krijgen. Thats it, zulk anti-concurrentie gedrag kan ik niet waarderen. Ik zal geen Samsung producten meer kopen totdat ze hiermee nokken. Bullsh*t
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Als je spul niet koopt omdat bedrijf X een lopende rechtzaak heeft tegen bedrijf Y, dan mag je een beste lijst bijhouden als je aan het winkelen bent. Het staat zelfs in het bericht dat Nvidia eerder al een rechtzaak aangespannen heeft tegen Samsung, dus je bent openlijk partijdig als je enkel geen Samsung producten meer koopt.
Ja, want nvidia die samsung aanklacht voor dezelfde onzin, dat is wel ok!XanderDrake schreef op zondag 23 november 2014 @ 11:07:
nieuws: Samsung wil verkoop Nvidia-chips laten verbieden
OK, een patenten gebaseerde counter-sue had ik wel verwacht. Maar Samsung gaat ervoor om nVidia falliet te krijgen. Thats it, zulk anti-concurrentie gedrag kan ik niet waarderen. Ik zal geen Samsung producten meer kopen totdat ze hiermee nokken. Bullsh*t

Ja, dit is puur een reactie op nvidia's rechtszaak. Ze brengen gewoon alles wat ze kunnen in stelling om de uiteindelijke schikking voordeliger te maken.
Zal uiteindelijk wel een hoop crosslicensing worden, of een hoop geld, zoals een paar jaar terug met intel.
Zal uiteindelijk wel een hoop crosslicensing worden, of een hoop geld, zoals een paar jaar terug met intel.
Mechwarrior Online: Flapdrol
Anoniem: 471038
Ik ben benieuwd wat voor GPU-gerelateerde patenten Samsung dan op tafel kan leggen. nVidia heeft er heel veel (vooral ook door de overname van 3DFX, waar behoorlijk fundamentele patenten bij zitten qua GPU-ontwerp, zoals technieken voor rasterizing en texturing).
En terecht. Kijk naar wat voor een bedrijf nVidia is. Die drukken AMD ook met allemaal rare toestanden de markt uit. Of i.i.g. dat proberen ze. Enfin, nVidia is nog wel de laatste die zou moeten zeiken over valse concurrentie.XanderDrake schreef op zondag 23 november 2014 @ 11:07:
nieuws: Samsung wil verkoop Nvidia-chips laten verbieden
OK, een patenten gebaseerde counter-sue had ik wel verwacht. Maar Samsung gaat ervoor om nVidia falliet te krijgen. Thats it, zulk anti-concurrentie gedrag kan ik niet waarderen. Ik zal geen Samsung producten meer kopen totdat ze hiermee nokken. Bullsh*t
Met welke rare toestanden proberen ze amd momenteel uit de markt te drukken dan?madmaxnl schreef op zondag 23 november 2014 @ 15:19:
En terecht. Kijk naar wat voor een bedrijf nVidia is. Die drukken AMD ook met allemaal rare toestanden de markt uit. Of i.i.g. dat proberen ze. Enfin, nVidia is nog wel de laatste die zou moeten zeiken over valse concurrentie.
Mechwarrior Online: Flapdrol
Anoniem: 471038
Inb4 GameWorkshaarbal schreef op zondag 23 november 2014 @ 16:35:
[...]
Met welke rare toestanden proberen ze amd momenteel uit de markt te drukken dan?
Zoiets heet ook wel concurrentie.madmaxnl schreef op zondag 23 november 2014 @ 15:19:
[...]
En terecht. Kijk naar wat voor een bedrijf nVidia is. Die drukken AMD ook met allemaal rare toestanden de markt uit. Of i.i.g. dat proberen ze. Enfin, nVidia is nog wel de laatste die zou moeten zeiken over valse concurrentie.
Ieder bedrijf zal proberen zijn concurrent uit de markt te drukken, iets wat positief is voor innovatie en houd de prijzen binnen de perken.
Als ieder bedrijf een monopolie op iets heeft, dan hoeft er ook nooit geinnoveerd te worden.
[ Voor 22% gewijzigd door unfor op 23-11-2014 17:01 ]
GameWorks != Totale blokkade van levering alle producten van een concurrent?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Zijn er al producten geblokkeerd dan ? Ik dacht dat er enkel het verzoek gevraagd hiervoor. Wat zelden ingaat. Ik herinner me de laatste keer dat zoiets uitgeroepen werd, de betreffende producten al niet meer verkocht werden.
Ik zie het niet snel gebeuren nee, zoals Scalibq al zei, de patenten van 3DFX die nVidia overnam begin van de eeuw zullen veelal ouder zijn dan alles wat Samsung kan opborrelen.
Maar het is wel zo: Samsung kan ook gaan voor het afdwingen van licentie overeenkomsten en dat soort. Ze gaan toch voor een ander doel...
Maar het is wel zo: Samsung kan ook gaan voor het afdwingen van licentie overeenkomsten en dat soort. Ze gaan toch voor een ander doel...
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
pricewatch: Gigabyte GV-N78TGHZ-3GD
Waarom zijn die 780s zo duur? Volgens mij heb je voor minder geld een 980.
Waarom zijn die 780s zo duur? Volgens mij heb je voor minder geld een 980.
Heeft dat werkelijk uitleg nodig?Olaf van der Spek schreef op vrijdag 05 december 2014 @ 22:11:
pricewatch: Gigabyte GV-N78TGHZ-3GD
Waarom zijn die 780s zo duur? Volgens mij heb je voor minder geld een 980.
Eh, ja, is een echte vraag. Of mis ik iets triviaals?
[ Voor 32% gewijzigd door Olaf van der Spek op 06-12-2014 14:07 ]
Dit is altijd het geval, met name met top kaarten. De GTX780 TI is een topkaart en hij was misschien een tijdje in prijs verlaagd, dit houdt alleen niet aan omdat de GTX780 TI hoogstwaarschijnlijk EOL is nu de GTX9xx serie er is.Olaf van der Spek schreef op zaterdag 06 december 2014 @ 14:07:
Eh, ja, is een echte vraag. Of mis ik iets triviaals?
Er dus een schaarste en daar maken de winkels goed gebruik van door meer geld te vragen.
De reden dat dit vaak met topkaarten het meest merkbaar is omdat er van dat type kaart zo weinig worden gemaakt ten opzichte van de low en mid-end kaarten.
De leverancier heeft er nog maar enkelen liggen en heeft waarschijnlijk geen zin om verlies op die laatste paar te maken. Ze gaan ervan uit dat ze die laatste paar nog wel voor de hoofdprijs kunnen slijten.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb eens zitten pielen met DSR, dat is toch nog best een significant verschil. Let vooral op de plafondtegels in de verte die schijnbaar niet worden aangepakt door MSAA maar wel verbetering vertonen bij de 2160p DSR.
* Klik voor .gifv
Meer info:
http://www.geforce.com/hardware/technology/dsr/technology
Leuk voor oude games
*edit*
Archief met de ongecomprimeerde .PNG screenshots:
https://dl.dropboxusercontent.com/u/1167941/Portal_2_DSR.rar
* Klik voor .gifv
Meer info:
http://www.geforce.com/hardware/technology/dsr/technology
Leuk voor oude games
*edit*
Archief met de ongecomprimeerde .PNG screenshots:
https://dl.dropboxusercontent.com/u/1167941/Portal_2_DSR.rar
[ Voor 22% gewijzigd door Steef op 07-12-2014 00:11 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Wow ja, dit is geen loze marketing kreet, nee!ThaRabbit schreef op zaterdag 06 december 2014 @ 23:11:
Ik heb eens zitten pielen met DSR, dat is toch nog best een significant verschil. Let vooral op de plafondtegels in de verte die schijnbaar niet worden aangepakt door MSAA maar wel verbetering vertonen bij de 2160p DSR.
* Klik voor .gifv
Meer info:
http://www.geforce.com/hardware/technology/dsr/technology
Leuk voor oude games
*edit*
Archief met de ongecomprimeerde .PNG screenshots:
https://dl.dropboxusercontent.com/u/1167941/Portal_2_DSR.rar
Maar waarom specifiek oude games? Hebben moderne games er minder baad bij?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Het voornaamste argument is performance. Als jij een moderne game middels DSR op 2160p kunt draaien: go for it. Allicht beter dan de post-processing AA technieken die de neiging hebben de textures te vervagen. (FXAA / TXAA). Bij oudere games heb je wat meer speelruimte.XanderDrake schreef op zondag 07 december 2014 @ 09:44:
[...]
Wow ja, dit is geen loze marketing kreet, nee!
Maar waarom specifiek oude games? Hebben moderne games er minder baad bij?
Moderne games als Far Cry 4 en Shadow of Mordor vragen al 2 resp. 3 Gb VRAM bij 1080p, er is op mijn systeem geen VRAM ruimte om de resolutie nog meer omhoog te gooien.
Al schijnt dat Shadow of Mordor op 10320x1440 tegen de 4Gb VRAM vereist. Not bad.
Bron daarvoor: https://www.youtube.com/w...SBlHAE6Xw-yeJA0Tunw#t=433
Overigens is Portal 2 heel simpel, het verschil zou dramatischer zijn bij een open world game met veel objects. Ik zal eens een poging doen op een recentere game
[ Voor 8% gewijzigd door Steef op 07-12-2014 13:52 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Waarom?ThaRabbit schreef op zondag 07 december 2014 @ 13:52:
[...]
Overigens is Portal 2 heel simpel, het verschil zou dramatischer zijn bij een open world game met veel objects. Ik zal eens een poging doen op een recentere game
Crysis, Farcry 2, GTA 3 of 4 zou prima kunnen als openworld game, zeker met een recente highend videokaart (HD7970/GTX680 of beter). Je FOV verandert niet dus je hebt niet ineens meer dingen op je scherm. Je resolutie verhogen heeft geen impact op je cpu, je zal niet ineens meer drawcalls moet maken (zover ik weet). Het enige wat er gebeurt is dat je de dingen die je voorheen zag met 2x de precieze tekent (indien je DSR op 2x native resolutie hebt).
Daarom zie je bij cpu benchmarks altijd dat games op een zo'n laag mogelijk resolutie worden gespeelt zodat er geen gpu limitatie is maar juist wel een cpu limitatie.
Een recentere game zal inderdaad meer problemen geven, de punten die je daarvoor aanstippelt klopen
Ik denk dat ik het wat brak heb verwoord. Ik bedoelde dat het visuele effect veel dramatischer is in een game met meer complexe geometrie. Portal 2 is vrij simpel met weinig complexe objecten die aliassing vertonen.
* Steef zoekt een recentere game om het nogmaals te doen
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Ah op die manierThaRabbit schreef op zondag 07 december 2014 @ 17:54:
[...]
Ik denk dat ik het wat brak heb verwoord. Ik bedoelde dat het visuele effect veel dramatischer is in een game met meer complexe geometrie. Portal 2 is vrij simpel met weinig complexe objecten die aliassing vertonen.
* Sp3ci3s8472 zoekt een recentere game om het nogmaals te doen
Op zich is de scene die je hebt gekozen juist een goede door het streepjes patroon van de texture. Het is daardoor wel degelijk goed te zien. Het ziet er "voller" uit.
Wat met trouwens opvalt is dat de screenshots ook op werkelijke grote zijn, ik had eigenlijk verwacht dat deze automatisch werden teruggeschaald naar native. Het voordeel van niet terugschalen lijkt me dat mensen die "foto's" maken ingame de originele file hebben en er zelf op kunnen losgaan met photoshop, met name omdat je de gamewereld op een gigantische resolutie (meer dan 2x native) kan fotograferen. Voordat je je het afvraagt, er zijn serieus mensen die op "profesioneel" niveau screenshots maken van games.
Gekken heb je overalSp3ci3s8472 schreef op zondag 07 december 2014 @ 20:24:
[...]
Ah op die manier.
Op zich is de scene die je hebt gekozen juist een goede door het streepjes patroon van de texture. Het is daardoor wel degelijk goed te zien. Het ziet er "voller" uit.
Wat met trouwens opvalt is dat de screenshots ook op werkelijke grote zijn, ik had eigenlijk verwacht dat deze automatisch werden teruggeschaald naar native. Het voordeel van niet terugschalen lijkt me dat mensen die "foto's" maken ingame de originele file hebben en er zelf op kunnen losgaan met photoshop, met name omdat je de gamewereld op een gigantische resolutie (meer dan 2x native) kan fotograferen. Voordat je je het afvraagt, er zijn serieus mensen die op "profesioneel" niveau screenshots maken van games.
De screenshot wordt inderdaad gemaakt voor het (de?) gerenderde frame door het resize filter van NVIDIA gaat, ik heb geen manier kunnen vinden om een screenshot te produceren na de resize. Photosoep resize werkt ook.
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
zou je het kunnen uitproberen in arma of red orchestra 2? Vooral de laatste is berucht qua drawcalls vanwege de hoge aantal objecten voor een PC game.
Misschien kan je met shadowplay de juiste screenshots maken. Photoshop resize heeft waarschijnlijk wel een beter filter dan de realtime nvidia downscaling.ThaRabbit schreef op zondag 07 december 2014 @ 20:54:
[...]
Gekken heb je overal![]()
De screenshot wordt inderdaad gemaakt voor het (de?) gerenderde frame door het resize filter van NVIDIA gaat, ik heb geen manier kunnen vinden om een screenshot te produceren na de resize. Photosoep resize werkt ook.
Mechwarrior Online: Flapdrol
Ik speel nu Far Cry 4@Ultra op mijn GTX 670 (met kleine overclock) en ik moet zeggen dat ik erg tevreden ben over nVidia's TXAA. Ziet er erg smooth uit, ronder en zelfs zachter/realistischer dan bijv MSAA op hetzelfde niveau. En lang niet zo zwaar!
In ander nieuws: GTX 960 komt mogelijk in Januari uit, hoeveelheid shaders enz. zijn nog niet bekend.
http://www.fudzilla.com/h...x-960-rumored-for-january
In ander nieuws: GTX 960 komt mogelijk in Januari uit, hoeveelheid shaders enz. zijn nog niet bekend.
http://www.fudzilla.com/h...x-960-rumored-for-january
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Vind SMAA er zelf mooier uitzien, ik zie dat Far Cry 4 dat ook ondersteunt. Heeft ook minder performance impact dan TXAAXanderDrake schreef op woensdag 10 december 2014 @ 09:11:
Ik speel nu Far Cry 4@Ultra op mijn GTX 670 (met kleine overclock) en ik moet zeggen dat ik erg tevreden ben over nVidia's TXAA. Ziet er erg smooth uit, ronder en zelfs zachter/realistischer dan bijv MSAA op hetzelfde niveau. En lang niet zo zwaar!
In ander nieuws: GTX 960 komt mogelijk in Januari uit, hoeveelheid shaders enz. zijn nog niet bekend.
http://www.fudzilla.com/h...x-960-rumored-for-january
Dit is een interessant artikel over beide AA varianten, focus ligt op de performance.
Op welke resolutie speel je Far Cry 4 dan en hoeveel fps krijg je. Als ik naar deze review kijk dan zie ik dat een GTX680 rond de 50fps haalt, vergelijkbaar met een HD7870 een klasse lager. Hebben ze dat onderhand al gefixed met een driver update?
Ik zal eens SMAA checken. Ik heb niet het gevoel dat TXAA zo zwaar is.
Ik krijg denk ik ongeveer dezelfde resultaten. 50FPS is op zich prima. Ik wacht nog wel op nieuwe drivers, dat wel.
Ik krijg denk ik ongeveer dezelfde resultaten. 50FPS is op zich prima. Ik wacht nog wel op nieuwe drivers, dat wel.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik heb dus ook een paar uur met SMAA gespeeld. Conclusie: het beeld van TXAA2 is een stuk 'zachter', ronder en soepeler. Maar inderdaad, zachter betekend ook waziger. Ik kan me de afweging tegen TXAA dan ook goed voorstellen.Sp3ci3s8472 schreef op woensdag 10 december 2014 @ 11:42:
Vind SMAA er zelf mooier uitzien, ik zie dat Far Cry 4 dat ook ondersteunt. Heeft ook minder performance impact dan TXAA. Kan natuurlijk een persoonlijke keus zijn welke AA variant je mooi vind, ik vind dat TXAA de textures iets te veel blurred.
Dit is een interessant artikel over beide AA varianten, focus ligt op de performance.
Op welke resolutie speel je Far Cry 4 dan en hoeveel fps krijg je. Als ik naar deze review kijk dan zie ik dat een GTX680 rond de 50fps haalt, vergelijkbaar met een HD7870 een klasse lager. Hebben ze dat onderhand al gefixed met een driver update?
Maar SMAA is ook lang niet perfect, zo te zien is er maar één niveau, geen zwaardere variant. Aliasing artifacts vallen toch meer op, en dan voornamelijk als het contrast groot is: mooi voorbeeld is een zwarte hoogspanningskabel tegenover de blauwe lucht/skybox, dan spat de aliasing als-van-ouds zowat van je beeldscherm. Keuzes keuzes.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Nieuwe Drivers: http://www.fudzilla.com/h...eforce-34709-beta-drivers
347.09, vooral voor nieuwe games maar ook bijv. FarCry4. Ik ga es kijken
347.09, vooral voor nieuwe games maar ook bijv. FarCry4. Ik ga es kijken
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ben ik hier de enige die iets wilt posten ofzo 
Nou mijn GTX 670 deed het een stuk slechter met de 347.09 drivers in Far Cry 4. Weer terug naar 344.75 gezet en merkte direct het verschil. Wierd. Misschien had het te maken met dat ik Coop zat te spelen?
Nou mijn GTX 670 deed het een stuk slechter met de 347.09 drivers in Far Cry 4. Weer terug naar 344.75 gezet en merkte direct het verschil. Wierd. Misschien had het te maken met dat ik Coop zat te spelen?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 604128
Niet alle updates zijn ook echt beter, bugs blijven!XanderDrake schreef op maandag 22 december 2014 @ 21:49:
Ben ik hier de enige die iets wilt posten ofzo
Nou mijn GTX 670 deed het een stuk slechter met de 347.09 drivers in Far Cry 4. Weer terug naar 344.75 gezet en merkte direct het verschil. Wierd. Misschien had het te maken met dat ik Coop zat te spelen?
Nieuwe MSI GTX970 100ME editie!
http://videocardz.com/541...00me-and-gtx-970-4gd5t-oc
http://videocardz.com/541...00me-and-gtx-970-4gd5t-oc
Nieuwe nVidia SoC geintroduceerd, eerder bekend onder codenaam Erista: de Tegra X1

Octocore dus, een behoorlijk verschil vergeleken met de dualcore 64bit K1.
Dit is een van de eerste Cortex A57 chipsets, typisch dat nVidia weer voorop loopt daarmee. Qualcomm heeft de Snapdragon 810, maar over de laatste horen we vooral negatieve geruchten.
Het is onduidelijk hoe snel die chipset draait, maar er zit wel een Maxwell-based GPU met 256 shaders aan gekoppeld. De GPU rekenkracht is ongeveer twee keer dat van de K1 en Apple's A8X chipset in de iPad Air 2.
Gaat lekker zo
Dit soort chipsets zouden we in dunne laptops met ChomeOS of Linux en blade-servers moeten stoppen, ik vind ze te snel voor tablets en smartphones. Gezien Maxwell erg lekker gaat in GPGPU termen kan dit een heerlijk rekenmachientje worden!

Octocore dus, een behoorlijk verschil vergeleken met de dualcore 64bit K1.
Dit is een van de eerste Cortex A57 chipsets, typisch dat nVidia weer voorop loopt daarmee. Qualcomm heeft de Snapdragon 810, maar over de laatste horen we vooral negatieve geruchten.
Het is onduidelijk hoe snel die chipset draait, maar er zit wel een Maxwell-based GPU met 256 shaders aan gekoppeld. De GPU rekenkracht is ongeveer twee keer dat van de K1 en Apple's A8X chipset in de iPad Air 2.
Gaat lekker zo
[ Voor 5% gewijzigd door XanderDrake op 05-01-2015 10:54 ]
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Niet een octocore maar eerder twee quadcores, een snelle en een zuinige.
Te snel zijn ze trouwens ook nooit volgens mij, moet nog altijd sneller, te onzuinig voor in een mobiel of tablet eerder.
Te snel zijn ze trouwens ook nooit volgens mij, moet nog altijd sneller, te onzuinig voor in een mobiel of tablet eerder.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Semantiek-The_Mask- schreef op maandag 05 januari 2015 @ 10:59:
Niet een octocore maar eerder twee quadcores, een snelle en een zuinige.
Tja, ik weet niet hoe je direct hier alle potentie uit haalt. Misschien een SteamOS ARM port met Source-based games? On-the-fly multistream 4K transcoding ?Te snel zijn ze trouwens ook nooit volgens mij, moet nog altijd sneller, te onzuinig voor in een mobiel of tablet eerder.
Te onzuinig dus niet. Uit dat artikel van TechCrunch:
But perhaps its most impressive performance improvements over comparable chipsets revolve around energy efficiency: The X1 offers about twice the performance as you increase power draw vs. the K1 architecture, and about 1.7x the performance of the A8X on average for the same power consumption.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik dacht mij toch te kunnen herinneren dat er een fabrikant is die ze ook allemaal tegelijkertijd kon aanspreken.
Maximale verbruik lijkt 10W te zijn, voor gebruik in een tablet of mobiel moet je zoveel knijpen dat er maar weinig snelheid over blijft, dat lijkt mij nogal zonde.
Maximale verbruik lijkt 10W te zijn, voor gebruik in een tablet of mobiel moet je zoveel knijpen dat er maar weinig snelheid over blijft, dat lijkt mij nogal zonde.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Waar is die 10W op gebaseerd vraag ik me af? Lijkt me suf als dat zou zijn in het geval van alle cores volledig belast. Want dan zal het verbruik in de praktijk altijd lager uitvallen.
Ben bang dat dit maximale verbruik dus enkele en alleen met de vier A57 cores volledig belast.
Ben bang dat dit maximale verbruik dus enkele en alleen met de vier A57 cores volledig belast.
Ik vermeldde toch dat het verbruik equivalent is vergeleken met een iPad Air 2. Ik geloof er geen snars van dat die dunne behuizing 10w aan verbruik kan dissiperen.-The_Mask- schreef op maandag 05 januari 2015 @ 11:21:
Maximale verbruik lijkt 10W te zijn, voor gebruik in een tablet of mobiel moet je zoveel knijpen dat er maar weinig snelheid over blijft, dat lijkt mij nogal zonde.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Je vergeet even het grafisch gedeelte?madmaxnl schreef op maandag 05 januari 2015 @ 13:29:
Waar is die 10W op gebaseerd vraag ik me af? Lijkt me suf als dat zou zijn in het geval van alle cores volledig belast. Want dan zal het verbruik in de praktijk altijd lager uitvallen.
Waarom ben je bang dat de 10W zonder A53 core's is? Je wil weten wat het verbruik is met die core's erbij, terwijl dit niet mogelijk is? Wil je dan ook weten wat het verbruik op een dubbel zo hoge kloksnelheid met een dikke spanningsverhoging en een koelblok van een kilo? Ook lekker interessant om te weten.Ben bang dat dit maximale verbruik dus enkele en alleen met de vier A57 cores volledig belast.
Natuurlijk zal het verbruik zonder de A53 core's zijn, aangezien die niet tegelijkertijd belast kunnen worden.
Ik lees dat die een stuk betere performance/watt heeft als de SOC van de iPad Air 2, 1,7 keer zo goed, maar ik zie niet staan dat het verbruik vergelijkbaar zou zijn.XanderDrake schreef op maandag 05 januari 2015 @ 13:41:
[...]
Ik vermeldde toch dat het verbruik equivalent is vergeleken met een iPad Air 2. Ik geloof er geen snars van dat die dunne behuizing 10w aan verbruik kan dissiperen.
Maar ja een beste tablet moet wel kunnen, maar je zal wel moeten knijpen en je hebt ook een redelijk koelvermogen nodig. Smartphone lijkt mij totaal onrealistisch.
[ Voor 5% gewijzigd door -The_Mask- op 05-01-2015 13:48 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Inderdaad, ik denk dat nVidia sinds de flop van Tegra 4i de smartphone boot heeft laten varen.
Opzich jammer, er zijn weinig opties behalve Qualcomm, waardoor smartphones steeds meer op elkaar lijken. Kan je net zo goed een OnePlus One kopen ipv een Samsung S5 niewaar?
Maar de X1 chipset gooit wel veel deuren open. Ik lees dat de quadcore K1 in linux prima kont-schopt in vergelijking met ULV AMD APU's. De drivers voor de Kepler GPU zijn zelfs zo volwassen dat je in Linux gewoon opensource shooters op kan spelen
. En dat op 6 watt!!!
De X1 is weer een volle stap sneller dan de K1, CPU danwel GPU. Wat mij betreft kan deze chipset in een low-end cheapo SteamOS game PC gestopt worden! OK, de meeste spellen draaien dan maar 720p maar dat kost je ook maar €100-150 voor een complete PC.
Opzich jammer, er zijn weinig opties behalve Qualcomm, waardoor smartphones steeds meer op elkaar lijken. Kan je net zo goed een OnePlus One kopen ipv een Samsung S5 niewaar?
Maar de X1 chipset gooit wel veel deuren open. Ik lees dat de quadcore K1 in linux prima kont-schopt in vergelijking met ULV AMD APU's. De drivers voor de Kepler GPU zijn zelfs zo volwassen dat je in Linux gewoon opensource shooters op kan spelen
De X1 is weer een volle stap sneller dan de K1, CPU danwel GPU. Wat mij betreft kan deze chipset in een low-end cheapo SteamOS game PC gestopt worden! OK, de meeste spellen draaien dan maar 720p maar dat kost je ook maar €100-150 voor een complete PC.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Zou de 10W niet "gewoon" een waarde zijn die de powermanagement aan de chip oplegt? De maxwell gpu's blijven pushen met voltage en clocks tot het TDP bereikt wordt. Met cpu's kan dat ook.madmaxnl schreef op maandag 05 januari 2015 @ 13:29:
Waar is die 10W op gebaseerd vraag ik me af? Lijkt me suf als dat zou zijn in het geval van alle cores volledig belast. Want dan zal het verbruik in de praktijk altijd lager uitvallen.
Ben bang dat dit maximale verbruik dus enkele en alleen met de vier A57 cores volledig belast.
Misschien kan een enkele core al een groot deel van de 10W opeten, maar kan hij ook multithreaded op lagere clocks/voltage werken, waardoor je goed presteert in single- en multithreaded, met als nadeel een grote dure chip.
Mechwarrior Online: Flapdrol
Het zou pas vreemd zijn als een SOC gebaseerd op de ARM architectuur het stukken minder zou doen dan één op de tradionele x86 architectuur.XanderDrake schreef op maandag 05 januari 2015 @ 14:05:dat de quadcore K1 in linux prima kont-schopt in vergelijking met ULV AMD APU's.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nochtans worden die twee platformen amper direct met elkaar vergeleken. Je zou de nieuwe 3Dmark kunnen noemen, maar omdat de GPU verschillen tussen x86 en ARM vaak zo groot zijn is het toch appels en peren vergelijken.-The_Mask- schreef op maandag 05 januari 2015 @ 14:15:
[...]
Het zou pas vreemd zijn als een SOC gebaseerd op de ARM architectuur het stukken minder zou doen dan één op de tradionele x86 architectuur.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Nee ik was het grafische gedeelte niet vergeten. Ik heb het alleen niet benoemd. Mijn punt was dat die 10watt best wel veel is als je inderdaad ervan uitgaat dat niet alle core tegelijkertijd belast kunnen worden. Logisch ook want in de praktijk zal dat ook niet kunnen.-The_Mask- schreef op maandag 05 januari 2015 @ 13:46:
[...]
Je vergeet even het grafisch gedeelte?
[...]
Waarom ben je bang dat de 10W zonder A53 core's is? Je wil weten wat het verbruik is met die core's erbij, terwijl dit niet mogelijk is? Wil je dan ook weten wat het verbruik op een dubbel zo hoge kloksnelheid met een dikke spanningsverhoging en een koelblok van een kilo? Ook lekker interessant om te weten.
Natuurlijk zal het verbruik zonder de A53 core's zijn, aangezien die niet tegelijkertijd belast kunnen worden.
Kijkende naar Intel Broadwell, dan vind ik die 10watt absurd hoog eigenlijk.
Dat hangt natuurlijk grotendeels af van de grafische prestaties. (plus dat Broadwell natuurlijk 14nm is)madmaxnl schreef op maandag 05 januari 2015 @ 15:13:
[...]
Kijkende naar Intel Broadwell, dan vind ik die 10watt absurd hoog eigenlijk.
In SoCs meestal wel ja (zie ook mijn reactie op The_Mask hieronder)XanderDrake schreef op maandag 05 januari 2015 @ 11:10:
Semantiekvolgens mij is deze opstelling namelijk altijd BIG.little.
Wat Nvidia hier doet steekt toch net iets anders in elkaar dan de meeste implementaties. Het is natuurlijk nog steeds 4+4 en niet 8 gelijkwaardige cores, maar het is wel anders dan de meeste 4+4 opstellingen. En AMD doet het dan wéér anders met hun dubbele Jaguar.
Overigens snap ik je opmerking in je eerste post niet helemaal; typisch dat Nvidia wéér voorop loopt met A57? Tot K1 hebben ze behoorlijk achter de feiten aangelopen hoor
MediaTek's MT6592 is de enige echte octa-core SoC (voor zover ik me kan herinneren). De rest zijn allemaal 4+4 opstellingen-The_Mask- schreef op maandag 05 januari 2015 @ 11:21:
Ik dacht mij toch te kunnen herinneren dat er een fabrikant is die ze ook allemaal tegelijkertijd kon aanspreken.
14nm is een middel, geen doelspNk schreef op maandag 05 januari 2015 @ 15:28:
[...]
Dat hangt natuurlijk grotendeels af van de grafische prestaties. (plus dat Broadwell natuurlijk 14nm is)
Ik ben benieuwd hoe dynamisch deze Tegra X1 is. Broadwell is wat dat betreft bijzonder dynamisch. De klokfrequenties kunnen alle kanten uitgaan afhankelijk van de situatie (belasting en temperatuur).
De genoemde 10 watt lijkt mij derhalve dan ook geen volledige belasting van de 4 A57 cores en het GPU gedeelte.
[ Voor 8% gewijzigd door madmaxnl op 05-01-2015 15:41 ]
Kijkend naar Broadwell kan je ook zeggen dat boven de 1.6 ghz draaien voor meer dan een seconde amper mogelijk is. Laat staan GPU én CPU tegelijk gebruiken!:madmaxnl schreef op maandag 05 januari 2015 @ 15:13:
Kijkende naar Intel Broadwell, dan vind ik die 10watt absurd hoog eigenlijk.
Ik vind de TDP limieten op die CPU echt ridicuul. Voor een ARM cpu is 10w inderdaad veel, maar vergeet niet wat voor GPU in de X1 zit.Finally, combined CPU and GPU stress wreaks predictable havoc on the machine, with CPU clock rates of around 500-600 MHz and the GPU reaching only around 300 MHz. Yet again, temperatures seem to be unrelated to this performance limitation, resting at around 66 °C. We can finally classify this as throttling, since the CPU consistently remains below its base clock rate of 1100 MHz in this scenario.
Kijk, ik heb geen in in die hele discussie weer over Tegra chipsets, ik erken dat sommige implementaties niet optimaal waren en het verkoop bij de meeste chipsets was ook vaak niet goed.Werelds schreef op maandag 05 januari 2015 @ 15:30:
Overigens snap ik je opmerking in je eerste post niet helemaal; typisch dat Nvidia wéér voorop loopt met A57? Tot K1 hebben ze behoorlijk achter de feiten aangelopen hoor
Maar laten we wel wezen, nVidia had: eerste verkochte Cortex A9 chipset, eerste verkochte ARM quad-core, dat soort dingen. Ze waren vaak aanjagers, zeker in het begin (2009-2010) van ARM performance toestellen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Precies hiervan ben ik op de hoogte, maar is niet perse slecht. Er zijn namelijk situaties waarin dynamische kloksnelheden ervoor zorgen dat je in die specifieke situatie sneller bent, maar andersom niet.XanderDrake schreef op maandag 05 januari 2015 @ 15:46:
[...]
Kijkend naar Broadwell kan je ook zeggen dat boven de 1.6 ghz draaien voor meer dan een seconde amper mogelijk is. Laat staan GPU én CPU tegelijk gebruiken!:
[...]
Ik vind de TDP limieten op die CPU echt ridicuul. Voor een ARM cpu is 10w inderdaad veel, maar vergeet niet wat voor GPU in de X1 zit.
Bijvoorbeeld een game die totaal niet leunt op de CPU, maar de GPU wel volledig op zijn staart trapt. Probleem dat hierbij voornamelijk komt kijken is dat je geen flauw idee hebt waaraan je nu toe bent qua performance.
Bij veel normale games op normale settings verdelen devs de load volgens mij zodat zowel GPU als CPU. Beide zijn namelijk op handen, en elke resource willen ze efficiënt gebruiken. Ik denk niet dat er veel games (minus mobile games) zijn die zich bezighouden met TDP load.madmaxnl schreef op maandag 05 januari 2015 @ 15:51:
Bijvoorbeeld een game die totaal niet leunt op de CPU, maar de GPU wel volledig op zijn staart trapt. Probleem dat hierbij voornamelijk komt kijken is dat je geen flauw idee hebt waaraan je nu toe bent qua performance.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik had het helemaal niet over verkoopcijfers of performance, alleen over je opmerking dat Nvidia voorop gelopen zou hebben.XanderDrake schreef op maandag 05 januari 2015 @ 15:46:
Kijk, ik heb geen in in die hele discussie weer over Tegra chipsets, ik erken dat sommige implementaties niet optimaal waren en het verkoop bij de meeste chipsets was ook vaak niet goed.
Maar laten we wel wezen, nVidia had: eerste verkochte Cortex A9 chipset, eerste verkochte ARM quad-core, dat soort dingen. Ze waren vaak aanjagers, zeker in het begin (2009-2010) van ARM performance toestellen.
Eerste Cortex-A9? TI's OMAP4 en Samsung's Exynos 4 zijn ook allebei begin 2010 aangekondigd en alle 3 kwamen ze in 2011 pas echt op de markt (zelfde geldt voor A15). Nvidia moest ook wel naar A9, aangezien de rest al op A8 zat en Tegra 1 nog met ARM11 rommelde. Qualcomm's Scorpion was toen al lang op de markt en laat de A9 nu akelig veel op dat ding lijken. Nee, het was Qualcomm's Scorpion die toen de toon aangaf qua CPU in SoCs.
En qua GPU was dat IT. En die krijgen nu wel vooral van Nvidia echt concurrentie. Qualcomm doet het niet slecht, maar Nvidia zijn degenen die IT het hardst vooruit drijven dankzij K1. De GPU in Tegra 2-4 was niet bijster indrukwekkend. Presteerde wel gewoon op niveau, maar was niet bijster efficiënt en dat kwam vooral doordat het eigenlijk een verouderd ontwerp was. Zowel PowerVR als Adreno zaten al veel langer een stuk dichter bij "grote" GPU's qua ontwerp.
Wel zijn zij de core-race gestart (of dat een goede zaak is laat ik even in het midden
X1 daarentegen lijkt IT nu toch echt te gaan dwingen tot een grote sprong. Ik ben benieuwd als het ding eindelijk eens op de markt komt, want dat gaat nog wel een jaartje duren. Het aantal K1 apparaten kun je ook nog steeds op 1 hand tellen..Nexus 9, Shield, MiPad en een Chromebook schieten me te binnen - verder kom ik even niet. Tegen die tijd heeft Apple weer een nieuwe chip in de markt gezet en ik zou er niet van staan te kijken als daar een PowerVR 7 in zit - waar we nog vrijwel niets van weten, behalve dat IT hem aangekondigd heeft. Het is op mobiel gebied wel spannender dan op desktop gebied momenteel
Het maakt mij geen kont uit hoe het gaat presteren (kijkend naar 970/980). Maar een 128 bit membus kan mijn inziens echt niet in dit segment van de markt.
Grote kans dat hij als mid-range kaart zijnde prima zal gaan presterenZeara schreef op maandag 05 januari 2015 @ 21:34:
Het maakt mij geen kont uit hoe het gaat presteren (kijkend naar 970/980). Maar een 128 bit membus kan mijn inziens echt niet in dit segment van de markt.
De prestaties en de prijs zullen bepalen of 128 bit kan of niet.Zeara schreef op maandag 05 januari 2015 @ 21:34:
Het maakt mij geen kont uit hoe het gaat presteren (kijkend naar 970/980). Maar een 128 bit membus kan mijn inziens echt niet in dit segment van de markt.
Maar het voelt karig ja.
Mechwarrior Online: Flapdrol
Ik denk ook niet dat ie slecht gaat presteren, en het hangt ook zeker van de prijs af. Maar het voelt gewoon inderdaad nogal karig aan. Ook de 2 GB, maar daar kan ik nog mee leven.
Het is ook puur een gevoelskwestie
Beetje tussen weg zou voor mij nog zijn met 192 + 3 GB (als dat uberhaupt mogelijk is).
Het is ook puur een gevoelskwestie
memory bus snelheid zegt echt helemaal niets.Zeara schreef op maandag 05 januari 2015 @ 21:34:
Het maakt mij geen kont uit hoe het gaat presteren (kijkend naar 970/980). Maar een 128 bit membus kan mijn inziens echt niet in dit segment van de markt.
Je ziet zo vaak voorbij komen dat de memory bus niet genoeg zou zijn bij kaart X, maar toch is de performance vaak prima.
Nvidia heeft al vaker bewezen geen giga dikke memory bus nodig te hebben.
Zowel AMD als NV hebben nieuwe compressie algoritmes voor textures in het geheugen ontwikkeld. Die zorgen ervoor dat er minder bandbreedte nodig is. Dus je kan van te voren niet zeggen of die 128bit te weinig zullen zijn.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Hmm, de Tegra X1 is trouwens een 20nm chip. Heb ik iets gemist? Ik dacht dat die node een probleem was.
Verder alle benchmarks van de X1 dev-board die je mogelijk zou willen.
Verder alle benchmarks van de X1 dev-board die je mogelijk zou willen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Er bestaat alleen een 20nm SOC process bij TSMC voor grote en meer verbruikende chips is FinFET nodig (zelfde probleem heeft GloFo ook overigens) De Apple A8 chip die je vindt in de iPhone 6 en 6 Plus is ook een 20nm chip van TSMC.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat klopt ze besparen daarmee zo'n ~25%.XanderDrake schreef op dinsdag 06 januari 2015 @ 07:46:
Zowel AMD als NV hebben nieuwe compressie algoritmes voor textures in het geheugen ontwikkeld. Die zorgen ervoor dat er minder bandbreedte nodig is. Dus je kan van te voren niet zeggen of die 128bit te weinig zullen zijn.
http://images.anandtech.com/doci/8526/BandwidthSavings.png
Dat lijkt mij alleen niet genoeg om een kaart op het niveau van een GTX960 te voorzien van data. Hierbij ga ik er van uit dat de performance verhouding tussen een 60 en 70/80 serie vergelijkbaar zijn met de huidige.
De kaart zal wellicht 1080p goed af kunnen spelen zolang je de anti-aliasing maar uit laat.
Wat ik hiermee probeer te zeggen, waar het vroeger interessant was om 2 midend kaarten te pakken en die in SLI te zetten lijkt mij dat nu geen goede optie doordat je door je bandbreedte limitatie toch geen hogere resoluties/AA kan gebruiken.
Indien ze GDDR5 gebruiken dan zal de geheugen snelheid tussen de 6ghz en 7ghz liggen. Dus dan is het dus tussen de 96GB/sec en 112GB/sec. Doen we dat voor het gemak even keer 1.3 omdat ze delta color compression gebruiken en dan kom je uit op 125GB/sec en 146GB/sec. Dat vind ik niet bepaald veel ten op zichte van de 192GB/sec die de GTX760 heeft, terwijl de kaart toch sneller zou moeten zijn.
http://www.fudzilla.com/n...1-20nm-gpus-not-happening
Maar wat nu? Het lijkt me dat Q1 2015 niet echt een moment is voor 16nm/14nm high-end GPU's. Kunnen we in de zomer iets nieuws verwachten?
Het is toch altijd wat met TSMC's node-shrinks. nVidia heeft wel een geniale keuze gemaakt door de GTX 900 serie nog uit te brengen op 28nm. De AMD R9 290 serie ziet er ondertussen vrij oud uit met zijn eind 2013 release date.From what we know AMD and Nvidia won’t be releasing 20nm GPUs ever, as the yields are so bad that it would not make any sense to manufacture them. It is not economically viable to replace 28nm production with 20nm.
Maar wat nu? Het lijkt me dat Q1 2015 niet echt een moment is voor 16nm/14nm high-end GPU's. Kunnen we in de zomer iets nieuws verwachten?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik lees hier en daar issue met GX970 over Vram dat tegen 3.6GB loopt (terwijl maximum 4GB is).
Als het toch erover gaat dan merken mensen dat performance ook minder goed word, schokkerig,...
Wat zijn jullie ervaringen?
Als het toch erover gaat dan merken mensen dat performance ook minder goed word, schokkerig,...
Wat zijn jullie ervaringen?
Loopt smooth hier en heb er zeker 10+ games mee gespeeld - ook de online simracer Assetto Corsaroyalt123 schreef op dinsdag 13 januari 2015 @ 16:04:
Ik lees hier en daar issue met GX970 over Vram dat tegen 3.6GB loopt (terwijl maximum 4GB is).
Als het toch erover gaat dan merken mensen dat performance ook minder goed word, schokkerig,...
Wat zijn jullie ervaringen?
Het loopt zeker wel smooth met die gtx970
maar vroeg me af of jullie ook is opgevallen dat vram altijd tot 3.6 gaat ongeveer in plaats 4GB
calsonic schreef op dinsdag 13 januari 2015 @ 16:12:
[...]
Loopt smooth hier en heb er zeker 10+ games mee gespeeld - ook de online simracer Assetto Corsa
De nVidia 16nm GPUs komen pas begin 2016...
Source? Dit lijkt me heel sterk namelijk, ik las ergens anders dat nVidia rond de start de ontwikkeling van de GM204 begon met de voorbereiding voor de overstap naar 16nm.Domokoen schreef op dinsdag 13 januari 2015 @ 16:33:
De nVidia 16nm GPUs komen pas begin 2016...
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
16nm is gewoon pas begin 2016 klaar, zie bijvoorbeeld: http://fudzilla.com/news/...20nm-node-broken-for-gpus
Ik lees ook dit: TSMC plans to start volume production of chips using 16nm FinFET process technology in late Q2 or early Q3, 2015.Domokoen schreef op dinsdag 13 januari 2015 @ 16:57:
16nm is gewoon pas begin 2016 klaar, zie bijvoorbeeld: http://fudzilla.com/news/...20nm-node-broken-for-gpus
http://www.kitguru.net/co...16nm-finfet-are-on-track/
Ze zeggen dan Samsung al zo goed als klaar is met 14nm Finfet bij GloFo.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
je bent niet de enige oops dat wist je dus al, moet beter leren lezenroyalt123 schreef op dinsdag 13 januari 2015 @ 16:20:
Het loopt zeker wel smooth met die gtx970maar vroeg me af of jullie ook is opgevallen dat vram altijd tot 3.6 gaat ongeveer in plaats 4GB
[...]
moet het bij mezelf nog testen
[ Voor 6% gewijzigd door Gmount op 13-01-2015 17:29 ]
1900Km/L! || i7 6700K @ 4,6 GHz | NZXT Kraken X61 | MSI GTX 970 @ 1,48 GHz | 8 GB DDR4| Bitfenix Aegis yellow
gtx960 benchmarks
http://videocardz.com/542...ns-and-performance-leaked
http://videocardz.com/542...ns-and-performance-leaked
Er zijn inderdaad meer mensen met het probleem het volgende is wel een interessant topic daarover:Gmount schreef op dinsdag 13 januari 2015 @ 17:27:
[...]
je bent niet de enige oops dat wist je dus al, moet beter leren lezen
moet het bij mezelf nog testen
http://forums.guru3d.com/...4204f4e45&t=396064&page=5
Veel van de posters in dat topic hebben maar 8GB geheugen, ze vinden het raar dat ze een CTD hebben als ze geen swapfile hebben
Niet super gerelateerd maar toch interessant:
http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980
Heeft te maken met het feit dat de GTX970 minder SMs (Streaming Multiprocessors) heeft.
Als die scores kloppen dan ben ik nog niet echt onder de indruk. Met een 200mhz OC komt hij in Firestrike maar net voorbij de GTX770 en R9 280x. Denk dat dit op hogere resoluties niet beter zal worden...
[ Voor 16% gewijzigd door Sp3ci3s8472 op 14-01-2015 13:47 . Reden: benchmark ]
NVIDIA GeForce GTX 960 confirmed specifications and launch date
http://videocardz.com/543...fications-and-launch-date
http://videocardz.com/543...fications-and-launch-date
Dat zal toch geheel aan de prijs liggen, rond de 180-200 euro (en daar lijkt het op met een prijs van 200 dollar) kan het een aardig alternatief zijn.Sp3ci3s8472 schreef op woensdag 14 januari 2015 @ 13:34:
Als die scores kloppen dan ben ik nog niet echt onder de indruk. Met een 200mhz OC komt hij in Firestrike maar net voorbij de GTX770 en R9 280x. Denk dat dit op hogere resoluties niet beter zal worden...
Het is een halve GTX 980 dus als je de helft van de performance van een GTX 980 neemt heb je precies een GTX 960, uitgaande van dezelfde kloksnelheid en geen CPU bottleneck.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De chip is, mede door zijn kleine geheugenbus, weinig shaders en de hoge maturiteit van 28nm, waarschijnlijk goedkoop te produceren. €180 een maand na release lijkt me mogelijk.mitsumark schreef op donderdag 15 januari 2015 @ 13:25:
[...]
Dat zal toch geheel aan de prijs liggen, rond de 180-200 euro (en daar lijkt het op met een prijs van 200 dollar) kan het een aardig alternatief zijn.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
180 euro moet idd gewoon kunnen, duurder kan eigenlijk ook niet, dan is die gewoon te duur.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nvidia claimt zelf een gemiddelde van 2X GTX660 performance.
Als ik dat zo vergelijk met Anandtech's bench, dan kom ik op meer dan speelbare getallen uit op alle 1080p benchmarks.
http://www.techpowerup.co...-960-specs-confirmed.html
Watch_Dogs
Tomb Raider
BF4: 37FPS voor een GTX660, dus 74FPS voor de GTX960, 78.3FPS voor de GTX 970.
Thief 32FPS voor een GTX660, dus 64 voor de GTX960, 73FPS voor de GTX 970
Civilization
AC: Unity
Hitman Absolution: 36FPS voor de GTX660, dus 72FPS voor de GTX960
Overall dus zeer nette scores, zolang Nvidia niet keihard liegt op interne slides.
Als ik dat zo vergelijk met Anandtech's bench, dan kom ik op meer dan speelbare getallen uit op alle 1080p benchmarks.
http://www.techpowerup.co...-960-specs-confirmed.html
Watch_Dogs
Tomb Raider
BF4: 37FPS voor een GTX660, dus 74FPS voor de GTX960, 78.3FPS voor de GTX 970.
Thief 32FPS voor een GTX660, dus 64 voor de GTX960, 73FPS voor de GTX 970
Civilization
AC: Unity
Hitman Absolution: 36FPS voor de GTX660, dus 72FPS voor de GTX960
Overall dus zeer nette scores, zolang Nvidia niet keihard liegt op interne slides.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Dit topic is gesloten.