PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Deze is ook wel leuk:

Assassins Creed DX10.1 anyone? Tesselation van water onder de map anyone? Ja hele goede adoption.
Deze is ook wel leuk:

Omzet zegt niks over hoe winst gevend iets is, maar goed. Je hoort developers niet voor niets klagen over piraterij op de PC. Omzet zegt alleen hoe groot iets is. Ja PC gaming is groot, maar dat krijg je als je alle webbased games ook mee gaat tellen en games die gratis zijn met microtransacties voor meer opties en mogelijkheden. Wat hier waarschijnlijk ook niet in is meegenomen is dat er best wel veel Xbox Live gebruikers zijn die per jaar z'n 60 dollaaaa neer tikken om online te kunnen gamen. Ze geven in mijn ogen dus een vertekend beeld dat in hun voordeel werkt.
Volgens mij zijn de boys bij nVidia hartstikke gefrustreerd dat ze geen enkele console design win hebben en nu zogenaamd de engel van PC gaming uit gaan hangen. Terwijl ze met hun shit als PhysX, tesselation onder de map, AC DX10.1 en nog wel wat naai streken dat in mijn ogen zeker niet zijn. Zelfs als je een nVidia kaart hebt zijn het naai streken. Want ook zij hebben helemaal geen fluit aan tesselation onder de map of het feit dat ze bewust DX10.1 voor AC hebben geblokkeerd met hun invloed.
Enfin, mensen zullen het allemaal wel weer voor zoete koek slikken, maar ik maak me weinig zorgen omdat AMD mooi alle consoles in da pocket heeft wat ook zijn weerslag op PC gaming zal hebben (betere optimalisatie voor AMD hardware).
Het is (natuurlijk ?) duidelijk dat al deze sheets een laag PR glazuur eroverheen hebben waar je bijna bang van wordt.
Nu heb ik momenteel een superevaring met nvidia SLI en ook de drivers bevallen met top. Echter ik zit net als jij helemaal niet te wachten op die proprietary zooi en streken van nVidia.

Ben iig erg benieuwd hoe de e.e.a. de komende jaren gaat lopen nu AMD in alle console's zit.
[ Voor 13% gewijzigd door Help!!!! op 12-06-2013 13:49 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verder weet ik niet hoe groot de verschillen zullen zijn om de GPU te hebben ontworpen van de nieuwe consoles. Er zit nogal een reusachtig verschil tussen specifieke hardware aansturen, en via allemaal software laagjes een framework aansturen dat voor alle soorten hardware wordt gemaakt AKA de pc situatie.
[ Voor 11% gewijzigd door Paprika op 12-06-2013 13:58 ]
Dat zou ik niet zeggen. Het geeft aan hoe nVidia denkt invloed te houden in de graphicsmarkt.Paprika schreef op woensdag 12 juni 2013 @ 13:58:
Niks nieuws te melden dus. Gewoon een nutteloze presentatie, waarvan er al zoveel zijn, van zowaar alle bedrijven.
Zoals altijd moet je tussen de regels door lezen.
Het ligt denk ik niet meteen voor de hand om funtionaliteit die niet in de hardware zit (bijv. nvidia proprietary functionaliteit) er via software alsnog proberen in te bouwen.Verder weet ik niet hoe groot de verschillen zullen zijn om de GPU te hebben ontworpen van de nieuwe consoles. Er zit nogal een reusachtig verschil tussen specifieke hardware aansturen, en via allemaal software laagjes een framework aansturen dat voor alle soorten hardware wordt gemaakt AKA de pc situatie.
Denk dat de invloed best groot is.
Daarnaast heeft AMD hierdoor als het goed is een hechtere band met de developers en dat zou ook positief moeten werken.
[ Voor 75% gewijzigd door Help!!!! op 12-06-2013 15:38 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
momenteel gebruik ik nu de Asus GTX 680 Direct CUII TOP kaart voor 1920x1080 .
Later wil ik wel misschien voor een GTX 770 lightning gaan vanwege nieuwe generatie games.
Nu is mijn vraag: Ongeveer hoeveel % gaat het verschillen met prestaties of FPS.?
gtx 680 top vs gtx 770 lightning?
pc specs: i7 3960X , 8gb 1600 DDR3 , 700 WATT coolermaster silent pro gold. enz...
edit: Is 700 watt coolermaster silent pro gold genoeg voor de 770 lightning?
Club 3D gaat zich exclusief op AMD gebaseerde videokaarten richten
Even kijken, het rijtje zoals ik het me herinner:BFG was nVidia only en is volledig gestopt met het maken, rage quit

XFX was nVidia only en is overgestapt naar de 'light side' omdat daar wel liefde is

Club 3D heeft ook schoon genoeg van de 'dark side' en wil ook wat meer liefde

Wat een beetje meer liefde allemaal al niet kan doen
@MW1F
Dat gebeurt nagenoeg altijd dat men alleen de resultaten die in hun eigen straatje passen worden medegedeeld.
[ Voor 79% gewijzigd door madmaxnl op 12-06-2013 22:12 ]
Verwijderd
Je moet voor de grap eens de lettertjes eronder proberen te lezen... :madmaxnl schreef op woensdag 12 juni 2013 @ 13:37:
Deze is ook wel leuk:
[afbeelding]
Assassins Creed DX10.1 anyone? Tesselation van water onder de map anyone? Ja hele goede adoption.
7970 Ghz vs. GTX680 Based on independent hardware ... at 1080p, Far Cry 3 by Guru3d, Crysis 3 tested by Tech Spot, Tomb Raider tested bij HardOCP, Bioshock Infinite tested by PC Games Hardware.
Oftewel, een bij elkaar geraapt zooitje waar elke keer de beste Nvidia uitslag wordt gekozen... Tja....

Verwijderd
Ik ken de cijfers natuurlijk niet, maar je moet je ook afvragen of XFX van deze stap veel beter is geworden. Ze zullen absoluut hun redenen hebben gehad, maar het wil natuurlijk niet gelijk zeggen dat de zaken nu veeeeel beter voor ze gaan. Denk eerlijk gezegd dat hun marktaandeel wel is geslonken i.v.t. hun Nvidia tijd. Wellicht hebben ze meer marge op AMD kaarten (ken wederom de cijfers niet), maar wil maar zeggen dan zo'n overstap niet gelijk het walhalla is voor een fabrikant.madmaxnl schreef op woensdag 12 juni 2013 @ 20:59:
XFX was nVidia only en is overgestapt naar de 'light side' omdat daar wel liefde is
Van Club3d zat het er trouwens ook wel een beetje aan te komen. Hun Royal Queen / King kaarten waren al veel bekender onder de AMD kaarten en er is bijv. alleen een GTX660 (ti) met een after market koeler van Club3d welke nauwelijks te krijgen zijn, rest is alleen reference. Bij AMD zijn het juist de after market koeler modellen welke juist zeer goed vertegenwoordigt zijn.
Ik denk dat het voor Club3d op de een of andere manier te moeilijk is om bij Nvidia kaarten een goede voet tussen de deur te krijgen met hun Royal Queen/King koelers. En van alleen reference modellen zullen ze wel niet genoeg verdienen. Verder zullen er wellicht andere zaken spelen die dit soort keuzes bepalen.
Jammer genoeg zijn we niet zo idealistisch en verkopen we letterlijk en figuurlijk onze ziel aan de duivel en we gaan er straks niet onder uitkomen met smoesje van 'ja maar iedereen deed het' of 'wat moesten we dan doen, zelf erop achteruit gaan tot aan de afgrond aan toe'.
Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet. Zeker als we de slides van eerder van vandaag erbij nemen waaruit blijkt dat nVidia meer dan 60% van de videokaarten markt heeft. Als je vervolgens al twee dochterondernemingen hebt die AMD only zijn dan is het all helemaal niet te rijmen met elkaar.
Begin geen bedrijf, zou ik zeggen. Club3D doet om er beter van te worden en anders krijgen ze klachten van aandeelhouders, zoals bij elk bedrijf. Het is geen spirituele organisatie die kan blijven bestaan op basis van donaties of zo. En Nvidia "letterlijk de duivel" noemen is ook wat overkill... Ook al ben ik ook bepaald geen fan van PhysX e.d.madmaxnl schreef op woensdag 12 juni 2013 @ 22:51:
Of je er beter of slechter van wordt doet er in mijn persoonlijke optiek totaal niet toe. Als je geen zaken met een partij wil doen omdat je hun filosofie en werkwijzen niet aanstaat moet je gewoon geen zaken met ze doen.
...
Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet.
Op ethisch gebied denk je niet erg pragmatisch, om het maar zwak uit te drukken...Net zoals dat Nederland eigenlijk geen zaken zou moeten doen met Rusland, China en de VS.
Heeft geen speciale krachten en is daar erg boos over.
bwerg schreef op woensdag 12 juni 2013 @ 23:40:
En Nvidia "letterlijk de duivel" noemen is ook wat overkill...
Haha nee, met de ziel aan de duivel verkopen doelde ik op Nederland m.b.t. Amerika, Rusland en China
[ Voor 4% gewijzigd door madmaxnl op 12-06-2013 23:57 ]
Verwijderd
Tja, daar heb je als bedrijf niks aan, er moet geld verdient worden, links om of rechts om. Als dat niet (gegoeg) gebeurd heb je gewoon een probleem. Natuurlijk kijk je naar filosofie en werkwijze, maar in de wereld van gpu's is er nou niet veel te kiezen, dus men zal echt niet een beslissing maken puur op die gronden, want dan ben je gezien.madmaxnl schreef op woensdag 12 juni 2013 @ 22:51:
Of je er beter of slechter van wordt doet er in mijn persoonlijke optiek totaal niet toe. Als je geen zaken met een partij wil doen omdat je hun filosofie en werkwijzen niet aanstaat moet je gewoon geen zaken met ze doen. Net zoals dat Nederland eigenlijk geen zaken zou moeten doen met Rusland, China en de VS. Ja we gaan er op achteruit, maar je weet wel dat je dan niet bijdraagt aan iets slechts waar je zelf schijnbaar beter van wordt.
Vind verder je vergelijk in voorbeelden tot Nvidia niet helemaal rijmen... Misschien is in jouw ogen Nvidia het 'as van het kwaad', maar zo erg zal het ook weer niet zijn.
Het zal echt niet alleen om vertrouwen gaan, want als de prognoses zouden uitwijzen dat ze er financieel echt flink op achteruit gaan, zal geen enkel bedrijf dat op basis van profit werkt zo'n beslissing maken.Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet.
[ Voor 13% gewijzigd door Verwijderd op 13-06-2013 00:08 ]
Als producten gewild zijn dan willen de partners zoveel mogelijk GPUs van Nvidia vooral bij nieuwe releases.
De grote bedrijven zoals Asus, MSI en waarschijnlijk nog wel meer zullen in de pikorde allemaal boven Club3D staan en zullen dus meer krijgen. De grotere bedrijven zullen waarschijnlijk ook de GPUs goedkoper krijgen.
Waarschijnlijk zag Club3D geen kans op verbetering in hun positie en denken ze dat ze bij ATI hoger in de pikorde kunnen komen als ze exclusief ATI gaan verkopen.
Dat is het enige wat ik kan bedenken. Want een bedrijf zoals Club3D gaat echt niet zo maar stoppen met een vrij groot deel van hun aanbod.
Anderzijds, ze hebben al twee dochterondernemingen die AMD only zijn. Dus ze hadden met Club3D dan beter nVidia only kunnen gaan. Dan zit je waarschijnlijk in de zogenoemde pikorde wel boven Asus, Gigabyte en MSI, denk ik.
Sapphire en Zotac zijn beiden dochterondernemingen van PC Partner en ze zijn beiden respectievelijk AMD en nVidia only. Dit laatste heeft wel enkel en alleen betrekking op het uitbrengen van videokaarten. Zotac brengt namelijk ook AMD APU systeempjes op de markt v.z.i.w. en Sapphire is wat dat betreft ook niet volledig loyaal aan AMD. Die brengen namelijk ook Intel moederborden uit. Ik weet niet hoe AMD en nVidia dergelijke partners waarderen. Hiermee bedoel ik dus een moederbedrijf waarbij ze dus ook producten van de tegenpartij uitbrengt onder een, of een andere dochteronderneming. Of in het specifieke geval van Sapphire en Zotac, zelfs producten voor concurrerende partijen op de markt brengt.
Ik vraag me trouwens af wanneer we Asrock gaan zien als videokaartenboer, dat zouden ze volgens mij best wel goed kunnen. Zeker als ik kijk naar de goede prijs kwaliteit moederborden die ze uitbrengen waarbij ze het high-end segment tegenwoordig niet meer mijden.
Begrijp me niet verkeerd, nVidia is heus niet als het kwaad der kwaad, maar ik zie ze liever gaan dan komen.Verwijderd schreef op donderdag 13 juni 2013 @ 00:05:
Vind verder je vergelijk in voorbeelden tot Nvidia niet helemaal rijmen... Misschien is in jouw ogen Nvidia het 'as van het kwaad', maar zo erg zal het ook weer niet zijn.
[ Voor 37% gewijzigd door madmaxnl op 13-06-2013 00:51 ]
Verwijderd
Zelfs al zou Club3D Nvidia only gegaan zijn dan zouden ze nog steeds niet boven die bedrijven komen te staan in de pikorde.madmaxnl schreef op donderdag 13 juni 2013 @ 00:43:
Dit zou nog wel eens de beste onderbouwing van hun beweegredenen kunnen zijn. Als je met de nVidia AIBs onderling niet meer kunt concurreren door de door jou geschetste situatie dan is het niet meer dan logisch om naar het AMD kamp te verkassen.
Anderzijds, ze hebben al twee dochterondernemingen die AMD only zijn. Dus ze hadden met Club3D dan beter nVidia only kunnen gaan. Dan zit je waarschijnlijk in de zogenoemde pikorde wel boven Asus, Gigabyte en MSI, denk ik.
Daarvoor zijn Asus, MSI en Gigabyte te groot.
Club3D is gewoon een leuke kleine fabrikant maar kan niet leveren wat de grote jongens leveren en heeft ook niet de naam.
[ Voor 7% gewijzigd door Deadsy op 13-06-2013 03:04 ]

madmaxnl in 'nieuws: The Witcher 3: Wild Hunt gaat gpu-PhysX ondersteunen'
[ Voor 33% gewijzigd door madmaxnl op 13-06-2013 16:37 ]
Volgens mij is dit het nvidia nieuws topic en niet het rant topic. Iets te weinig nieuws, iets teveel mening (naar mijn mening
Natuurlijk krijgt een dev een zak met geld als zij PhysX gaan gebruiken.
Dat is niet anders dan de "runs best on AMD/Nvidia" schermen in games. (of intel integrated in grid2
Of dacht je soms dat hier geen geld mee gemoeid was?
Zolang er geen bullshit proprietary tech gepushed wordt, stoort het me een stuk minder.unfor schreef op donderdag 13 juni 2013 @ 18:14:
[...]
Natuurlijk krijgt een dev een zak met geld als zij PhysX gaan gebruiken.
Dat is niet anders dan de "runs best on AMD/Nvidia" schermen in games. (of intel integrated in grid2)
Of dacht je soms dat hier geen geld mee gemoeid was?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hopelijk gaan we dit drastisch minder zien, nu beide consoles op AMD draaien. Kom op AMD, push Havok eens met hun GPGPU integratie, dan zal Nvidia wel mee moeten en hun OpenCL/DirectCompute performance fixen
http://videocardz.com/429...-be-released-on-june-25th
Verwijderd
En dan twee keer zoveel voor je AMD kaart betalen?madmaxnl schreef op donderdag 13 juni 2013 @ 00:43:
Begrijp me niet verkeerd, nVidia is heus niet als het kwaad der kwaad, maar ik zie ze liever gaan dan komen.
Havok FX is dood omdat Intel het destijds heeft overgenomen. Niet geheel onlogisch dat Intel Havok FX heeft begraven. Immers zoude ze AMD en nVidia in de hand hebben gespeeld als ze i.p.v. CPU berekende Havok physics engine overgaan op Havok FX (Havok physics engine met GPGPU ondersteuning). Intel zag de bui destijds hangen en heeft het zaakje niet voor niets overgenomen. Ze weten namelijk dat zij veel sterker zijn met CPUs en willen dan dus ook dat physics engines hier op leunen i.p.v. GPUs waar ze nog altijd niks hebben in te brengen. Havok is een van de meest gebruikte physics engines en i.t.t. PhysX van nVidia betalen uitgevers voor het gebruik van deze physics engine wel (kwaliteit en meerwaarden denk ik).Werelds schreef op donderdag 13 juni 2013 @ 19:14:
Precies
Hopelijk gaan we dit drastisch minder zien, nu beide consoles op AMD draaien. Kom op AMD, push Havok eens met hun GPGPU integratie, dan zal Nvidia wel mee moeten en hun OpenCL/DirectCompute performance fixen
Er zijn nog anderen die ook werken aan GPGPU berekende physics, maar dat zijn kleine partijen vergeleken bij Havok. Als Havok zelfstandig was gebleven hadden we denk ik nu al wel een fatsoenlijke physics engine gehad die voor zowel AMD als nVidia had gewerkt en dan was iedereen happy.
"Both NVIDIA and ATI have previewed CrossFire and SLI Physics, however, neither company has delivered any actual physics hardware yet. It’s pretty interesting to note that both ATI and NVIDIA’s physics solutions rely on Havok FX. However, it is unlikely that Intel’s acquisition of Havok will affect Havok’s partnership with either AMD or NVIDIA."
“Havok will operate its business as usual, which will allow them to continue developing products that are offered across all platforms in the industry,” said Renee J. James regarding the future of Havok."
Hiervan wisten we toen en nu dat het BS is: nieuws: AMD: 'Voorlopig geen physics op de gpu'
nVidia dacht toen waarschijnlijk van: 'flikker maar op wij doen het zelf wel en we kopen Ageia'. Admirable, but mistaken.
Daarnaast zie ik dat men met GPGPU physics te veel wil. Ze laten meteen extreme berekeningen los onder het mom omdat het kan. Ja het wordt er realistischer door, maar qua performance impact is het niet om over naar huis te schrijven. Terwijl ze in mijn ogen juist wat gematigdere physics berekeningen die dus ook op een CPU kunnen lopen eerst maar eens zouden moeten overzetten naar de GPGPU. Dan win je namelijk aan performance. Nu is het namelijk zo dat je er op performance achteruit gaat en de effecten overdone zijn (uitermate realistisch).
Enfin, misschien dat HSA uiteindelijk wel wat moois kan gaan opleveren. APU plus een losse videokaart waarbij de APU, dus de interne GPU en CPU, de physics voor hun rekening nemen. Probleem hiermee is dat het dan dus niet op Intel werkt en dus veel draagvlak mist, zelfde probleem als met PhysX alleen dan nog groter.
[ Voor 48% gewijzigd door madmaxnl op 13-06-2013 20:38 ]
Verwijderd
Nope. Het is heel lang stil geweest, maar dat had andere redenen. We gaan het binnenkort in games zienmadmaxnl schreef op donderdag 13 juni 2013 @ 20:04:
Havok FX is dood omdat Intel het destijds heeft overgenomen. Niet geheel onlogisch dat Intel Havok FX heeft begraven.
PS4 launch event: YouTube: Playstation 4 Graphics and Physics Demonstration HD - The power of playstation 4
Havok + GPU. En Watch_Dogs bijvoorbeeld heeft o.a. simulated cloth dat via Havok deels op de GPU loopt. Daar zit ook meteen de clou: deels. In tegenstelling tot Nvidia, wil Havok helemaal niet alles op de GPU rammen. Sommige dingen lopen gewoon net zo goed, of beter, op de CPU.
We gaan het wel zien met de PC versie van Watch Dogs. Als dezelfde physics engine daar in zit, met dezelfde GPGPU mogelijkheden (dus niet uitgeschakeld of ongebruikt), dan is er nog een sprankje hoop voor Havok FX
Beide nieuwe consoles zijn gewoon een dubbele Jaguar met een GCN 1.0 based GPU; de Xbox One is een grote grap (Microsoft gaat voor de volle harakiri met al hun onzin

Het is tegenwoordig dan wel een dochter van Intel, maar ze zitten gewoon nog steeds in Ierland. Ze draaien ook nog steeds zelfstandig verder, ze hebben vorig jaar (of 2011? even niet zeker) ook niet voor niets Trinigy over genomen.
Verwijderd
http://gadgets.ndtv.com/g...x-and-apex-support-340963
Vandaar dat The witcher 3 ook physx heeft?
En het artikel van tweakers klopt ook niet helemaal want CPU physx werk al heel lang voor veel gamen.
Dus de naam "nvidia gpu physx only" die klopt niet helemaal in dat artikel.
[ Voor 31% gewijzigd door Verwijderd op 15-06-2013 11:07 ]
Doen de PS3 en Xbox 360 ook. Alles ondersteunt CPU PhysX.Verwijderd schreef op zaterdag 15 juni 2013 @ 11:04:
Ik meende dat de PS4 CPU physx ging ondersteunen.
http://gadgets.ndtv.com/g...x-and-apex-support-340963
Vandaar dat The witcher 3 ook physx heeft?
Klopt wel, want veel van de features in PhysX worden ofwel geblokkeerd als je geen Nvidia GPU hebt of ze lopen als dikke stront door een trechter op de CPU. Dus ja, het "werkt" misschien wel, maar het werkt niet.En het artikel van tweakers klopt ook niet helemaal want CPU physx werk al heel lang voor veel gamen.
Dus de naam "nvidia gpu physx only" die klopt niet helemaal in dat artikel.
Alles in Apex kun je vergeten, dat loopt niet - dat is o.a. cloth en die vacht. En dat is nergens voor nodig, Havok kan het wel.
Verwijderd
Let maar op als straks deze game uit gaat komen met cpu physx.op de console.
Hier een goed voorbeeld van cpu physx.

[ Voor 36% gewijzigd door Verwijderd op 15-06-2013 11:35 ]
Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen. En dan heb je het over games die al lang en breed uit zijn (Crysis kwam in maart uit). Ik vind daarom mijn GTX780 een goede investering... met meer en betere PC-ports aan de horizon door vergelijkbare architectuur. In de toekomst speel ik BF4 lekker achter m'n bureau en kan ik dankzij het geniale Steam Big Picture Mode, een HDMI-kabeltje en een Xbox controller games als MGS5 en Dark Souls II vanaf m'n bank spelen.
Het is overigens ook geen verrassing meer, maar sommige (of alle?) XBone games op de E3 draaien op een GTX7xx:
http://www.cinemablend.co...idia-GTX-Cards-56737.html
Verwijderd
1 niet 100% klot en 2 daar door flames/trolls uitlokken en daar door de boel voor de rest hier vern**ken.
Verder vind ik physx wat alleen op nvidia werkt ook niet eerlijk en ben daar helemaal niet voor. Maar vertel dan wel dat het strak ook meer over de cpu gaat werken in games en dat dat gewoon goed kan werken
over de cpu want dat doet het al. In het verleden werkte het wel brak op de cpu maar dan was het daar ook niet voor geoptimaliseerd omdat nvidia dat wilde tegen werken en omdat het hacks zijn van de gpu.
Maar nu ziet nvidia ook in dat het meer open moet zijn, dus voor de cpu zo dat iedereen van physc gebruik kan maken. Want dat kan gewoon goed werken. Wat niet goed werkt is gpu only physx hacken zo dat het op de cpu loopt, dat loopt indd als stront MAAR als het puur voor de cpu gemaakt is wekt het gewoon soepel.
Ik heb me hier verder ook speciaal aangemeld hier voor want vind de dingen die hier verteld worden erg storend. Niet omdat ik er zelf last van heb maar vooral omdat het gewoon NIET 100% klopt wat er word verteld, bijna alleen maar het negatieve te wel er ook positieve dingen aan zitten. En dat geldt over meerdere dingen van nvidia door 2 personen die het verzieken voor anderen hier en elders op het net.
Het is vroeger al eens begonnen over de dikke chips voor gpgpu ,dat schoot al in het verkeerde keelgat omdat die prestaties niet zou kloppen in game vanwege de grote van de gpu, en dat doe grote niets te maken had met gpgpu en daar door werden weer andere mensen gebanned omdat die tegen spreken.
[ Voor 78% gewijzigd door Verwijderd op 15-06-2013 13:52 ]
Verder,
hoe komen ze erbij dat er een GTX7xx in die pc zit? Die site kun je toch niet serieus nemen..
Verwijderd
Maar als je physx games neemt waar bij physx alleen voor de cpu geoptimaliseerd is
loopt het in eens wel heel goed.
Hier physx voor de next gen console
http://finance.yahoo.com/...-microsoft-180000950.html
Kortom mensen hier word alleen de negatieve kanten besproken over physx.
Wat weer laat zien dat het is om nvidia te bashen.
Edit
En met een beetje geluk zien we dit terug op de console over de cpu.

Edit
De gtx780 vind ik persoonlijk wel wat te duur voor die prestaties. Maar dat zal wel komen omdat er geen concurrentie is op prestatie gebied. Verder vind ik het wel een goede videokaart want 1 met over clocken merk je ook echt verschil in games en 2 de reference gtx780 gaat al best ver, 1202mhz zijn geen uitzonderingen.
[ Voor 51% gewijzigd door Verwijderd op 15-06-2013 14:01 ]
Ik vind Division anders een stuk beter uitzien dan de spellen die jij daar noemt.yinx84 schreef op zaterdag 15 juni 2013 @ 11:37:
Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen.
Daarbij vergeet je even netjes hoeveel makkelijker het is om te optimaliseren voor een platform dat altijd hetzelfde is, t.o.v. de chaos bij het developen voor een pc, en hoeveel performance daarbij kwijt raakt.
Als laatste vergeet je nog even dat de GTX780 alleen al 1.5x zoveel kost als een PS4....
[ Voor 34% gewijzigd door Paprika op 15-06-2013 14:29 ]
Verwijderd
yinx84 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55"Vrijdag 24 mei 2013 13:57
en
Klopt, meer dan 1.5xEn dat voor 'maar' 650. Heb hem zowat blind gekocht, uiteindelijk wel een goede keuze geweest
[ Voor 101% gewijzigd door Paprika op 15-06-2013 14:45 ]
Lieve PC-Gamer,
Ga jij eens even de Batman games, Mafia 2, Metro, Just Cause of Alice met PhysX op volle toeren -wat niet eens gaat want zoals ik zei, bepaalde effecten laten ze niet toe op de CPU- spelen puur op de CPU en kom dan nog maar eens beweren dat het niet klopt wat ik zeg. Als jij hier daadwerkelijk zoals je beweert mee zou lezen, zou je ook weten dat ik al meerdere malen heb gezegd dat PhysX 3.0+ een ander verhaal is. Echter is dat nog nergens echt gebruikt; zelfs Planetside 2 is nog vrij miniem.
Ik zal je even een kleine hint geven, met twee gelijkwaardige kaarten:
- 7970 + CPU PhysX: YouTube: Batman:Arkham City PhysX Benchmark on HD 7970 - 17/60/40
- 7970 + No PhysX: YouTube: Batman Arkham City Benchmark DX11 7970 GHz Edition Tahiti XT2 - 39/124/100
- 680 + GPU PhysX: YouTube: GTX680+3770K OC Batman Arkham City BENCHMARK - 32/90/69
Alle drie op een 3770K. Een 680 zonder PhysX zit op exact hetzelfde niveau als een 7970 GE; iets eronder zelfs (kan er helaas geen fatsoenlijke video van vinden): http://www.computerbase.d...n-hd-7970-ghz-edition/24/ (en let wel: dit is met de vroege drivers, hier zitten niet eens de performance boosts van december en januari bij!).
Met andere woorden: waar CPU PhysX maar liefst 60% performance kost in deze game, is dat met GPU PhysX net over de 30, doet dus maar half zo veel pijn. Veel belangrijker echter is dat het minimum bijna twee keer zo hoog ligt. Dus nee, ik (en anderen die het met me eens zijn) zitten niet fout als we zeggen dat PhysX op de CPU als dikke stront door een trechter loopt.
Als je daar mee onder andere mij bedoelt zit je wederom gigantisch fout. Ik heb inmiddels al zo'n 14 maanden een 680 en ik heb in de afgelopen +- 18 jaar een stuk of 8-9 Nvidia kaarten gehad tegenover een waanzinnige 4 of 5 van ATI/AMD. Waaronder een Geforce 1 + 2 en Voodoos (3DFX, die opgekocht zijn door Nvidia en waar hun SLI deels vandaan komt). Daarnaast had ik ook gewoon Nvidia toen PhysX voor het eerst naar Nvidia kwam (en de 2,5 jaar daarna voordat ik weer eens AMD had) en was het toen al niks. Ik loop al te lang mee om een voorkeur of hekel aan een van beide te hebben. PhysX daarentegen is een andere zaak.Maar dat komt ook altijd bij 2 de zelfde personen weg en dat laat duidelijk zien dat ze niets van nvidia moeten hebben
Heb jij zelf wel eens een AMD/ATI kaart gehad en op CPU PhysX *moeten* spelen? Dat is geen pretje, helemaal niet als je een game eerst op Nvidia hebt gespeeld en dan later nog eens speelt op AMD. Wat mij betreft kan PhysX niet snel genoeg dood gaan. Nvidia is pas twee jaar weer een beetje bezig met PhysX na 3 jaar op hun gat te hebben gezeten, veel te laat en ze hebben hun kans gemist wat mij betreft.
Daar vergis je je nog in. Wellicht niet met álle toeters en bellen en 60 FPS, maar dat kan zelfs een Titan niet. Het feit dat het geheugen gedeeld wordt tussen CPU en GPU maakt toch wel veel uit, er hoeft geen data over een (relatief) trage PCI-e bus. Verder zitten er ook minder lagen tussen de engine en de hardware. Allemaal kleine beetjes die die GPU in de PS4 APU toch flink vooruit stuwen. Het is allemaal geen monster spul natuurlijk, maar het is in elk geval een grote sprong vooruit t.o.v. de oude consoles. Gezien het kleine doosje waar Sony hun PS4 in heeft weten te proppen vind ik dat nog een aardige prestatie zelfs.yinx84 schreef op zaterdag 15 juni 2013 @ 11:37:
maar hoe zou een PS4/XBone zich verhouden tegen een PC met een 3e/4e generatie Intel processor en een GTX780?
..
Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen. En dan heb je het over games die al lang en breed uit zijn (Crysis kwam in maart uit).
Overigens is er grafisch momenteel niet zo geweldig veel dat men kan verbeteren om alles mooier te maken. Ik denk ook niet dat daar de focus zal liggen, want de volgende stappen zijn dingen zoals raytracing, waar we nog niet klaar voor zijn. In plaats daarvan zal het voor PC gamers vooral om resolutie gaan; hopelijke gaan we meer 1440p/1600p panelen zien. Daar hebben we toch nog steeds meer GPU kracht voor nodig
@ spNk: ja dat is waar. HP computers met een Corsair H80i en GTX 780, heel duidelijk te zien op een hoop foto's van dat domme moment
[ Voor 3% gewijzigd door Werelds op 15-06-2013 15:18 ]
Verwijderd
Met physx uit krijg ik niet in eens meer fps (gemiddeld zo'n 65-75fps).
Physx hoeft van mij helemaal niet dood te gaan, gaat het ook niet gelukkig. Ik vind alleen wel
dat CPU physx meer moet komen, en nu dat beter werkt dan in het verleden dan is dat een prima
oplossing voor mensen met een AMD kaart of een console. Of voor een gamedev die geen zin heft in gpu physx, wat mij betreft mag dan gpu physx wel helemaal verdwijnen.
[ Voor 42% gewijzigd door Verwijderd op 15-06-2013 15:53 ]
Nu weet ik wel zeker dat je het uit je duim zit te zuigen. Een 7970 of 680 haalt zonder PhysX niet eens de 50 FPS - zelfs volledig patched tikken ze 60 niet eens aan gemiddeld. Dus dan zitten we al meteen te kijken naar een lagere resolutie dan 1080p in jouw geval. Vervolgens weet ik ook wel 100% zeker dat je PhysX niet volledig aan hebt staan - als wij het hier over de volledige PhysX hebben dan moet je in Metro: LL "Advanced PhysX" aanzetten. In Batman betekent dat PhysX op High. Eind resultaat? YouTube: Metro Last Light Gameplay Radeon 7970 + FPS + Advance Physics ON - mag ik jouw magische PC even lenen die die +- 30 FPS verdubbelt?Verwijderd schreef op zaterdag 15 juni 2013 @ 15:25:
Ja ik speelde two worlds 2 en Brothers in Arms ook met CPU physx op op mijn hd7970 en dat loopt als een trein, maar het liep weer erg brak op een gtx460 (te weinig fps). Verder loopt Metro LL ook gewoon soepel met physx aan op max. Het enige wat zwaar word in Metro LL is SSAA daar voor is sli of cf nodig.
Met physx uit krijg ik niet in eens meer fps (gemiddeld zo'n 65-75fps).

[ Voor 6% gewijzigd door Werelds op 15-06-2013 16:19 ]
Verwijderd
Ik zal wel een screen shot maken om te laten zien dat ik niet lieg over metro LL.
En 2560x1080? Leuk verzonnen, wil je me nu zeggen dat jij LG's ultra widescreen hebt?
Draai de benchmark maar en bewijs het.
[ Voor 16% gewijzigd door Werelds op 15-06-2013 16:35 ]
Verwijderd
Als ik lieg mag ik hem hier stikken.
Ik heb nergens geclaimt dat het goedkoper is hePaprika schreef op zaterdag 15 juni 2013 @ 14:42:
En dat heeft hij ervoor betaald?
[...]
yinx84 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55"
en
[...]
Klopt, meer dan 1.5x....
Dat the Division mooier is ben ik absoluut niet met je eens overigens. Wel dat men direct op de hardware kan programmeren waardoor men efficienter met resources om kan gaan.
Maak maar een filmpje waar je ook de settings laat zien. Maak maar gewoon met een telefoon voor mijn part, verlies je geen FPS door Fraps of iets dergelijks. Geen enkele benchmark of video die ik heb gezien staaft jouw resultaten. Overigens is 1080p 1920x1080, niet 2560x1080.Verwijderd schreef op zaterdag 15 juni 2013 @ 16:37:
De benchmark is ook veel zwaarder dan de game zelf. in de benchmark zelf haal ik ook maar gemiddeld zo'n 55-60 fps en tijdens het gamen 65-70 fps op 2560x1080. Moet ik daar een filmpje van maken want print screen werkt niet want ik wil ook laten zien dat gpu physx aan staat in het groen boven in beeld.
Als ik lieg mag ik hem hier stikken.
Dan nog is je punt complete onzin, want jij draait Metro op GPU PhysX terwijl we het over CPU hadden. Voor de rest, BiA: HH is een game uit 2008 met amper iets van PhysX (de eerste twee gebruikten Havok); TW2 kan ik me niet eens herinneren wat daar aan PhysX in zat.
Je gaf vervolgens ook niet aan dat je het bij Metro over een 780 had; je begint met "blablabla op 7970" en springt doodleuk naar Metro: LL.
[ Voor 43% gewijzigd door Werelds op 15-06-2013 16:49 ]
Verwijderd
Nee jij sprindt dood leuk naar metro LL omdat je mij niet gelooft en voor leugenaar uit maakte.

[ Voor 20% gewijzigd door Verwijderd op 15-06-2013 16:58 ]
In-door haal jij die 65-70 vast wel op sommige stukken. Buiten haal jij dat bij lange na niet. En als er binnen wat dingen ontploffen haal jij dat ook niet. Maximum FPS zijn leuk maar heb je niets aan.Verwijderd schreef op zaterdag 15 juni 2013 @ 16:53:
Fimpje met de telefoon zal ik nog doen. Die zal ik volgende week posten.
Je vroeg zelf om metro LL met gpu physx.
Maar in game haal ik gemiddeld 65-70fps omdat die benchmark een stuk zwaarder is.
Ik vroeg ook helemaal niet om GPU PhysX in eerste instantie, want jij deed het overkomen alsof je een 7970 had en dat CPU PhysX goed draait - in Metro. Zelfs GPU PhysX draait niet altijd even soepel. Ik weet ook uit eigen ervaring dat dat op de CPU absoluut niet zo is en heb ook bewijzen daarvan getoond. We hadden het de hele tijd over CPU PhysX en feit blijft dat dat gewoon als dikke stront door een trechter loopt. Bewijs het tegendeel maar, jij bent degene die dat met grote mond beweert en ik heb het tegendeel laten zien - the ball's in your court.
[ Voor 5% gewijzigd door Werelds op 15-06-2013 16:59 ]
En voor mijn part ga je nu screenshots posten waar jij buiten 700 FPS haalt (en nee, een enkel screenshot doet helemaal niks, want dat laat een moment opname zien). Allemaal leuk en aardig, maar je danst nu gewoon constant om het feit heen dat je nog steeds niks hebt laten zien dat jouw oorspronkelijke bewering (dat CPU PhysX goed loopt) ondersteunt.
Edit: enfin, ik heb er wel genoeg van. Ik weet niet waarom ik het überhaupt probeerde, vragen om feitelijk bewijs lijkt onmogelijk bij sommige mensen. Ik weet zelf in elk geval wel beter en de meeste mensen in deze thread ook wel. Als jij wilt blijven geloven dat CPU PhysX net zo lekker draait en dezelfde features heeft moet je dat vooral doen, heb ik geen last van. Houdt die beweringen asjeblieft wel voor je totdat je wat feiten kunt tonen.
[ Voor 27% gewijzigd door Werelds op 15-06-2013 17:15 ]
Want CPU PhysX doe jij niet aan en daar gaat het hier om ging het oorspronkelijk om. Jij hebt je zinnen nu echter gezet op je Metro FPS.
[ Voor 34% gewijzigd door Werelds op 15-06-2013 17:16 ]
Verwijderd
Edit

Tinnypic ligt er even uit, anders kon je gewoon een plaatje zien en dat is 100% betrouwbaar
want ik ben geen leugenaar weer ik wel door jou van uit word gemaakt en daarom reageer ik ook zo.
En ook door die wijze onzin praat over physx over het internet te verspreiden want zo doende ben ik hier ook terecht gekomen. Ik weet zeker dat hier mensen zijn die al jaren het zelfde wil zeggen maar het niet doen omdat jij een tweaker bent die de voordelen krijgt bij de mods. Ik weet dat ik hier verder niet lang zal zijn maar dat boeit me niet, ik wou dit gewoon kwijt want zat er al weken mee. Te wel ik helemaal geen fanboy ben van nvidia. Maar goed als ik weg ben hoop ik dat iemand anders het over kan nemen wat als die negatieve dingen over physx en nooit de goede dingen zeggen kan gewoon echt niet.
Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in. En die game haalt voldoende fps voor een vloeiend beeld met physx over de cpu. Het kan allemaal wel degelijk alleen moet nvidia er wel wat moeite voor doen, doet nvidia dat niet dan krijg je brakke games zoals je zelf ook beschreef.
Gras, haar en planten enzv.
YouTube: Two Worlds 2 PC Gameplay HD
[ Voor 118% gewijzigd door Verwijderd op 15-06-2013 17:41 ]
Als ik de filmpjes kijk van de physx implementatie in Two Worlds 2 dan ben ik niet echt onder de indruk, het is nauwelijks beter dan de physics in Crysis 1, een spel wat ondertussen al 6 jaar oud is. Dus ja als er zo weinig gebeurt dan geloof ik best dat je genoeg fps kan halen in dat spel. Feit blijft dat physx slecht geoptimaliseerd is voor de cpu, volgens mij had Werelds daar een heleboel pagina's terug uitleg over gegeven (iets met legacy x87 code en geen ondersteuning voor multi-threading).Verwijderd schreef op zaterdag 15 juni 2013 @ 17:18:
Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in.
Ik hoop dat het een langzame dood sterft en dat er een "Open" oplossing komt, bijvoorbeeld de Bullet physics engine.
Hangt af van de implementatie in Metro, maar als het goed is respecteert hij gewoon de setting in NVCP. Je kunt daar de GPU kiezen waar PhysX op moet lopen, of de CPU.Verwijderd schreef op zaterdag 15 juni 2013 @ 17:18:
Dat ik gemiddeld in game zo'n 65-70 fps heb, ook buiten. Ik zal dan ook CPU physx aan zetten als dat ook mogelijk is?
Ik wacht nog steeds op bewijs van jouw kant dat CPU PhysX goed draait (zie verder hieronder). Het is in elk geval geen onzin praat.En ook door die wijze onzin praat over physx over het internet te verspreiden want zo doende ben ik hier ook terecht gekomen.
Dit is gewoon ronduit hilarisch, in welke vorm krijg ik voordelen van de mods? Ik val niemand persoonlijk aan, ik onderbouw m'n statements en het enige dat ik van jou (en anderen die op dezelfde manier reageren) vraag is dat je het gewoon met feiten onderbouwt, zoals men dat doet in een discussie.Ik weet zeker dat hier mensen zijn die al jaren het zelfde wil zeggen maar het niet doen omdat jij een tweaker bent die de voordelen krijgt bij de mods.
#1: Gras/vegetatie? Niet PhysX. Kijk maar eens goed, wordt niet gesimuleerd. Timing is hartstikke scheef en de manier waarop het weg valt is altijd hetzelfde. Wordt zelfs aangetrokken door de speler. Zeer zeker niet PhysX of überhaupt een vorm van physics.Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in. En die game haalt voldoende fps voor een vloeiend beeld met physx over de cpu. Het kan allemaal wel degelijk alleen moet nvidia er wel wat moeite voor doen, doet nvidia dat niet dan krijg je brakke games zoals je zelf ook beschreef.
Gras, haar en planten enzv.
YouTube: Two Worlds 2 PC Gameplay HD
#2: Haar? Zou kunnen. Ziet er dan wel erg slecht uit moet ik zeggen, evenals de kleding; Batman: AA deed dat stukken beter een jaar eerder. Ze maken er dus maar weinig gebruik van.
Ik kan ook helemaal niks vinden over PhysX in Two Worlds II en afgaande op de periode waarin het uitkwam betekent dat dat het de oude PhysX SDK is en waarschijnlijk op dezelfde manier gebruikt als in TW1. Dat wil zeggen: ragdolls, animaties en rigid bodies. Allemaal dingen die sowieso niet op de GPU kunnen lopen en dan ook nog relatief eenvoudig zijn (zaten ze in HL2 ook al en PC's hadden er toen ook geen moeite mee). Het zijn juist de intensieve berekeningen zoals soft bodies, particles, kleding die nu erg slecht lopen in PhysX.
Als jij zegt dat het allemaal goed loopt in TW2 geloof ik dat best - ik heb de game zelf niet gespeeld, omdat ik het eerste deel al niet zo geweldig vond. Neemt niet weg dat ik zo uit m'n hoofd 7 hele grote games heb genoemd waar het weldegelijk als dikke stront loopt en dat jij dat volledig negeert. Niet eenmaal, maar meerdere malen. En dat waren stuk voor stuk grote games waar PhysX veel meer in werd gebruikt dan in TW2. En als PhysX daadwerkelijk zo goed liep als jij denkt dan had Volition voor Red Faction: Guerrilla wel PhysX gebruikt en niet Havok dat ook gewoon op de CPU loopt. Sterker nog, er is geen game met PhysX die dat soort physics doet.
@ Sp3ci3s8472: klopt, heb ik al eerder gedaan
Geen native multi-threading (m.a.w. single-core tenzij de programmeurs handmatig PhysX aanpassen om op meerdere threads te lopen), geen SSE instructies en nog wat meer van dat soort grappen. Er zitten inmiddels wel wat SSE2 instructies in PhysX (2.8.4), maar multi-threading zit er pas vanaf 3.0+ in en die zien we nog niet in games. Multi-threading spreekt denk ik voor zich waarom dat belangrijk is. SSE instructies zijn (versimpeld uitgelegd) goed voor het herhaaldelijk uitvoeren van dezelfde berekeningen met decimale getallen. Die worden dan op een speciale manier versneld uitgevoerd - als je natuurkunde hebt gehad snap je ook waarom dat zo belangrijk is
Overigens stamt SSE al van de Pentium 3 tijd, SSE2 van Pentium 4. Dus ja, dat had er al lang in moeten zitten.
Maar goed, ik verzin dit vast allemaal, het is niet alsof anderen dit hebben geconstateerd en bewezen ofzo

Voor zover ik gelezen heb op het internet heeft nvidia deze al voorgesteld op computex en volgens de geruchten zouden deze in juni gelanceerd worden.
Maar tot nu toe blijft het er wel héél stil over.
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.
Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.
Voordat de mensen nieuwe hoop krijgen: het gaat gewoon over gerelabelde GTX670 kaarten voor zover ik het verstaan heb. Wellicht een beetje aangepast maar veel meer moet je er niet van verwachten.
Waarom niet veel meer, ik vind dat een mid-end kaart maar 1 power supply extra zou mogen krijgen (6 pins voor de verduidelijking).
Een kaart die enorm veel zuipt (en dus lawaai/warmte genereeert) is niet echt dé mid end kaart die velen op het oog hebben. Maar bon wie weet dat de performantie zo goed is dat het de oudere serie uit de markt prijst (en vooral de amd concurrentie zeer zal doen
PS: de TS heeft werkelijk een grote update nodig, kzal me eens proberen deze week mee bezig te houden (min of meer tijd voor een nieuw deeltje
25 juni releasedatelightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Heeft er al iemand meer info over de "nieuwe" gtx 760 kaarten?
Voor zover ik gelezen heb op het internet heeft nvidia deze al voorgesteld op computex en volgens de geruchten zouden deze in juni gelanceerd worden.
Maar tot nu toe blijft het er wel héél stil over.
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.
Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.
Voordat de mensen nieuwe hoop krijgen: het gaat gewoon over gerelabelde GTX670 kaarten voor zover ik het verstaan heb. Wellicht een beetje aangepast maar veel meer moet je er niet van verwachten.
Waarom niet veel meer, ik vind dat een mid-end kaart maar 1 power supply extra zou mogen krijgen (6 pins voor de verduidelijking).
Een kaart die enorm veel zuipt (en dus lawaai/warmte genereeert) is niet echt dé mid end kaart die velen op het oog hebben. Maar bon wie weet dat de performantie zo goed is dat het de oudere serie uit de markt prijst (en vooral de amd concurrentie zeer zal doen)
PS: de TS heeft werkelijk een grote update nodig, kzal me eens proberen deze week mee bezig te houden (min of meer tijd voor een nieuw deeltje)
http://videocardz.com/429...-be-released-on-june-25th
specs
http://videocardz.com/430...x-760-has-1152-cuda-cores
3DMark11
http://videocardz.com/430...mark11-performance-leaked
[ Voor 5% gewijzigd door calsonic op 18-06-2013 09:40 ]
Verwijderd
Bijvoorbeeld het bepalen bij welke temperatuur de videokaart pas terug gaat clocken, dat is op zich
al een voordeel wat ik op merkte met de gtx780.
[ Voor 6% gewijzigd door Verwijderd op 18-06-2013 09:42 ]
Iets sneller dan een GTX 660 Ti, maar toch minder Cuda Cores, iets trager dan een GTX 670 en een prijs van rond de 250 euro of 300 dollar zou je denken.lightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Heeft er al iemand meer info over de "nieuwe" gtx 760 kaarten?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
De GTX670 is nu ook al redelijk onder de 300,- gedoken (mocht ook wel een keer...) De MSI Power edition OC voor ~ 288,- bij Azerty is best aardig. Maarja, met de nieuwe kaart voor de deur die 'm gaat vervangen is het als nog niet slim om 'm te koper... De GTX660 ti en 660 zakken idd ook al steeds verder, goed voor de consument en zet weer lekker wat druk op AMD om mee te gaan, en das altijd goed!lightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.
Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.
Verwijderd
[ Voor 4% gewijzigd door Werelds op 19-06-2013 19:18 ]
Lijkt me flink kut als je nog met een voorraadje 680's zit namelijk.
Iemand die daar wat meer over weet?
Of gewoon de marge van GTX680 op 0.1% zetten. Dan geraakt het sowieso wel buiten.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Nvidia gaat technologie Kepler-gpu's in licentie verstrekken
Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.
[ Voor 62% gewijzigd door madmaxnl op 20-06-2013 00:30 ]
Verwijderd
Maar is de gtx680 niet EOL?Noel schreef op donderdag 20 juni 2013 @ 00:22:
Een goede winkel heeft genoeg contacten met fabrikanten, nVidia, leveranciers om zo'n situatie deels te voorkomen. Maar het is wel zo dat er een heleboel mensen niet zo blij waren met deze rebrand (en dan vooral de price drop).
Of gewoon de marge van GTX680 op 0.1% zetten. Dan geraakt het sowieso wel buiten.
Leuk voor Intel vooral. ARM chip bouwers gaan niet aan Nvidia betalen. Qualcomm en hun Radeon Adreno doen het best wel aardig. IT met hun PowerVR ligt ver voor op Qualcomm en Nvidia. En dan heb je het eigenlijk grotendeels gehad. Apple werkt toch alleen met IT.madmaxnl schreef op donderdag 20 juni 2013 @ 00:24:Nvidia gaat technologie Kepler-gpu's in licentie verstrekken
Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.
Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.
Ik vraag me alleen af of Kepler wel gaat werken op een kleinere schaal als iGPU of in Logan volgend jaar. We hebben inmiddels gezien dat ze veel ruimte nodig hebben voor een chip die zowel qua rendering als GPGPU goed loopt en dat gaat uiteraard met name in mobiele platforms niet. AMD gaat juist zo lekker omdat ze alles zo klein kunnen houden. Kepler is wel beter dan Fermi, maar of ze IT kunnen bijbenen (laat staan verslaan)?
Verwijderd
Het is nog steeds slimmer om een duurdere Intel te kopen, die moet je veel minder snel vervangen ... Komt er nog eens bij dat hij een stuk minder stroom verbruikt ... Na enige tijd ben je toch goedkoper af met Intel ...mitsumark schreef op donderdag 20 juni 2013 @ 01:03:
Ik denk dat AMD dan nog steeds (en zelfs beter) op prijs kan concurreren.
AMD kan trouwens niet oneindig blijven zakken met z'n prijzen ... Uiteindelijk gaan ze niet meer deftig kunnen blijven innoveren ...
Intel gaat ook niet meteen op de kar springen ... voor de eerstvolgende generatie nieuwe processoren is het al te laat en is Intel waarschijnlijk al aan het sleutelen aan snellere geïntegreerde GPU's. Ze zullen misschien al wat verkennend gaan rondkijken, maar eerst zullen ze wel kijken wat de resultaten zijn na 1 of 2 nieuwe processorlijnen ... Nuja, speculaties ... het zijn maar gissingen en vermoedens he, toekomstvoorspellen is geen exacte wetenschapmadmaxnl schreef op donderdag 20 juni 2013 @ 00:24:Nvidia gaat technologie Kepler-gpu's in licentie verstrekken
Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.
Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.
[ Voor 56% gewijzigd door Verwijderd op 21-06-2013 11:56 ]
Stel je GPU verbruikt 50watt minder.
Dan kun je 20 uurtjes gamen voor 1 hele KWh.. wat kost een kwtje tegenwoordig? 40cent.totaal?
Neem even dat je 3 a 4 uur per dag gamed => pak even die 20uurtjes per week.
Dan bespaar je 40 cent per week x 52weken is amper 21,- per jaar. Neem ruim 25,-
Waar doe je de moeite voor? 25,- per jaar op een game kaartje van 350+ euro
Een keer een pilsje minder in de kroeg, een keer vaker de fiets pakken, minder roken, een keer een filmpje downloaden ipv de bios... kijk dan schiet je op.
[ Voor 17% gewijzigd door mukkel op 21-06-2013 12:00 ]
[ Voor 4% gewijzigd door madmaxnl op 21-06-2013 16:00 ]
Je kan trouwens denk ik beter besparen door je energie slurpende 5 jaar oude LCD/Plasma te vervangen door een zuinige nieuwe LED TV (Dat heb ik in de planning liggen). Het verschil in energieverbruik is vaak erg groot.
En dan koop je straks een PS4 voor 400 euro i.p.v. een duizend euro game PC. Is vast ook een stuk zuiniger dan de PC.
Dat is anders wat dan kiezen voor Intel i.p.v. AMD omdat die een beetje zuiniger is.
[ Voor 105% gewijzigd door Robolokotobo op 21-06-2013 17:07 ]
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Heeft in elk geval al meer invloed dan in het verleden, maar nog steeds bar weinig. Dit is hetzelfde als PCI-e 3 x16 vs x8 voor diegenen die dat niet weten (3.0 x16 = exact het dubbele van 2.0 x16).
Stroomverbruik bij idle en licht gebruik is behoorlijk veel lager geworden. Zo gebruik ik mijn PC het meest en dat heeft behoorlijk grote invloed op verbruik. Dat is eigenlijk relevanter dan verbruik bij gamen.mukkel schreef op vrijdag 21 juni 2013 @ 11:58:
kosten vs stroomverbruik.... dat kun je verwaarlozen.
Stel je GPU verbruikt 50watt minder.
Dan kun je 20 uurtjes gamen voor 1 hele KWh.. wat kost een kwtje tegenwoordig? 40cent.totaal?
Neem even dat je 3 a 4 uur per dag gamed => pak even die 20uurtjes per week.
Dan bespaar je 40 cent per week x 52weken is amper 21,- per jaar. Neem ruim 25,-
Waar doe je de moeite voor? 25,- per jaar op een game kaartje van 350+ euro
Een keer een pilsje minder in de kroeg, een keer vaker de fiets pakken, minder roken, een keer een filmpje downloaden ipv de bios... kijk dan schiet je op.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Lagere tdp = lagere temperature = stillere fan(hopelijk)
= langere levensduur, vooral bij kaarten die heel warm worden. Op dit forum zie je toch de vaak topics over high-end kaarten die doodgaan, met name dure kaarten (hoog TDP) met el-cheapo koeling.tomcatha schreef op vrijdag 21 juni 2013 @ 17:24:
Ik vind temperatuur een belangrijker kwestie als het gaat over gebruik.
Lagere tdp = lagere temperature = stillere fan(hopelijk)
Heeft geen speciale krachten en is daar erg boos over.
Verder haalt de gtx 770 zijn stroom uit een 400W voeding wat na de eerste benchs geen problemen veroorzaakt.
Dit is mijn setup, wat initieel eigelijk alleen als zuinige server gebruikt zou worden...
Intel Core i3 3220 (Socket 1155) (55W tdp)
Be Quiet! 400W Straight Power E9 gold Voeding
Intel DH77DF (Socket 1155)
Corsair 8GB PC3-12800 Vengeance Low Profile DDR3 SDRAM (2x 4GB, 1600MHz, CL9)
1 Western Digital 3TB Red (SATA-600, 3.5")
1 Intel SSD830 128GB
Allemaal leuk en aardig ansicht, maar nieuws is het zeker niet, en discussie waardig ook niet echt. Misschien het feit dat een dual core i.c.m. een opgevoerde GTX 680 een beetje raar staat, maar daar blijft het toch echt wel bij...
http://www.bouweenpc.nl/n...ia-geforce-gtx-760-gelekt
[ Voor 11% gewijzigd door PerlinNoise op 21-06-2013 20:04 ]
Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn
Zolang de markt van monitoren die DP vereisen klein blijft zal het gebruik van DP op videokaarten ook klein blijven. Het gebruik van DP op videokaarten loopt wel voor op het daadwerkelijk nodig hebben ervan. Anders krijg je een kip, ei probleem.
HDMI kan ook hoger dan 2560x1600 bij de laatste versies.madmaxnl schreef op zaterdag 22 juni 2013 @ 02:04:
Goede adoptie van DP gaan we waarschijnlijk zien bij het goed betaalbaar worden van 4k monitoren (of i.i.g. >2560x1600). Bij resoluties hoger dan 2560x1600 is het gebruik van DP vereist. Volgens mij gaan HDMI en DVI namelijk niet hoger dan die resolutie.
Zolang de markt van monitoren die DP vereisen klein blijft zal het gebruik van DP op videokaarten ook klein blijven. Het gebruik van DP op videokaarten loopt wel voor op het daadwerkelijk nodig hebben ervan. Anders krijg je een kip, ei probleem.
Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn
Dat kan toch al?Kridri schreef op zaterdag 22 juni 2013 @ 10:51:
Blijft wel jammer. Ik zou liever 2 monitoren aansluiten via Dp dan een met hdmi en een met DP
Ik merk overigens geen verschil tussen mn monitoren (2x via DP, 1x via DVI).
Doet u dan dat met daisy chaining of op welke manier?mitsumark schreef op zaterdag 22 juni 2013 @ 10:55:
[...]
Dat kan toch al?
Ik merk overigens geen verschil tussen mn monitoren (2x via DP, 1x via DVI).
Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn
Ah sorry, nvidia topic (had ik niet door), ik heb amd kaarten.Kridri schreef op zaterdag 22 juni 2013 @ 10:59:
[...]
Doet u dan dat met daisy chaining of op welke manier?
Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn
Alleen op 24 Hz. 60 Hz komt pas in HDMI 2.0.Deadsy schreef op zaterdag 22 juni 2013 @ 02:54:
HDMI kan ook hoger dan 2560x1600 bij de laatste versies.
DP 1.2 kan al 4K bij 60 Hz aan, tot 30bpp; als je zakt naar 24bpp is ook 3D mogelijk op die resolutie op 60 Hz
Ik hoop wel dat de prijs een beetje gunstig gaat worden. Ik twijfel nu over de aanschaf van een GTX660 die voor €175 te koop is. Ik zou graag een 760 willen, als die niet ineens (zoals geruchten gaan) tussen de €250 en de €300 zal komen te liggen. Want dan haak ik af. Maar die geruchten waren waarschijnlijk gebaseerd op het feit dat ze dachten dat 760 een opnieuw uitgebrachte 670 zou worden.Pixarr schreef op vrijdag 21 juni 2013 @ 20:04:
Meer info over de GTX 760, o.a. release datum 25 juni.
http://www.bouweenpc.nl/n...ia-geforce-gtx-760-gelekt
Ander naampje, iets andere klok. Gewoon ouderwets rebrand.
Wat let je dan om geen 660 te kopen.
Als de 760 gelijkwaardige performance laat zien, en ook een vergelijkbare prijs, dan ga ik liever voor de 760 dan de 660
GPU
Manufacturer: NVIDIA
Specs status: Rumored
GPU Series: GeForce 700
GPU Model: GK104-325
Fabrication Process: 28nm
CUDA Cores: 1344
TMUs: 112
ROPs: 32
CARD
Dimensions (inches): 9.5 / 4.4 / Dual-slot
Display Outputs: 1 / 1 / 1 / 1 / 0 / 0
SUPPORT
Bus Support: PCI-E 3.0 x16
DirectX Support: 11.1
OpenGL Support: 4.2
CLOCKS
GPU Base Clock: 915 MHz
GPU Boost Clock: 980 MHz
Memory Clock: 1625 MHz
Effective Memory Clock: 6500 MHz
MEMORY
Memory Size: 2048 MB
Memory Type: GDDR5
Memory Bus Type: 256-bit
Memory Bandwidth: 208 GB/sec
POWER
Power Draw 175 W / – W
Min Required PSU: 500 W
Power Connectors: 2 x 6-pin
Temperature: – C / – C / – C
Noise Level: – dBA / – dBA
Johann Sebastian Bach
Verwijderd
Je spreekt voor ons beide ... 3 daagjes kan ik nog gerust wachten om te zien wat de eigenlijke specs zijn (ipv diegene die 'gegist' worden ...) en dan kan ik beter vergelijken wat er vergeleken moet worden. Mochten er prijzen zijn die een duik nemen ... graag ... bonusmvds schreef op maandag 24 juni 2013 @ 13:10:
Nou, de prijs eigenlijkAangezien morgen de GTX760 uitkomt, zou het kunnen dat de prijs van de GTX660 en de GTX660Ti daardoor gaat zakken. Dus ik wacht even de introductieprijs af van de 760, en kijk wat de prijs van de 660 daardoor gaat doen
Als de 760 gelijkwaardige performance laat zien, en ook een vergelijkbare prijs, dan ga ik liever voor de 760 dan de 660Maar dat is gewoon eigen voorkeur hoor

De 760 is dus de vervanger voor de 660TI.
Eind van het jaar nog de 790 en dan zit de 700 serie er weer op.
Niet echt een boeiende serie tov de 600 imo,
Dit topic is gesloten.