[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 12 ... 30 Laatste
Acties:
  • 125.418 views

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA Reiterates Dedication to Gaming on PC, Working with Developers

http://www.pcper.com/revi...ing-PC-Working-Developers

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik verwacht weinig goeds voor ons gamers, dit zal wel resulteren in meer shit zoals PhysX en andere naai zooi waardoor je als AMD gebruiker buiten de boot valt. Dedication to nVidia users ja, maar niet naar gaming on PC.

Afbeeldingslocatie: http://www.pcper.com/files/review/2013-06-11/nv03.jpg PhysX, CUDA en nog wel wat closed standard shit. Innovatie noemen ze dat.

Deze is ook wel leuk:
Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2013-06-11/nv05.jpg
Assassins Creed DX10.1 anyone? Tesselation van water onder de map anyone? Ja hele goede adoption.

Deze is ook wel leuk:
Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2013-06-11/nv13.jpg
Omzet zegt niks over hoe winst gevend iets is, maar goed. Je hoort developers niet voor niets klagen over piraterij op de PC. Omzet zegt alleen hoe groot iets is. Ja PC gaming is groot, maar dat krijg je als je alle webbased games ook mee gaat tellen en games die gratis zijn met microtransacties voor meer opties en mogelijkheden. Wat hier waarschijnlijk ook niet in is meegenomen is dat er best wel veel Xbox Live gebruikers zijn die per jaar z'n 60 dollaaaa neer tikken om online te kunnen gamen. Ze geven in mijn ogen dus een vertekend beeld dat in hun voordeel werkt.

Volgens mij zijn de boys bij nVidia hartstikke gefrustreerd dat ze geen enkele console design win hebben en nu zogenaamd de engel van PC gaming uit gaan hangen. Terwijl ze met hun shit als PhysX, tesselation onder de map, AC DX10.1 en nog wel wat naai streken dat in mijn ogen zeker niet zijn. Zelfs als je een nVidia kaart hebt zijn het naai streken. Want ook zij hebben helemaal geen fluit aan tesselation onder de map of het feit dat ze bewust DX10.1 voor AC hebben geblokkeerd met hun invloed.

Enfin, mensen zullen het allemaal wel weer voor zoete koek slikken, maar ik maak me weinig zorgen omdat AMD mooi alle consoles in da pocket heeft wat ook zijn weerslag op PC gaming zal hebben (betere optimalisatie voor AMD hardware).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het is (natuurlijk ?) duidelijk dat al deze sheets een laag PR glazuur eroverheen hebben waar je bijna bang van wordt.

Nu heb ik momenteel een superevaring met nvidia SLI en ook de drivers bevallen met top. Echter ik zit net als jij helemaal niet te wachten op die proprietary zooi en streken van nVidia. :X

Ben iig erg benieuwd hoe de e.e.a. de komende jaren gaat lopen nu AMD in alle console's zit.

[ Voor 13% gewijzigd door Help!!!! op 12-06-2013 13:49 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Niks nieuws te melden dus. Gewoon een nutteloze presentatie, waarvan er al zoveel zijn, van zowaar alle bedrijven.
Verder weet ik niet hoe groot de verschillen zullen zijn om de GPU te hebben ontworpen van de nieuwe consoles. Er zit nogal een reusachtig verschil tussen specifieke hardware aansturen, en via allemaal software laagjes een framework aansturen dat voor alle soorten hardware wordt gemaakt AKA de pc situatie.

[ Voor 11% gewijzigd door Paprika op 12-06-2013 13:58 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op woensdag 12 juni 2013 @ 13:58:
Niks nieuws te melden dus. Gewoon een nutteloze presentatie, waarvan er al zoveel zijn, van zowaar alle bedrijven.
Dat zou ik niet zeggen. Het geeft aan hoe nVidia denkt invloed te houden in de graphicsmarkt.
Zoals altijd moet je tussen de regels door lezen.
Verder weet ik niet hoe groot de verschillen zullen zijn om de GPU te hebben ontworpen van de nieuwe consoles. Er zit nogal een reusachtig verschil tussen specifieke hardware aansturen, en via allemaal software laagjes een framework aansturen dat voor alle soorten hardware wordt gemaakt AKA de pc situatie.
Het ligt denk ik niet meteen voor de hand om funtionaliteit die niet in de hardware zit (bijv. nvidia proprietary functionaliteit) er via software alsnog proberen in te bouwen.

Denk dat de invloed best groot is.

Daarnaast heeft AMD hierdoor als het goed is een hechtere band met de developers en dat zou ook positief moeten werken.

[ Voor 75% gewijzigd door Help!!!! op 12-06-2013 15:38 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • noerie
  • Registratie: Juni 2013
  • Laatst online: 02-07 10:49
Hallo allemaal,

momenteel gebruik ik nu de Asus GTX 680 Direct CUII TOP kaart voor 1920x1080 .

Later wil ik wel misschien voor een GTX 770 lightning gaan vanwege nieuwe generatie games.

Nu is mijn vraag: Ongeveer hoeveel % gaat het verschillen met prestaties of FPS.?

gtx 680 top vs gtx 770 lightning?

pc specs: i7 3960X , 8gb 1600 DDR3 , 700 WATT coolermaster silent pro gold. enz...

edit: Is 700 watt coolermaster silent pro gold genoeg voor de 770 lightning?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
GTX680 is rap genoeg zeker voor 1920x1080. Het geld is de upgrade niet waard. Dit is overigens het verkeerde topic voor advies. Ik zou als ik jou was de komende generatie overslaan (Gxx7xx en HD8xxx). Op het moment dat nVidia en AMD overstappen op 20nm komen er weer leuke kaarten die het upgrade waard zijn.

Club 3D gaat zich exclusief op AMD gebaseerde videokaarten richten

Even kijken, het rijtje zoals ik het me herinner:
BFG was nVidia only en is volledig gestopt met het maken, rage quit :w
XFX was nVidia only en is overgestapt naar de 'light side' omdat daar wel liefde is <3
Club 3D heeft ook schoon genoeg van de 'dark side' en wil ook wat meer liefde *;

Wat een beetje meer liefde allemaal al niet kan doen :+

@MW1F

Dat gebeurt nagenoeg altijd dat men alleen de resultaten die in hun eigen straatje passen worden medegedeeld.

[ Voor 79% gewijzigd door madmaxnl op 12-06-2013 22:12 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 12 juni 2013 @ 13:37:

Deze is ook wel leuk:
[afbeelding]
Assassins Creed DX10.1 anyone? Tesselation van water onder de map anyone? Ja hele goede adoption.
Je moet voor de grap eens de lettertjes eronder proberen te lezen... :
7970 Ghz vs. GTX680 Based on independent hardware ... at 1080p, Far Cry 3 by Guru3d, Crysis 3 tested by Tech Spot, Tomb Raider tested bij HardOCP, Bioshock Infinite tested by PC Games Hardware.

Oftewel, een bij elkaar geraapt zooitje waar elke keer de beste Nvidia uitslag wordt gekozen... Tja.... :z

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 12 juni 2013 @ 20:59:

XFX was nVidia only en is overgestapt naar de 'light side' omdat daar wel liefde is <3
Ik ken de cijfers natuurlijk niet, maar je moet je ook afvragen of XFX van deze stap veel beter is geworden. Ze zullen absoluut hun redenen hebben gehad, maar het wil natuurlijk niet gelijk zeggen dat de zaken nu veeeeel beter voor ze gaan. Denk eerlijk gezegd dat hun marktaandeel wel is geslonken i.v.t. hun Nvidia tijd. Wellicht hebben ze meer marge op AMD kaarten (ken wederom de cijfers niet), maar wil maar zeggen dan zo'n overstap niet gelijk het walhalla is voor een fabrikant.

Van Club3d zat het er trouwens ook wel een beetje aan te komen. Hun Royal Queen / King kaarten waren al veel bekender onder de AMD kaarten en er is bijv. alleen een GTX660 (ti) met een after market koeler van Club3d welke nauwelijks te krijgen zijn, rest is alleen reference. Bij AMD zijn het juist de after market koeler modellen welke juist zeer goed vertegenwoordigt zijn.
Ik denk dat het voor Club3d op de een of andere manier te moeilijk is om bij Nvidia kaarten een goede voet tussen de deur te krijgen met hun Royal Queen/King koelers. En van alleen reference modellen zullen ze wel niet genoeg verdienen. Verder zullen er wellicht andere zaken spelen die dit soort keuzes bepalen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Of je er beter of slechter van wordt doet er in mijn persoonlijke optiek totaal niet toe. Als je geen zaken met een partij wil doen omdat je hun filosofie en werkwijzen niet aanstaat moet je gewoon geen zaken met ze doen. Net zoals dat Nederland eigenlijk geen zaken zou moeten doen met Rusland, China en de VS. Ja we gaan er op achteruit, maar je weet wel dat je dan niet bijdraagt aan iets slechts waar je zelf schijnbaar beter van wordt.

Jammer genoeg zijn we niet zo idealistisch en verkopen we letterlijk en figuurlijk onze ziel aan de duivel en we gaan er straks niet onder uitkomen met smoesje van 'ja maar iedereen deed het' of 'wat moesten we dan doen, zelf erop achteruit gaan tot aan de afgrond aan toe'.

Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet. Zeker als we de slides van eerder van vandaag erbij nemen waaruit blijkt dat nVidia meer dan 60% van de videokaarten markt heeft. Als je vervolgens al twee dochterondernemingen hebt die AMD only zijn dan is het all helemaal niet te rijmen met elkaar.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op woensdag 12 juni 2013 @ 22:51:
Of je er beter of slechter van wordt doet er in mijn persoonlijke optiek totaal niet toe. Als je geen zaken met een partij wil doen omdat je hun filosofie en werkwijzen niet aanstaat moet je gewoon geen zaken met ze doen.
...
Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet.
Begin geen bedrijf, zou ik zeggen. Club3D doet om er beter van te worden en anders krijgen ze klachten van aandeelhouders, zoals bij elk bedrijf. Het is geen spirituele organisatie die kan blijven bestaan op basis van donaties of zo. En Nvidia "letterlijk de duivel" noemen is ook wat overkill... Ook al ben ik ook bepaald geen fan van PhysX e.d.
Net zoals dat Nederland eigenlijk geen zaken zou moeten doen met Rusland, China en de VS.
Op ethisch gebied denk je niet erg pragmatisch, om het maar zwak uit te drukken... :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
bwerg schreef op woensdag 12 juni 2013 @ 23:40:
En Nvidia "letterlijk de duivel" noemen is ook wat overkill...
offtopic:
Haha nee, met de ziel aan de duivel verkopen doelde ik op Nederland m.b.t. Amerika, Rusland en China :+

[ Voor 4% gewijzigd door madmaxnl op 12-06-2013 23:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 12 juni 2013 @ 22:51:
Of je er beter of slechter van wordt doet er in mijn persoonlijke optiek totaal niet toe. Als je geen zaken met een partij wil doen omdat je hun filosofie en werkwijzen niet aanstaat moet je gewoon geen zaken met ze doen. Net zoals dat Nederland eigenlijk geen zaken zou moeten doen met Rusland, China en de VS. Ja we gaan er op achteruit, maar je weet wel dat je dan niet bijdraagt aan iets slechts waar je zelf schijnbaar beter van wordt.
Tja, daar heb je als bedrijf niks aan, er moet geld verdient worden, links om of rechts om. Als dat niet (gegoeg) gebeurd heb je gewoon een probleem. Natuurlijk kijk je naar filosofie en werkwijze, maar in de wereld van gpu's is er nou niet veel te kiezen, dus men zal echt niet een beslissing maken puur op die gronden, want dan ben je gezien.

Vind verder je vergelijk in voorbeelden tot Nvidia niet helemaal rijmen... Misschien is in jouw ogen Nvidia het 'as van het kwaad', maar zo erg zal het ook weer niet zijn.
Club3D vertrouwd nVidia denk ik niet meer want financieel gezien is dit natuurlijk een slechte zet.
Het zal echt niet alleen om vertrouwen gaan, want als de prognoses zouden uitwijzen dat ze er financieel echt flink op achteruit gaan, zal geen enkel bedrijf dat op basis van profit werkt zo'n beslissing maken.

[ Voor 13% gewijzigd door Verwijderd op 13-06-2013 00:08 ]


Acties:
  • 0 Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 20:22
Dat Club3D geen Nvidia kaarten meer verkoopt en exclusief naar ATI gaat zal hoogst waarschijnlijk met hun positie in de pik orde te maken hebben.

Als producten gewild zijn dan willen de partners zoveel mogelijk GPUs van Nvidia vooral bij nieuwe releases.
De grote bedrijven zoals Asus, MSI en waarschijnlijk nog wel meer zullen in de pikorde allemaal boven Club3D staan en zullen dus meer krijgen. De grotere bedrijven zullen waarschijnlijk ook de GPUs goedkoper krijgen.

Waarschijnlijk zag Club3D geen kans op verbetering in hun positie en denken ze dat ze bij ATI hoger in de pikorde kunnen komen als ze exclusief ATI gaan verkopen.

Dat is het enige wat ik kan bedenken. Want een bedrijf zoals Club3D gaat echt niet zo maar stoppen met een vrij groot deel van hun aanbod.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dit zou nog wel eens de beste onderbouwing van hun beweegredenen kunnen zijn. Als je met de nVidia AIBs onderling niet meer kunt concurreren door de door jou geschetste situatie dan is het niet meer dan logisch om naar het AMD kamp te verkassen.

Anderzijds, ze hebben al twee dochterondernemingen die AMD only zijn. Dus ze hadden met Club3D dan beter nVidia only kunnen gaan. Dan zit je waarschijnlijk in de zogenoemde pikorde wel boven Asus, Gigabyte en MSI, denk ik.

Sapphire en Zotac zijn beiden dochterondernemingen van PC Partner en ze zijn beiden respectievelijk AMD en nVidia only. Dit laatste heeft wel enkel en alleen betrekking op het uitbrengen van videokaarten. Zotac brengt namelijk ook AMD APU systeempjes op de markt v.z.i.w. en Sapphire is wat dat betreft ook niet volledig loyaal aan AMD. Die brengen namelijk ook Intel moederborden uit. Ik weet niet hoe AMD en nVidia dergelijke partners waarderen. Hiermee bedoel ik dus een moederbedrijf waarbij ze dus ook producten van de tegenpartij uitbrengt onder een, of een andere dochteronderneming. Of in het specifieke geval van Sapphire en Zotac, zelfs producten voor concurrerende partijen op de markt brengt.

Ik vraag me trouwens af wanneer we Asrock gaan zien als videokaartenboer, dat zouden ze volgens mij best wel goed kunnen. Zeker als ik kijk naar de goede prijs kwaliteit moederborden die ze uitbrengen waarbij ze het high-end segment tegenwoordig niet meer mijden.
Verwijderd schreef op donderdag 13 juni 2013 @ 00:05:

Vind verder je vergelijk in voorbeelden tot Nvidia niet helemaal rijmen... Misschien is in jouw ogen Nvidia het 'as van het kwaad', maar zo erg zal het ook weer niet zijn.
Begrijp me niet verkeerd, nVidia is heus niet als het kwaad der kwaad, maar ik zie ze liever gaan dan komen.

[ Voor 37% gewijzigd door madmaxnl op 13-06-2013 00:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Heeft iemand al iets vernomen van de rest van de gtx7xx line-up? Toch eens benieuwd wat we kunnen verwachten.

Acties:
  • 0 Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 20:22
madmaxnl schreef op donderdag 13 juni 2013 @ 00:43:
Dit zou nog wel eens de beste onderbouwing van hun beweegredenen kunnen zijn. Als je met de nVidia AIBs onderling niet meer kunt concurreren door de door jou geschetste situatie dan is het niet meer dan logisch om naar het AMD kamp te verkassen.

Anderzijds, ze hebben al twee dochterondernemingen die AMD only zijn. Dus ze hadden met Club3D dan beter nVidia only kunnen gaan. Dan zit je waarschijnlijk in de zogenoemde pikorde wel boven Asus, Gigabyte en MSI, denk ik.
Zelfs al zou Club3D Nvidia only gegaan zijn dan zouden ze nog steeds niet boven die bedrijven komen te staan in de pikorde.
Daarvoor zijn Asus, MSI en Gigabyte te groot.

Club3D is gewoon een leuke kleine fabrikant maar kan niet leveren wat de grote jongens leveren en heeft ook niet de naam.

[ Voor 7% gewijzigd door Deadsy op 13-06-2013 03:04 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
BIj je post moest ik meteen aan Tomb Raider denken, echter gezien het feit dat je er zelf al een (negative) opmerking over maakte, kan ik alleen maar zeggen: inderdaad. :p

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Jullie zijn wel druk met nvidia bashen, weinig te beleven in het AMD kamp? ;)

Volgens mij is dit het nvidia nieuws topic en niet het rant topic. Iets te weinig nieuws, iets teveel mening (naar mijn mening :+)

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Natuurlijk krijgt een dev een zak met geld als zij PhysX gaan gebruiken.
Dat is niet anders dan de "runs best on AMD/Nvidia" schermen in games. (of intel integrated in grid2 :D)
Of dacht je soms dat hier geen geld mee gemoeid was?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

unfor schreef op donderdag 13 juni 2013 @ 18:14:
[...]

Natuurlijk krijgt een dev een zak met geld als zij PhysX gaan gebruiken.
Dat is niet anders dan de "runs best on AMD/Nvidia" schermen in games. (of intel integrated in grid2 :D)
Of dacht je soms dat hier geen geld mee gemoeid was?
Zolang er geen bullshit proprietary tech gepushed wordt, stoort het me een stuk minder. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Precies ;)

Hopelijk gaan we dit drastisch minder zien, nu beide consoles op AMD draaien. Kom op AMD, push Havok eens met hun GPGPU integratie, dan zal Nvidia wel mee moeten en hun OpenCL/DirectCompute performance fixen :P

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
NVIDIA GeForce GTX 760 To Be Released On June 25th

http://videocardz.com/429...-be-released-on-june-25th

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 13 juni 2013 @ 00:43:
Begrijp me niet verkeerd, nVidia is heus niet als het kwaad der kwaad, maar ik zie ze liever gaan dan komen.
En dan twee keer zoveel voor je AMD kaart betalen? ;)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Haha nee, dan probeer ik nVidia wel eens ;) Zal me heus wel bevallen, maar dat is het hem nu juist. AMD heeft vaak ook nog eens de betere prijs/prestatie verhouding :)
Werelds schreef op donderdag 13 juni 2013 @ 19:14:
Precies ;)

Hopelijk gaan we dit drastisch minder zien, nu beide consoles op AMD draaien. Kom op AMD, push Havok eens met hun GPGPU integratie, dan zal Nvidia wel mee moeten en hun OpenCL/DirectCompute performance fixen :P
Havok FX is dood omdat Intel het destijds heeft overgenomen. Niet geheel onlogisch dat Intel Havok FX heeft begraven. Immers zoude ze AMD en nVidia in de hand hebben gespeeld als ze i.p.v. CPU berekende Havok physics engine overgaan op Havok FX (Havok physics engine met GPGPU ondersteuning). Intel zag de bui destijds hangen en heeft het zaakje niet voor niets overgenomen. Ze weten namelijk dat zij veel sterker zijn met CPUs en willen dan dus ook dat physics engines hier op leunen i.p.v. GPUs waar ze nog altijd niks hebben in te brengen. Havok is een van de meest gebruikte physics engines en i.t.t. PhysX van nVidia betalen uitgevers voor het gebruik van deze physics engine wel (kwaliteit en meerwaarden denk ik).

Er zijn nog anderen die ook werken aan GPGPU berekende physics, maar dat zijn kleine partijen vergeleken bij Havok. Als Havok zelfstandig was gebleven hadden we denk ik nu al wel een fatsoenlijke physics engine gehad die voor zowel AMD als nVidia had gewerkt en dan was iedereen happy.

"Both NVIDIA and ATI have previewed CrossFire and SLI Physics, however, neither company has delivered any actual physics hardware yet. It’s pretty interesting to note that both ATI and NVIDIA’s physics solutions rely on Havok FX. However, it is unlikely that Intel’s acquisition of Havok will affect Havok’s partnership with either AMD or NVIDIA."

“Havok will operate its business as usual, which will allow them to continue developing products that are offered across all platforms in the industry,” said Renee J. James regarding the future of Havok.
"

Hiervan wisten we toen en nu dat het BS is: nieuws: AMD: 'Voorlopig geen physics op de gpu'

nVidia dacht toen waarschijnlijk van: 'flikker maar op wij doen het zelf wel en we kopen Ageia'. Admirable, but mistaken.

Daarnaast zie ik dat men met GPGPU physics te veel wil. Ze laten meteen extreme berekeningen los onder het mom omdat het kan. Ja het wordt er realistischer door, maar qua performance impact is het niet om over naar huis te schrijven. Terwijl ze in mijn ogen juist wat gematigdere physics berekeningen die dus ook op een CPU kunnen lopen eerst maar eens zouden moeten overzetten naar de GPGPU. Dan win je namelijk aan performance. Nu is het namelijk zo dat je er op performance achteruit gaat en de effecten overdone zijn (uitermate realistisch).

Enfin, misschien dat HSA uiteindelijk wel wat moois kan gaan opleveren. APU plus een losse videokaart waarbij de APU, dus de interne GPU en CPU, de physics voor hun rekening nemen. Probleem hiermee is dat het dan dus niet op Intel werkt en dus veel draagvlak mist, zelfde probleem als met PhysX alleen dan nog groter.

[ Voor 48% gewijzigd door madmaxnl op 13-06-2013 20:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Schept toch wat meer duidelijkheid Calsonic, die 760ti is wel een interessante kaart. Aangezien de 670 niet erg ver van de 680 af lag qua performance, en die nog steeds voldoet op de populaire full-hd resolutie :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nope. Het is heel lang stil geweest, maar dat had andere redenen. We gaan het binnenkort in games zien :)

PS4 launch event: YouTube: Playstation 4 Graphics and Physics Demonstration HD - The power of playstation 4

Havok + GPU. En Watch_Dogs bijvoorbeeld heeft o.a. simulated cloth dat via Havok deels op de GPU loopt. Daar zit ook meteen de clou: deels. In tegenstelling tot Nvidia, wil Havok helemaal niet alles op de GPU rammen. Sommige dingen lopen gewoon net zo goed, of beter, op de CPU.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik blijf pessimistisch m.b.t. Havok FX, volgens mij gaat het niks worden anders is het een nutteloze overnamen van Intel geweest. We hebben het hier niet voor niets over een console ;) Daar is Intel, nog, niet actief met zijn eigen hardware. Er is dus geen reden om Havok daar enkel en alleen op de CPU te houden en daarmee nVidia en AMD dus geen voordeel te gunnen waarmee ze zichzelf ook nog eens zoude benadelen.

We gaan het wel zien met de PC versie van Watch Dogs. Als dezelfde physics engine daar in zit, met dezelfde GPGPU mogelijkheden (dus niet uitgeschakeld of ongebruikt), dan is er nog een sprankje hoop voor Havok FX :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ze hebben het al werkend op de console, dus ik begrijp je niet helemaal geloof ik :P

Beide nieuwe consoles zijn gewoon een dubbele Jaguar met een GCN 1.0 based GPU; de Xbox One is een grote grap (Microsoft gaat voor de volle harakiri met al hun onzin |:( ), maar de PS4 heeft er gewoon iets in zitten dat tussen een 7850 en 7870 zit qua specs. Prestaties zullen hoger liggen door de UMA en dergelijke, maar vanuit technisch oogpunt is de architectuur wel geschikt.

Het is tegenwoordig dan wel een dochter van Intel, maar ze zitten gewoon nog steeds in Ierland. Ze draaien ook nog steeds zelfstandig verder, ze hebben vorig jaar (of 2011? even niet zeker) ook niet voor niets Trinigy over genomen.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik meende dat de PS4 CPU physx ging ondersteunen.
http://gadgets.ndtv.com/g...x-and-apex-support-340963
Vandaar dat The witcher 3 ook physx heeft?

En het artikel van tweakers klopt ook niet helemaal want CPU physx werk al heel lang voor veel gamen.
Dus de naam "nvidia gpu physx only" die klopt niet helemaal in dat artikel.

[ Voor 31% gewijzigd door Verwijderd op 15-06-2013 11:07 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 15 juni 2013 @ 11:04:
Ik meende dat de PS4 CPU physx ging ondersteunen.
http://gadgets.ndtv.com/g...x-and-apex-support-340963
Vandaar dat The witcher 3 ook physx heeft?
Doen de PS3 en Xbox 360 ook. Alles ondersteunt CPU PhysX.
En het artikel van tweakers klopt ook niet helemaal want CPU physx werk al heel lang voor veel gamen.
Dus de naam "nvidia gpu physx only" die klopt niet helemaal in dat artikel.
Klopt wel, want veel van de features in PhysX worden ofwel geblokkeerd als je geen Nvidia GPU hebt of ze lopen als dikke stront door een trechter op de CPU. Dus ja, het "werkt" misschien wel, maar het werkt niet.

Alles in Apex kun je vergeten, dat loopt niet - dat is o.a. cloth en die vacht. En dat is nergens voor nodig, Havok kan het wel.

Acties:
  • 0 Henk 'm!

Verwijderd

Nee je praat nu onzin, het loopt tegenwoordig erg goed over de cpu, daar zijn bewijzen genoeg van zoals veel cpu physx games die met een AMD of nvidia kaart, dat loopt gewoon niet als stront maar heel erg soepel en je hebt de volledige physx effecten dan over de cpu draaien.

Let maar op als straks deze game uit gaat komen met cpu physx.op de console.

Hier een goed voorbeeld van cpu physx.
Afbeeldingslocatie: http://i44.tinypic.com/2nv8gfr.png

[ Voor 36% gewijzigd door Verwijderd op 15-06-2013 11:35 ]


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Volgens mij is de discussie al tig keer voorbijgekomen... en ik weet dat je de hardware niet 1:1 kan vergelijken... maar hoe zou een PS4/XBone zich verhouden tegen een PC met een 3e/4e generatie Intel processor en een GTX780? Ik heb namelijk het idee dat het nog nooit is voorgekomen dat de PC zó ver vooruit liep op een nieuwe console generatie (die nog niet eens uit is)

Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen. En dan heb je het over games die al lang en breed uit zijn (Crysis kwam in maart uit). Ik vind daarom mijn GTX780 een goede investering... met meer en betere PC-ports aan de horizon door vergelijkbare architectuur. In de toekomst speel ik BF4 lekker achter m'n bureau en kan ik dankzij het geniale Steam Big Picture Mode, een HDMI-kabeltje en een Xbox controller games als MGS5 en Dark Souls II vanaf m'n bank spelen.

Het is overigens ook geen verrassing meer, maar sommige (of alle?) XBone games op de E3 draaien op een GTX7xx:

http://www.cinemablend.co...idia-GTX-Cards-56737.html

Acties:
  • 0 Henk 'm!

Verwijderd

Klopt, ik lees hier wel eens mee maar wil nu toch eens reageren want half klopt het alleemaal niet over physx. Maar dat komt ook altijd bij 2 de zelfde personen weg en dat laat duidelijk zien dat ze niets van nvidia moeten hebben Ik vind dat meer topic vervuiling wat laat zien dat het nvidia base gedrag is en iedereen slikt dat hier ook nog eens, wat ik niet snap en beter blijven die 2 weg hier omdat het
1 niet 100% klot en 2 daar door flames/trolls uitlokken en daar door de boel voor de rest hier vern**ken.

Verder vind ik physx wat alleen op nvidia werkt ook niet eerlijk en ben daar helemaal niet voor. Maar vertel dan wel dat het strak ook meer over de cpu gaat werken in games en dat dat gewoon goed kan werken
over de cpu want dat doet het al. In het verleden werkte het wel brak op de cpu maar dan was het daar ook niet voor geoptimaliseerd omdat nvidia dat wilde tegen werken en omdat het hacks zijn van de gpu.

Maar nu ziet nvidia ook in dat het meer open moet zijn, dus voor de cpu zo dat iedereen van physc gebruik kan maken. Want dat kan gewoon goed werken. Wat niet goed werkt is gpu only physx hacken zo dat het op de cpu loopt, dat loopt indd als stront MAAR als het puur voor de cpu gemaakt is wekt het gewoon soepel.

Ik heb me hier verder ook speciaal aangemeld hier voor want vind de dingen die hier verteld worden erg storend. Niet omdat ik er zelf last van heb maar vooral omdat het gewoon NIET 100% klopt wat er word verteld, bijna alleen maar het negatieve te wel er ook positieve dingen aan zitten. En dat geldt over meerdere dingen van nvidia door 2 personen die het verzieken voor anderen hier en elders op het net.
Het is vroeger al eens begonnen over de dikke chips voor gpgpu ,dat schoot al in het verkeerde keelgat omdat die prestaties niet zou kloppen in game vanwege de grote van de gpu, en dat doe grote niets te maken had met gpgpu en daar door werden weer andere mensen gebanned omdat die tegen spreken.

[ Voor 78% gewijzigd door Verwijderd op 15-06-2013 13:52 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
PhysX loopt ook gewoon bagger op de CPU.. En waarom zou je nVIDIA software gaan gebruiken op een console die 0,0 met nVIDIA te maken heeft?

Verder,
hoe komen ze erbij dat er een GTX7xx in die pc zit? Die site kun je toch niet serieus nemen..

Acties:
  • 0 Henk 'm!

Verwijderd

Dat komt omdat het gpu physx hacks zijn daarom loopt het bagger op de cpu.
Maar als je physx games neemt waar bij physx alleen voor de cpu geoptimaliseerd is
loopt het in eens wel heel goed.

Hier physx voor de next gen console
http://finance.yahoo.com/...-microsoft-180000950.html

Kortom mensen hier word alleen de negatieve kanten besproken over physx.
Wat weer laat zien dat het is om nvidia te bashen.

Edit

En met een beetje geluk zien we dit terug op de console over de cpu.
Afbeeldingslocatie: http://i.minus.com/ibsjECZcZZqVuE.gif


Edit

De gtx780 vind ik persoonlijk wel wat te duur voor die prestaties. Maar dat zal wel komen omdat er geen concurrentie is op prestatie gebied. Verder vind ik het wel een goede videokaart want 1 met over clocken merk je ook echt verschil in games en 2 de reference gtx780 gaat al best ver, 1202mhz zijn geen uitzonderingen.

[ Voor 51% gewijzigd door Verwijderd op 15-06-2013 14:01 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
yinx84 schreef op zaterdag 15 juni 2013 @ 11:37:
Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen.
Ik vind Division anders een stuk beter uitzien dan de spellen die jij daar noemt.

Daarbij vergeet je even netjes hoeveel makkelijker het is om te optimaliseren voor een platform dat altijd hetzelfde is, t.o.v. de chaos bij het developen voor een pc, en hoeveel performance daarbij kwijt raakt.

Als laatste vergeet je nog even dat de GTX780 alleen al 1.5x zoveel kost als een PS4....

[ Voor 34% gewijzigd door Paprika op 15-06-2013 14:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

550 euro is nu de advies prijs van de gtx780. Ik geloof niet dat dat anderhalf keer zo veel is?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
En dat heeft hij ervoor betaald? ;)
Vrijdag 24 mei 2013 13:57
yinx84 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55"

en
En dat voor 'maar' 650. Heb hem zowat blind gekocht, uiteindelijk wel een goede keuze geweest
Klopt, meer dan 1.5x :+ ....

[ Voor 101% gewijzigd door Paprika op 15-06-2013 14:45 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja ik lees het, maar ik wist niet dat het ging om een aangekochte videokaart :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Zucht, gaan we weer. Ik zal nog maar eens een poging wagen.

Lieve PC-Gamer,

Ga jij eens even de Batman games, Mafia 2, Metro, Just Cause of Alice met PhysX op volle toeren -wat niet eens gaat want zoals ik zei, bepaalde effecten laten ze niet toe op de CPU- spelen puur op de CPU en kom dan nog maar eens beweren dat het niet klopt wat ik zeg. Als jij hier daadwerkelijk zoals je beweert mee zou lezen, zou je ook weten dat ik al meerdere malen heb gezegd dat PhysX 3.0+ een ander verhaal is. Echter is dat nog nergens echt gebruikt; zelfs Planetside 2 is nog vrij miniem.

Ik zal je even een kleine hint geven, met twee gelijkwaardige kaarten:
- 7970 + CPU PhysX: YouTube: Batman:Arkham City PhysX Benchmark on HD 7970 - 17/60/40
- 7970 + No PhysX: YouTube: Batman Arkham City Benchmark DX11 7970 GHz Edition Tahiti XT2 - 39/124/100

- 680 + GPU PhysX: YouTube: GTX680+3770K OC Batman Arkham City BENCHMARK - 32/90/69

Alle drie op een 3770K. Een 680 zonder PhysX zit op exact hetzelfde niveau als een 7970 GE; iets eronder zelfs (kan er helaas geen fatsoenlijke video van vinden): http://www.computerbase.d...n-hd-7970-ghz-edition/24/ (en let wel: dit is met de vroege drivers, hier zitten niet eens de performance boosts van december en januari bij!).

Met andere woorden: waar CPU PhysX maar liefst 60% performance kost in deze game, is dat met GPU PhysX net over de 30, doet dus maar half zo veel pijn. Veel belangrijker echter is dat het minimum bijna twee keer zo hoog ligt. Dus nee, ik (en anderen die het met me eens zijn) zitten niet fout als we zeggen dat PhysX op de CPU als dikke stront door een trechter loopt.
Maar dat komt ook altijd bij 2 de zelfde personen weg en dat laat duidelijk zien dat ze niets van nvidia moeten hebben
Als je daar mee onder andere mij bedoelt zit je wederom gigantisch fout. Ik heb inmiddels al zo'n 14 maanden een 680 en ik heb in de afgelopen +- 18 jaar een stuk of 8-9 Nvidia kaarten gehad tegenover een waanzinnige 4 of 5 van ATI/AMD. Waaronder een Geforce 1 + 2 en Voodoos (3DFX, die opgekocht zijn door Nvidia en waar hun SLI deels vandaan komt). Daarnaast had ik ook gewoon Nvidia toen PhysX voor het eerst naar Nvidia kwam (en de 2,5 jaar daarna voordat ik weer eens AMD had) en was het toen al niks. Ik loop al te lang mee om een voorkeur of hekel aan een van beide te hebben. PhysX daarentegen is een andere zaak.

Heb jij zelf wel eens een AMD/ATI kaart gehad en op CPU PhysX *moeten* spelen? Dat is geen pretje, helemaal niet als je een game eerst op Nvidia hebt gespeeld en dan later nog eens speelt op AMD. Wat mij betreft kan PhysX niet snel genoeg dood gaan. Nvidia is pas twee jaar weer een beetje bezig met PhysX na 3 jaar op hun gat te hebben gezeten, veel te laat en ze hebben hun kans gemist wat mij betreft.
yinx84 schreef op zaterdag 15 juni 2013 @ 11:37:
maar hoe zou een PS4/XBone zich verhouden tegen een PC met een 3e/4e generatie Intel processor en een GTX780?
..
Ik ben er van overtuigd dat een PS4/XBone een Crysis 3 of Metro: LL met alle sluizen open niet aankunnen. En dan heb je het over games die al lang en breed uit zijn (Crysis kwam in maart uit).
Daar vergis je je nog in. Wellicht niet met álle toeters en bellen en 60 FPS, maar dat kan zelfs een Titan niet. Het feit dat het geheugen gedeeld wordt tussen CPU en GPU maakt toch wel veel uit, er hoeft geen data over een (relatief) trage PCI-e bus. Verder zitten er ook minder lagen tussen de engine en de hardware. Allemaal kleine beetjes die die GPU in de PS4 APU toch flink vooruit stuwen. Het is allemaal geen monster spul natuurlijk, maar het is in elk geval een grote sprong vooruit t.o.v. de oude consoles. Gezien het kleine doosje waar Sony hun PS4 in heeft weten te proppen vind ik dat nog een aardige prestatie zelfs.

Overigens is er grafisch momenteel niet zo geweldig veel dat men kan verbeteren om alles mooier te maken. Ik denk ook niet dat daar de focus zal liggen, want de volgende stappen zijn dingen zoals raytracing, waar we nog niet klaar voor zijn. In plaats daarvan zal het voor PC gamers vooral om resolutie gaan; hopelijke gaan we meer 1440p/1600p panelen zien. Daar hebben we toch nog steeds meer GPU kracht voor nodig :D


@ spNk: ja dat is waar. HP computers met een Corsair H80i en GTX 780, heel duidelijk te zien op een hoop foto's van dat domme moment :)

[ Voor 3% gewijzigd door Werelds op 15-06-2013 15:18 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja ik speelde two worlds 2 en Brothers in Arms ook met CPU physx op op mijn hd7970 en dat loopt als een trein, maar het liep weer erg brak op een gtx460 (te weinig fps). Verder loopt Metro LL ook gewoon soepel met physx aan op max. Het enige wat zwaar word in Metro LL is SSAA daar voor is sli of cf nodig.
Met physx uit krijg ik niet in eens meer fps (gemiddeld zo'n 65-75fps).

Physx hoeft van mij helemaal niet dood te gaan, gaat het ook niet gelukkig. Ik vind alleen wel
dat CPU physx meer moet komen, en nu dat beter werkt dan in het verleden dan is dat een prima
oplossing voor mensen met een AMD kaart of een console. Of voor een gamedev die geen zin heft in gpu physx, wat mij betreft mag dan gpu physx wel helemaal verdwijnen.

[ Voor 42% gewijzigd door Verwijderd op 15-06-2013 15:53 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 15 juni 2013 @ 15:25:
Ja ik speelde two worlds 2 en Brothers in Arms ook met CPU physx op op mijn hd7970 en dat loopt als een trein, maar het liep weer erg brak op een gtx460 (te weinig fps). Verder loopt Metro LL ook gewoon soepel met physx aan op max. Het enige wat zwaar word in Metro LL is SSAA daar voor is sli of cf nodig.
Met physx uit krijg ik niet in eens meer fps (gemiddeld zo'n 65-75fps).
Nu weet ik wel zeker dat je het uit je duim zit te zuigen. Een 7970 of 680 haalt zonder PhysX niet eens de 50 FPS - zelfs volledig patched tikken ze 60 niet eens aan gemiddeld. Dus dan zitten we al meteen te kijken naar een lagere resolutie dan 1080p in jouw geval. Vervolgens weet ik ook wel 100% zeker dat je PhysX niet volledig aan hebt staan - als wij het hier over de volledige PhysX hebben dan moet je in Metro: LL "Advanced PhysX" aanzetten. In Batman betekent dat PhysX op High. Eind resultaat? YouTube: Metro Last Light Gameplay Radeon 7970 + FPS + Advance Physics ON - mag ik jouw magische PC even lenen die die +- 30 FPS verdubbelt? |:(

[ Voor 6% gewijzigd door Werelds op 15-06-2013 16:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik speel met een gtx780 1215mhz 2560x1080. GPU PHYSX advanced aan en SSAA uit.
Ik zal wel een screen shot maken om te laten zien dat ik niet lieg over metro LL.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Beste knul, dan zit jij sowieso al op GPU PhysX. Niet CPU PhysX.

En 2560x1080? Leuk verzonnen, wil je me nu zeggen dat jij LG's ultra widescreen hebt? :|

Draai de benchmark maar en bewijs het.

[ Voor 16% gewijzigd door Werelds op 15-06-2013 16:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De benchmark is ook veel zwaarder dan de game zelf. in de benchmark zelf haal ik ook maar gemiddeld zo'n 55-60 fps en tijdens het gamen 65-70 fps op 2560x1080. Moet ik daar een filmpje van maken want print screen werkt niet want ik wil ook laten zien dat gpu physx aan staat in het groen boven in beeld.
Als ik lieg mag ik hem hier stikken.

Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Paprika schreef op zaterdag 15 juni 2013 @ 14:42:
En dat heeft hij ervoor betaald? ;)


[...]

yinx84 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55"

en


[...]


Klopt, meer dan 1.5x :+ ....
Ik heb nergens geclaimt dat het goedkoper is he ;)

Dat the Division mooier is ben ik absoluut niet met je eens overigens. Wel dat men direct op de hardware kan programmeren waardoor men efficienter met resources om kan gaan.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 15 juni 2013 @ 16:37:
De benchmark is ook veel zwaarder dan de game zelf. in de benchmark zelf haal ik ook maar gemiddeld zo'n 55-60 fps en tijdens het gamen 65-70 fps op 2560x1080. Moet ik daar een filmpje van maken want print screen werkt niet want ik wil ook laten zien dat gpu physx aan staat in het groen boven in beeld.
Als ik lieg mag ik hem hier stikken.
Maak maar een filmpje waar je ook de settings laat zien. Maak maar gewoon met een telefoon voor mijn part, verlies je geen FPS door Fraps of iets dergelijks. Geen enkele benchmark of video die ik heb gezien staaft jouw resultaten. Overigens is 1080p 1920x1080, niet 2560x1080.

Dan nog is je punt complete onzin, want jij draait Metro op GPU PhysX terwijl we het over CPU hadden. Voor de rest, BiA: HH is een game uit 2008 met amper iets van PhysX (de eerste twee gebruikten Havok); TW2 kan ik me niet eens herinneren wat daar aan PhysX in zat.

Je gaf vervolgens ook niet aan dat je het bij Metro over een 780 had; je begint met "blablabla op 7970" en springt doodleuk naar Metro: LL.

[ Voor 43% gewijzigd door Werelds op 15-06-2013 16:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Filmpje met de telefoon zal ik nog doen. Die zal ik volgende week posten. Je vroeg zelf om metro LL met gpu physx. Maar in game haal ik gemiddeld 65-70fps omdat die benchmark een stuk zwaarder is.
Nee jij sprindt dood leuk naar metro LL omdat je mij niet gelooft en voor leugenaar uit maakte.
Afbeeldingslocatie: http://i40.tinypic.com/2romdn6.png

[ Voor 20% gewijzigd door Verwijderd op 15-06-2013 16:58 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 15 juni 2013 @ 16:53:
Fimpje met de telefoon zal ik nog doen. Die zal ik volgende week posten.
Je vroeg zelf om metro LL met gpu physx.
Maar in game haal ik gemiddeld 65-70fps omdat die benchmark een stuk zwaarder is.
In-door haal jij die 65-70 vast wel op sommige stukken. Buiten haal jij dat bij lange na niet. En als er binnen wat dingen ontploffen haal jij dat ook niet. Maximum FPS zijn leuk maar heb je niets aan.

Ik vroeg ook helemaal niet om GPU PhysX in eerste instantie, want jij deed het overkomen alsof je een 7970 had en dat CPU PhysX goed draait - in Metro. Zelfs GPU PhysX draait niet altijd even soepel. Ik weet ook uit eigen ervaring dat dat op de CPU absoluut niet zo is en heb ook bewijzen daarvan getoond. We hadden het de hele tijd over CPU PhysX en feit blijft dat dat gewoon als dikke stront door een trechter loopt. Bewijs het tegendeel maar, jij bent degene die dat met grote mond beweert en ik heb het tegendeel laten zien - the ball's in your court.

[ Voor 5% gewijzigd door Werelds op 15-06-2013 16:59 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Jawel dat haal ik wel, zucht kom anders hier kun je het zelf ff voluit spelen. Ik maak wel een screenshot van buiten maar dat geloof je denk ik ook niet. Het enige wat als dikke stront door een fles heen kuipt zijn jou'n woorden over physx.

Afbeeldingslocatie: http://www.imagedump.nl/

[ Voor 35% gewijzigd door Verwijderd op 15-06-2013 17:09 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Excuseer? Ik vraag je alleen om jouw beweringen eens te bewijzen. Nogmaals, ik vroeg helemaal niet om Metro + GPU PhysX, want in die post waar ik in eerste instantie op reageerde deed jij het overkomen alsof je een 7970 had.

En voor mijn part ga je nu screenshots posten waar jij buiten 700 FPS haalt (en nee, een enkel screenshot doet helemaal niks, want dat laat een moment opname zien). Allemaal leuk en aardig, maar je danst nu gewoon constant om het feit heen dat je nog steeds niks hebt laten zien dat jouw oorspronkelijke bewering (dat CPU PhysX goed loopt) ondersteunt.


Edit: enfin, ik heb er wel genoeg van. Ik weet niet waarom ik het überhaupt probeerde, vragen om feitelijk bewijs lijkt onmogelijk bij sommige mensen. Ik weet zelf in elk geval wel beter en de meeste mensen in deze thread ook wel. Als jij wilt blijven geloven dat CPU PhysX net zo lekker draait en dezelfde features heeft moet je dat vooral doen, heb ik geen last van. Houdt die beweringen asjeblieft wel voor je totdat je wat feiten kunt tonen.

[ Voor 27% gewijzigd door Werelds op 15-06-2013 17:15 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Zullen we anders afspreken lijkt me makkelijker. Dan kun je het zelf ook echt zien.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dat ik wat kan zien?

Want CPU PhysX doe jij niet aan en daar gaat het hier om ging het oorspronkelijk om. Jij hebt je zinnen nu echter gezet op je Metro FPS.

[ Voor 34% gewijzigd door Werelds op 15-06-2013 17:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dat ik gemiddeld in game zo'n 65-70 fps heb, ook buiten. Ik zal dan ook CPU physx aan zetten als dat ook mogelijk is?

Edit


Afbeeldingslocatie: http://i44.tinypic.com/71jqdf.jpg
Tinnypic ligt er even uit, anders kon je gewoon een plaatje zien en dat is 100% betrouwbaar
want ik ben geen leugenaar weer ik wel door jou van uit word gemaakt en daarom reageer ik ook zo.
En ook door die wijze onzin praat over physx over het internet te verspreiden want zo doende ben ik hier ook terecht gekomen. Ik weet zeker dat hier mensen zijn die al jaren het zelfde wil zeggen maar het niet doen omdat jij een tweaker bent die de voordelen krijgt bij de mods. Ik weet dat ik hier verder niet lang zal zijn maar dat boeit me niet, ik wou dit gewoon kwijt want zat er al weken mee. Te wel ik helemaal geen fanboy ben van nvidia. Maar goed als ik weg ben hoop ik dat iemand anders het over kan nemen wat als die negatieve dingen over physx en nooit de goede dingen zeggen kan gewoon echt niet.

Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in. En die game haalt voldoende fps voor een vloeiend beeld met physx over de cpu. Het kan allemaal wel degelijk alleen moet nvidia er wel wat moeite voor doen, doet nvidia dat niet dan krijg je brakke games zoals je zelf ook beschreef.

Gras, haar en planten enzv.
YouTube: Two Worlds 2 PC Gameplay HD

[ Voor 118% gewijzigd door Verwijderd op 15-06-2013 17:41 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zaterdag 15 juni 2013 @ 17:18:

Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in.
Als ik de filmpjes kijk van de physx implementatie in Two Worlds 2 dan ben ik niet echt onder de indruk, het is nauwelijks beter dan de physics in Crysis 1, een spel wat ondertussen al 6 jaar oud is. Dus ja als er zo weinig gebeurt dan geloof ik best dat je genoeg fps kan halen in dat spel. Feit blijft dat physx slecht geoptimaliseerd is voor de cpu, volgens mij had Werelds daar een heleboel pagina's terug uitleg over gegeven (iets met legacy x87 code en geen ondersteuning voor multi-threading).
Ik hoop dat het een langzame dood sterft en dat er een "Open" oplossing komt, bijvoorbeeld de Bullet physics engine.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 15 juni 2013 @ 17:18:
Dat ik gemiddeld in game zo'n 65-70 fps heb, ook buiten. Ik zal dan ook CPU physx aan zetten als dat ook mogelijk is?
Hangt af van de implementatie in Metro, maar als het goed is respecteert hij gewoon de setting in NVCP. Je kunt daar de GPU kiezen waar PhysX op moet lopen, of de CPU.
En ook door die wijze onzin praat over physx over het internet te verspreiden want zo doende ben ik hier ook terecht gekomen.
Ik wacht nog steeds op bewijs van jouw kant dat CPU PhysX goed draait (zie verder hieronder). Het is in elk geval geen onzin praat.
Ik weet zeker dat hier mensen zijn die al jaren het zelfde wil zeggen maar het niet doen omdat jij een tweaker bent die de voordelen krijgt bij de mods.
Dit is gewoon ronduit hilarisch, in welke vorm krijg ik voordelen van de mods? Ik val niemand persoonlijk aan, ik onderbouw m'n statements en het enige dat ik van jou (en anderen die op dezelfde manier reageren) vraag is dat je het gewoon met feiten onderbouwt, zoals men dat doet in een discussie.
Cpu physx draait gewoon goed. Als je bij voorbeeld Two worlds 2 neemt, daar zit best veel physx effecten in. En die game haalt voldoende fps voor een vloeiend beeld met physx over de cpu. Het kan allemaal wel degelijk alleen moet nvidia er wel wat moeite voor doen, doet nvidia dat niet dan krijg je brakke games zoals je zelf ook beschreef.

Gras, haar en planten enzv.
YouTube: Two Worlds 2 PC Gameplay HD
#1: Gras/vegetatie? Niet PhysX. Kijk maar eens goed, wordt niet gesimuleerd. Timing is hartstikke scheef en de manier waarop het weg valt is altijd hetzelfde. Wordt zelfs aangetrokken door de speler. Zeer zeker niet PhysX of überhaupt een vorm van physics.
#2: Haar? Zou kunnen. Ziet er dan wel erg slecht uit moet ik zeggen, evenals de kleding; Batman: AA deed dat stukken beter een jaar eerder. Ze maken er dus maar weinig gebruik van.

Ik kan ook helemaal niks vinden over PhysX in Two Worlds II en afgaande op de periode waarin het uitkwam betekent dat dat het de oude PhysX SDK is en waarschijnlijk op dezelfde manier gebruikt als in TW1. Dat wil zeggen: ragdolls, animaties en rigid bodies. Allemaal dingen die sowieso niet op de GPU kunnen lopen en dan ook nog relatief eenvoudig zijn (zaten ze in HL2 ook al en PC's hadden er toen ook geen moeite mee). Het zijn juist de intensieve berekeningen zoals soft bodies, particles, kleding die nu erg slecht lopen in PhysX.

Als jij zegt dat het allemaal goed loopt in TW2 geloof ik dat best - ik heb de game zelf niet gespeeld, omdat ik het eerste deel al niet zo geweldig vond. Neemt niet weg dat ik zo uit m'n hoofd 7 hele grote games heb genoemd waar het weldegelijk als dikke stront loopt en dat jij dat volledig negeert. Niet eenmaal, maar meerdere malen. En dat waren stuk voor stuk grote games waar PhysX veel meer in werd gebruikt dan in TW2. En als PhysX daadwerkelijk zo goed liep als jij denkt dan had Volition voor Red Faction: Guerrilla wel PhysX gebruikt en niet Havok dat ook gewoon op de CPU loopt. Sterker nog, er is geen game met PhysX die dat soort physics doet.


@ Sp3ci3s8472: klopt, heb ik al eerder gedaan :)

Geen native multi-threading (m.a.w. single-core tenzij de programmeurs handmatig PhysX aanpassen om op meerdere threads te lopen), geen SSE instructies en nog wat meer van dat soort grappen. Er zitten inmiddels wel wat SSE2 instructies in PhysX (2.8.4), maar multi-threading zit er pas vanaf 3.0+ in en die zien we nog niet in games. Multi-threading spreekt denk ik voor zich waarom dat belangrijk is. SSE instructies zijn (versimpeld uitgelegd) goed voor het herhaaldelijk uitvoeren van dezelfde berekeningen met decimale getallen. Die worden dan op een speciale manier versneld uitgevoerd - als je natuurkunde hebt gehad snap je ook waarom dat zo belangrijk is ;)

Overigens stamt SSE al van de Pentium 3 tijd, SSE2 van Pentium 4. Dus ja, dat had er al lang in moeten zitten.

Maar goed, ik verzin dit vast allemaal, het is niet alsof anderen dit hebben geconstateerd en bewezen ofzo |:(

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Heeft er al iemand meer info over de "nieuwe" gtx 760 kaarten?

Voor zover ik gelezen heb op het internet heeft nvidia deze al voorgesteld op computex en volgens de geruchten zouden deze in juni gelanceerd worden.
Maar tot nu toe blijft het er wel héél stil over.
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.

Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.

Voordat de mensen nieuwe hoop krijgen: het gaat gewoon over gerelabelde GTX670 kaarten voor zover ik het verstaan heb. Wellicht een beetje aangepast maar veel meer moet je er niet van verwachten.
Waarom niet veel meer, ik vind dat een mid-end kaart maar 1 power supply extra zou mogen krijgen (6 pins voor de verduidelijking).
Een kaart die enorm veel zuipt (en dus lawaai/warmte genereeert) is niet echt dé mid end kaart die velen op het oog hebben. Maar bon wie weet dat de performantie zo goed is dat het de oudere serie uit de markt prijst (en vooral de amd concurrentie zeer zal doen :s)

PS: de TS heeft werkelijk een grote update nodig, kzal me eens proberen deze week mee bezig te houden (min of meer tijd voor een nieuw deeltje :P )

Specs


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
lightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Heeft er al iemand meer info over de "nieuwe" gtx 760 kaarten?

Voor zover ik gelezen heb op het internet heeft nvidia deze al voorgesteld op computex en volgens de geruchten zouden deze in juni gelanceerd worden.
Maar tot nu toe blijft het er wel héél stil over.
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.

Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.

Voordat de mensen nieuwe hoop krijgen: het gaat gewoon over gerelabelde GTX670 kaarten voor zover ik het verstaan heb. Wellicht een beetje aangepast maar veel meer moet je er niet van verwachten.
Waarom niet veel meer, ik vind dat een mid-end kaart maar 1 power supply extra zou mogen krijgen (6 pins voor de verduidelijking).
Een kaart die enorm veel zuipt (en dus lawaai/warmte genereeert) is niet echt dé mid end kaart die velen op het oog hebben. Maar bon wie weet dat de performantie zo goed is dat het de oudere serie uit de markt prijst (en vooral de amd concurrentie zeer zal doen :s)

PS: de TS heeft werkelijk een grote update nodig, kzal me eens proberen deze week mee bezig te houden (min of meer tijd voor een nieuw deeltje :P )
25 juni releasedate
http://videocardz.com/429...-be-released-on-june-25th

specs
http://videocardz.com/430...x-760-has-1152-cuda-cores

3DMark11
http://videocardz.com/430...mark11-performance-leaked

[ Voor 5% gewijzigd door calsonic op 18-06-2013 09:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk ook dat de gtx760 GPU boost 2.0 heeft en daar door iets andere (meer) opties heeft.
Bijvoorbeeld het bepalen bij welke temperatuur de videokaart pas terug gaat clocken, dat is op zich
al een voordeel wat ik op merkte met de gtx780.

[ Voor 6% gewijzigd door Verwijderd op 18-06-2013 09:42 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Heeft er al iemand meer info over de "nieuwe" gtx 760 kaarten?
Iets sneller dan een GTX 660 Ti, maar toch minder Cuda Cores, iets trager dan een GTX 670 en een prijs van rond de 250 euro of 300 dollar zou je denken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

lightdestroyer schreef op dinsdag 18 juni 2013 @ 09:28:
Wat ik opmerk is wel dat sommige winkels al hun gtx660 kaarten goedkoper aan het aanbieden zijn in de prijsrange van de nieuwe kaart.

Gerucht: nieuwe GTX 760: 250 dollar (lees 250 euro XD) dat betekent dat de GTX660 TI wellicht wel rond de 200 zal hangen en de huidige GTX660 150/160 euro .. Waar je hem vandaag in sommige shops (zelf in België!) bijna al aan kan vinden.
De GTX670 is nu ook al redelijk onder de 300,- gedoken (mocht ook wel een keer...) De MSI Power edition OC voor ~ 288,- bij Azerty is best aardig. Maarja, met de nieuwe kaart voor de deur die 'm gaat vervangen is het als nog niet slim om 'm te koper... De GTX660 ti en 660 zakken idd ook al steeds verder, goed voor de consument en zet weer lekker wat druk op AMD om mee te gaan, en das altijd goed!

Acties:
  • 0 Henk 'm!

Verwijderd

AMD mag van mij ook zo de prijzen omlaag gooien, dan moet nVidia uiteindelijk wel mee. Dan blijft het ook interessant om te upgraden voor de casual gamer.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Daar hoeven we niet op te hopen. Tenzij AMD inderdaad stiekem een refresh doet met iets grotere chips zit dat er gewoon niet in. AMD zit al 9 maanden relatief laag, Nvidia voelt zich niet écht genoodzaakt verder te zakken met de high-end chips.

[ Voor 4% gewijzigd door Werelds op 19-06-2013 19:18 ]


Acties:
  • 0 Henk 'm!

  • Flaat
  • Registratie: Oktober 2009
  • Laatst online: 05-09 09:38
Vraagje uit interesse, hoe doen retailers van nvidia kaarten het als nvidia een prijs segment verandering doorvoert zoals de 680->770 nu. Wat doen ze met de 500 euro kaart die opeens 350 waard is geworden?

Lijkt me flink kut als je nog met een voorraadje 680's zit namelijk.

Iemand die daar wat meer over weet?

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Een goede winkel heeft genoeg contacten met fabrikanten, nVidia, leveranciers om zo'n situatie deels te voorkomen. Maar het is wel zo dat er een heleboel mensen niet zo blij waren met deze rebrand (en dan vooral de price drop).

Of gewoon de marge van GTX680 op 0.1% zetten. Dan geraakt het sowieso wel buiten. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Nvidia gaat technologie Kepler-gpu's in licentie verstrekken

Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.

Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.

[ Voor 62% gewijzigd door madmaxnl op 20-06-2013 00:30 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 20:58
Ik denk dat AMD dan nog steeds (en zelfs beter) op prijs kan concurreren.

Acties:
  • 0 Henk 'm!

Verwijderd

Noel schreef op donderdag 20 juni 2013 @ 00:22:
Een goede winkel heeft genoeg contacten met fabrikanten, nVidia, leveranciers om zo'n situatie deels te voorkomen. Maar het is wel zo dat er een heleboel mensen niet zo blij waren met deze rebrand (en dan vooral de price drop).

Of gewoon de marge van GTX680 op 0.1% zetten. Dan geraakt het sowieso wel buiten. :)
Maar is de gtx680 niet EOL?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
madmaxnl schreef op donderdag 20 juni 2013 @ 00:24:

Nvidia gaat technologie Kepler-gpu's in licentie verstrekken

Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.

Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.
Leuk voor Intel vooral. ARM chip bouwers gaan niet aan Nvidia betalen. Qualcomm en hun Radeon Adreno doen het best wel aardig. IT met hun PowerVR ligt ver voor op Qualcomm en Nvidia. En dan heb je het eigenlijk grotendeels gehad. Apple werkt toch alleen met IT.

Ik vraag me alleen af of Kepler wel gaat werken op een kleinere schaal als iGPU of in Logan volgend jaar. We hebben inmiddels gezien dat ze veel ruimte nodig hebben voor een chip die zowel qua rendering als GPGPU goed loopt en dat gaat uiteraard met name in mobiele platforms niet. AMD gaat juist zo lekker omdat ze alles zo klein kunnen houden. Kepler is wel beter dan Fermi, maar of ze IT kunnen bijbenen (laat staan verslaan)?

Acties:
  • 0 Henk 'm!

Verwijderd

mitsumark schreef op donderdag 20 juni 2013 @ 01:03:
Ik denk dat AMD dan nog steeds (en zelfs beter) op prijs kan concurreren.
Het is nog steeds slimmer om een duurdere Intel te kopen, die moet je veel minder snel vervangen ... Komt er nog eens bij dat hij een stuk minder stroom verbruikt ... Na enige tijd ben je toch goedkoper af met Intel ...
AMD kan trouwens niet oneindig blijven zakken met z'n prijzen ... Uiteindelijk gaan ze niet meer deftig kunnen blijven innoveren ... >:)
madmaxnl schreef op donderdag 20 juni 2013 @ 00:24:

Nvidia gaat technologie Kepler-gpu's in licentie verstrekken

Leuk voor de diverse ARM chip bouwers. Wellicht ook nog wel interessant voor Intel. Als ze willen kunnen ze nu voor hun GPU gedeelte voor hun desktop en notebook chips bij nVidia aankloppen. Voor hun tablet en smarthphones chips hebben ze PowerVR GPUs in licentie. Logisch ook, want hun eigen GPUs zijn nog niet goed genoeg. Die zijn in relatieve zin in elk opzicht slechter dan de concurrenten. Voor hun desktop en notebook producten zouden ze dus best wel bij nVidia aan kunnen kloppen.

Mocht dit gebeuren dan ben ik bang dat er niet meer veel van AMD APUs overblijft. Alhoewel HSA nog wel eens flink zou kunnen verbazen.
Intel gaat ook niet meteen op de kar springen ... voor de eerstvolgende generatie nieuwe processoren is het al te laat en is Intel waarschijnlijk al aan het sleutelen aan snellere geïntegreerde GPU's. Ze zullen misschien al wat verkennend gaan rondkijken, maar eerst zullen ze wel kijken wat de resultaten zijn na 1 of 2 nieuwe processorlijnen ... Nuja, speculaties ... het zijn maar gissingen en vermoedens he, toekomstvoorspellen is geen exacte wetenschap ;)

[ Voor 56% gewijzigd door Verwijderd op 21-06-2013 11:56 ]


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

kosten vs stroomverbruik.... dat kun je verwaarlozen.
Stel je GPU verbruikt 50watt minder.

Dan kun je 20 uurtjes gamen voor 1 hele KWh.. wat kost een kwtje tegenwoordig? 40cent.totaal?
Neem even dat je 3 a 4 uur per dag gamed => pak even die 20uurtjes per week.

Dan bespaar je 40 cent per week x 52weken is amper 21,- per jaar. Neem ruim 25,-
Waar doe je de moeite voor? 25,- per jaar op een game kaartje van 350+ euro

Een keer een pilsje minder in de kroeg, een keer vaker de fiets pakken, minder roken, een keer een filmpje downloaden ipv de bios... kijk dan schiet je op.

[ Voor 17% gewijzigd door mukkel op 21-06-2013 12:00 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Minder roken, ik geloof dat jij niet helemaal lekker bent :7

[ Voor 4% gewijzigd door madmaxnl op 21-06-2013 16:00 ]


Acties:
  • 0 Henk 'm!

  • Robolokotobo
  • Registratie: December 2009
  • Laatst online: 16-09 09:47
Ja, waar haal je het idee vandaan :P :7

Je kan trouwens denk ik beter besparen door je energie slurpende 5 jaar oude LCD/Plasma te vervangen door een zuinige nieuwe LED TV (Dat heb ik in de planning liggen). Het verschil in energieverbruik is vaak erg groot.

En dan koop je straks een PS4 voor 400 euro i.p.v. een duizend euro game PC. Is vast ook een stuk zuiniger dan de PC.

Dat is anders wat dan kiezen voor Intel i.p.v. AMD omdat die een beetje zuiniger is.

[ Voor 105% gewijzigd door Robolokotobo op 21-06-2013 17:07 ]

Ryzen 7 5700X 16GB RTX 5060 1TB NVMe


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
http://www.anandtech.com/...-scaling-pcie-2-vs-pcie-3

Heeft in elk geval al meer invloed dan in het verleden, maar nog steeds bar weinig. Dit is hetzelfde als PCI-e 3 x16 vs x8 voor diegenen die dat niet weten (3.0 x16 = exact het dubbele van 2.0 x16).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

mukkel schreef op vrijdag 21 juni 2013 @ 11:58:
kosten vs stroomverbruik.... dat kun je verwaarlozen.
Stel je GPU verbruikt 50watt minder.

Dan kun je 20 uurtjes gamen voor 1 hele KWh.. wat kost een kwtje tegenwoordig? 40cent.totaal?
Neem even dat je 3 a 4 uur per dag gamed => pak even die 20uurtjes per week.

Dan bespaar je 40 cent per week x 52weken is amper 21,- per jaar. Neem ruim 25,-
Waar doe je de moeite voor? 25,- per jaar op een game kaartje van 350+ euro

Een keer een pilsje minder in de kroeg, een keer vaker de fiets pakken, minder roken, een keer een filmpje downloaden ipv de bios... kijk dan schiet je op.
Stroomverbruik bij idle en licht gebruik is behoorlijk veel lager geworden. Zo gebruik ik mijn PC het meest en dat heeft behoorlijk grote invloed op verbruik. Dat is eigenlijk relevanter dan verbruik bij gamen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik vind temperatuur een belangrijker kwestie als het gaat over gebruik.
Lagere tdp = lagere temperature = stillere fan(hopelijk)

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

tomcatha schreef op vrijdag 21 juni 2013 @ 17:24:
Ik vind temperatuur een belangrijker kwestie als het gaat over gebruik.
Lagere tdp = lagere temperature = stillere fan(hopelijk)
= langere levensduur, vooral bij kaarten die heel warm worden. Op dit forum zie je toch de vaak topics over high-end kaarten die doodgaan, met name dure kaarten (hoog TDP) met el-cheapo koeling.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Gray|IA
  • Registratie: Juli 2004
  • Laatst online: 01-06-2021

Gray|IA

geen ondertitel

Vandaag men Palit GTX 770 jetstream ontvangen, past 'net' in men bitfenix prodigy, 0mm speling met de rand (en het zijpaneel gaat er niet meer op...)

Verder haalt de gtx 770 zijn stroom uit een 400W voeding wat na de eerste benchs geen problemen veroorzaakt.

Dit is mijn setup, wat initieel eigelijk alleen als zuinige server gebruikt zou worden... :) :)
Intel Core i3 3220 (Socket 1155) (55W tdp)
Be Quiet! 400W Straight Power E9 gold Voeding
Intel DH77DF (Socket 1155)
Corsair 8GB PC3-12800 Vengeance Low Profile DDR3 SDRAM (2x 4GB, 1600MHz, CL9)
1 Western Digital 3TB Red (SATA-600, 3.5")
1 Intel SSD830 128GB

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
En de nieuwswaarde? Post zoiets gewoon in het Het Nvidia GTX6xx ervaring topic, of maak even een duplicaat voor GTX7xx kaarten.
Allemaal leuk en aardig ansicht, maar nieuws is het zeker niet, en discussie waardig ook niet echt. Misschien het feit dat een dual core i.c.m. een opgevoerde GTX 680 een beetje raar staat, maar daar blijft het toch echt wel bij... /3

Acties:
  • 0 Henk 'm!

Verwijderd

Het gaat iig over nVidia, dat vind ik al heel wat als je terug bladert in dit topic.

Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Meer info over de GTX 760, o.a. release datum 25 juni.

http://www.bouweenpc.nl/n...ia-geforce-gtx-760-gelekt

[ Voor 11% gewijzigd door PerlinNoise op 21-06-2013 20:04 ]

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • Kridri
  • Registratie: Juli 2012
  • Laatst online: 27-08 12:56
Weet iemand wanneer nVidia eindelijk eens een GPU gaat uitbrengen met dual displayport?

Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Waarschijnlijk als ze van mening zijn dat displayport meer wordt gebruikt dan DVI/HDMI, en dat zal tot op heden zeker niet het geval zijn....

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Goede adoptie van DP gaan we waarschijnlijk zien bij het goed betaalbaar worden van 4k monitoren (of i.i.g. >2560x1600). Bij resoluties hoger dan 2560x1600 is het gebruik van DP vereist. Volgens mij gaan HDMI en DVI namelijk niet hoger dan die resolutie.

Zolang de markt van monitoren die DP vereisen klein blijft zal het gebruik van DP op videokaarten ook klein blijven. Het gebruik van DP op videokaarten loopt wel voor op het daadwerkelijk nodig hebben ervan. Anders krijg je een kip, ei probleem.

Acties:
  • 0 Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 20:22
madmaxnl schreef op zaterdag 22 juni 2013 @ 02:04:
Goede adoptie van DP gaan we waarschijnlijk zien bij het goed betaalbaar worden van 4k monitoren (of i.i.g. >2560x1600). Bij resoluties hoger dan 2560x1600 is het gebruik van DP vereist. Volgens mij gaan HDMI en DVI namelijk niet hoger dan die resolutie.

Zolang de markt van monitoren die DP vereisen klein blijft zal het gebruik van DP op videokaarten ook klein blijven. Het gebruik van DP op videokaarten loopt wel voor op het daadwerkelijk nodig hebben ervan. Anders krijg je een kip, ei probleem.
HDMI kan ook hoger dan 2560x1600 bij de laatste versies.

Acties:
  • 0 Henk 'm!

  • Kridri
  • Registratie: Juli 2012
  • Laatst online: 27-08 12:56
Blijft wel jammer. Ik zou liever 2 monitoren aansluiten via Dp dan een met hdmi en een met DP

Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 20:58
Kridri schreef op zaterdag 22 juni 2013 @ 10:51:
Blijft wel jammer. Ik zou liever 2 monitoren aansluiten via Dp dan een met hdmi en een met DP
Dat kan toch al?

Ik merk overigens geen verschil tussen mn monitoren (2x via DP, 1x via DVI).

Acties:
  • 0 Henk 'm!

  • Kridri
  • Registratie: Juli 2012
  • Laatst online: 27-08 12:56
mitsumark schreef op zaterdag 22 juni 2013 @ 10:55:
[...]

Dat kan toch al?

Ik merk overigens geen verschil tussen mn monitoren (2x via DP, 1x via DVI).
Doet u dan dat met daisy chaining of op welke manier?

Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 20:58
Kridri schreef op zaterdag 22 juni 2013 @ 10:59:
[...]
Doet u dan dat met daisy chaining of op welke manier?
Ah sorry, nvidia topic (had ik niet door), ik heb amd kaarten.

Acties:
  • 0 Henk 'm!

  • Kridri
  • Registratie: Juli 2012
  • Laatst online: 27-08 12:56
Ik dacht het al, mar geen probleem. Ben wel opzoek naar iemand de daisy chaining kan bevestigen bij de gtx 770 met 2 dell ultraharp U2312HM

Als iedereen een klein beetje luier was, zouden er een heleboel problemen zo de wereld uit zijn


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Deadsy schreef op zaterdag 22 juni 2013 @ 02:54:
HDMI kan ook hoger dan 2560x1600 bij de laatste versies.
Alleen op 24 Hz. 60 Hz komt pas in HDMI 2.0.

DP 1.2 kan al 4K bij 60 Hz aan, tot 30bpp; als je zakt naar 24bpp is ook 3D mogelijk op die resolutie op 60 Hz :)

Acties:
  • 0 Henk 'm!

  • mvds
  • Registratie: November 2000
  • Laatst online: 13-09 12:39

mvds

Totally awesome!

Ik hoop wel dat de prijs een beetje gunstig gaat worden. Ik twijfel nu over de aanschaf van een GTX660 die voor €175 te koop is. Ik zou graag een 760 willen, als die niet ineens (zoals geruchten gaan) tussen de €250 en de €300 zal komen te liggen. Want dan haak ik af. Maar die geruchten waren waarschijnlijk gebaseerd op het feit dat ze dachten dat 760 een opnieuw uitgebrachte 670 zou worden.

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Der zit toch amper/geen verschil tussen 600 kaartjes en de 700 serie ( tenminste onder de 780 )
Ander naampje, iets andere klok. Gewoon ouderwets rebrand.

Wat let je dan om geen 660 te kopen.

Acties:
  • 0 Henk 'm!

  • mvds
  • Registratie: November 2000
  • Laatst online: 13-09 12:39

mvds

Totally awesome!

Nou, de prijs eigenlijk :) Aangezien morgen de GTX760 uitkomt, zou het kunnen dat de prijs van de GTX660 en de GTX660Ti daardoor gaat zakken. Dus ik wacht even de introductieprijs af van de 760, en kijk wat de prijs van de 660 daardoor gaat doen :)

Als de 760 gelijkwaardige performance laat zien, en ook een vergelijkbare prijs, dan ga ik liever voor de 760 dan de 660 :) Maar dat is gewoon eigen voorkeur hoor :)

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

De prijs zal niet echt snel zakken, aangezien de 670 en 680 ook lekker op de zelfde hoogte blijven na de release van de 770 / 780

Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

Specs van GTX760
GPU

Manufacturer: NVIDIA

Specs status: Rumored

GPU Series: GeForce 700

GPU Model: GK104-325

Fabrication Process: 28nm

CUDA Cores: 1344

TMUs: 112

ROPs: 32


CARD

Dimensions (inches): 9.5 / 4.4 / Dual-slot

Display Outputs: 1 / 1 / 1 / 1 / 0 / 0


SUPPORT

Bus Support: PCI-E 3.0 x16

DirectX Support: 11.1

OpenGL Support: 4.2


CLOCKS

GPU Base Clock: 915 MHz

GPU Boost Clock: 980 MHz

Memory Clock: 1625 MHz

Effective Memory Clock: 6500 MHz


MEMORY

Memory Size: 2048 MB

Memory Type: GDDR5

Memory Bus Type: 256-bit

Memory Bandwidth: 208 GB/sec


POWER

Power Draw 175 W / – W

Min Required PSU: 500 W

Power Connectors: 2 x 6-pin

Temperature: – C / – C / – C

Noise Level: – dBA / – dBA

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

Verwijderd

mvds schreef op maandag 24 juni 2013 @ 13:10:
Nou, de prijs eigenlijk :) Aangezien morgen de GTX760 uitkomt, zou het kunnen dat de prijs van de GTX660 en de GTX660Ti daardoor gaat zakken. Dus ik wacht even de introductieprijs af van de 760, en kijk wat de prijs van de 660 daardoor gaat doen :)

Als de 760 gelijkwaardige performance laat zien, en ook een vergelijkbare prijs, dan ga ik liever voor de 760 dan de 660 :) Maar dat is gewoon eigen voorkeur hoor :)
Je spreekt voor ons beide ... 3 daagjes kan ik nog gerust wachten om te zien wat de eigenlijke specs zijn (ipv diegene die 'gegist' worden ...) en dan kan ik beter vergelijken wat er vergeleken moet worden. Mochten er prijzen zijn die een duik nemen ... graag ... bonus :D

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Afbeeldingslocatie: http://content.hwigroup.net/images/news/NVIDIA_GeForce_GTX700.png


De 760 is dus de vervanger voor de 660TI.
Eind van het jaar nog de 790 en dan zit de 700 serie er weer op.
Niet echt een boeiende serie tov de 600 imo,
Pagina: 1 ... 12 ... 30 Laatste

Dit topic is gesloten.