[Algemeen] nVidia Nieuws & Discussie Topic - Deel 39 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 21.845 views

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zaterdag 10 oktober 2009 @ 18:43:
[...]


AMD's drivers voor zowel CPU en GPU liggen ter certificering klaar. Het is nu niet aan hen hoe snel het certificaat vergeven wordt.
Daarnaast, wat bedoel je achterliggen met backwards compatibility van DirectCompute? DirectCompute is al in gebruik bij 1 spel, waar het ook een wezenlijk verschil toont. Dit wordt echter alleen ondersteund door 1 merk GPU, namelijk aan AMD-gpu. Het spel? Battleforge.
Dat is CS5.0 en dus DX11, de kaart van Nvidia is zoals bekend verondersteld mag worden nog niet uit. CS4.0 en 4.1 wordt wel ondersteund door Nvidia, maar is voor ATI geen prioriteit. ATI kennende duurt het nog een tijdje voor hun bestaande klanten CS kunnen gebruiken. Als het al ooit gebeurt.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 18:42:
[...]

Elke keer als ik die PR physx filmpjes zie denk ik, meh, een goeie CPU oplossing zou dit ook kunnen.
En heb je ook een bron waarop deze gedachte gebaseert is? Of zeg dit alleen maar, omdat je het sowieso slecht vindt omdat het van nVidia afkomstig is?

Ik wil nog wel zien dat een bestaande AMD processor Physx effecten zoals bijvoorbeeld in dit filmpje te zien zijn: http://www.youtube.com/watch?v=iyg9HgiD8X0 kan uitvoeren en een vergelijkbare framerate kan halen als een nVidia gpu.

Acties:
  • 0 Henk 'm!

Verwijderd

Tyranium schreef op zaterdag 10 oktober 2009 @ 19:06:
[...]

En heb je ook een bron waarop deze gedachte gebaseert is? Of zeg dit alleen maar, omdat je het sowieso slecht vindt omdat het van nVidia afkomstig is?
Leuk dat soort demo's maar ik heb het over Batman en eigenlijk vooral over Mirrors Edge. Dat vind ik gewoon tegen vallen qua wat je over je beeld ziet gaan. Dan denk ik. Een goeie CPU implementatie zou dat ook wel kunnen. En wil je ophouden met insinueren dat ik blijkbaar een of andere fanboy ben. \

Edit: En als ik andere games zie bijvoorbeeld havok gebruiken, denk ik, nou zo veel beter is het dus niet.
[YouTube: http://www.youtube.com/watch?v=3bKphYfUk-M]

[ Voor 34% gewijzigd door Verwijderd op 10-10-2009 19:15 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op zaterdag 10 oktober 2009 @ 18:34:
btw, over die Physix crap... ik geloof in CPU physics O-),
Ik moet de CPU physics demo nog zien die dezelfde effecten met dezelfde snelheid op het scherm toont als GPU physics. Ik geloof in wat ik zie gebeuren, niet in wat anderen geloven.
of misschien mocht er een streaming processor op de CPU geïntegreerd zijn kan je daar ook physics op draaien.
Alleen hebben we nog geen general purpose CPU's met geintegreerde streaming processor in onze PC.
GPU physics zijn beperkt tot een aantal fancy effectjes die niets aan de gameplay toevoegen en voor interactieve physics zijn de afstand tussen cpu & gpu te groot.
Met die filosofie kunnen we games weer op 320x240 LQ 0xAA/0xAF draaien.
Realistischer graphics voegen immers toch niets toe aan de gameplay.

[ Voor 5% gewijzigd door Cheetah op 10-10-2009 19:12 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:07:
[...]

Leuk dat soort demo's maar ik heb het over Batman en eigenlijk vooral over Mirrors Edge. Dat vind ik gewoon tegen vallen qua wat je over je beeld ziet gaan. Dan denk ik. Een goeie CPU implementatie zou dat ook wel kunnen. En wil je ophouden met insinueren dat ik blijkbaar een of andere fanboy ben.
Oh, in je vorige post had je het over "nVidia PR phyxs filmpjes", maar zal wel mijn fout zijn 8)7. En ik insinueer helemaal niks, ik vraag alleen hoe je je post bedoeld.

En in Mirror's Edge en Batman zaten inderdaad niet de meest wereldschokkende Physx effecten, maar het is een mooi begin. Meer games zitten in de pipeline. AMD verkoopt voorlopig alleen nog maar gebakken lucht op dit gebied.

Acties:
  • 0 Henk 'm!

Verwijderd

Tyranium schreef op zaterdag 10 oktober 2009 @ 19:15:
[...]

Oh, in je vorige post had je het over "nVidia PR phyxs filmpjes", maar zal wel mijn fout zijn 8)7. En ik insinueer helemaal niks, ik vraag alleen hoe je je post bedoeld.
Jah, die komen van nvidia, zijn PR fimpjes over PhysX. In games. Die demo's zijn leuk hoor, maar in games zie ik er weinig van. Nee, je insinueert het zeer zeker wel en daar ben ik niet van gediend.
En in Mirror's Edge en Batman zaten inderdaad niet de meest wereldschokkende Physx effecten, maar het is een mooi begin.
Nou, dat bedoel ik dus. Dat had ook gekund met een goeie CPU oplossing. Maar dat hebben ze dus niet gedaan.
Meer games zitten in de pipeline. AMD verkoopt voorlopig alleen nog maar gebakken lucht op dit gebied.
Waar dus weer het zelfde voor geld. Ook die onderscheiden zich nog niet van de CPU physics.

[ Voor 3% gewijzigd door Verwijderd op 10-10-2009 19:18 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:17:
[...]

Jah, die komen van nvidia, zijn PR fimpjes over PhysX. In games. Die demo's zijn leuk hoor, maar in games zie ik er weinig van.

[...]

Nou, dat bedoel ik dus. Dat had ook gekund met een goeie CPU oplossing. Maar dat hebben ze dus niet gedaan.

[...]

Waar dus weer het zelfde voor geld. Ook die onderscheiden zich nog niet van de CPU physics.
Ik heb een tijdje terug nog wat filmpjes gezien, en die overtroffen alle cpu physics die ik tot nu toe heb gezien. En natuurlijk ontwikkeld nVidia phyxs oplossingen voor (hun) gpu's. Angezien zij geen cpu's verkopen. En je hoeft er niks extra's voor te betalen als je een nvidia gpu hebt. Geen slechte ontwikkeling naar mijn mening.

En in dat Havok filmpje zie ik alleen maar een poppetje wat zich balanceerd op een brug, 1 plank die wordt kapot gegooid, en nog wat bewegende voorwerpen. Dan vind ik de gpu phyxs filmpjes toch wat indrukwekkender ;)

[ Voor 11% gewijzigd door Tyranium op 10-10-2009 19:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Tyranium schreef op zaterdag 10 oktober 2009 @ 19:20:
[...]


Ik heb een tijdje terug nog wat filmpjes gezien, en die overtroffen alle cpu physics die ik tot nu toe heb gezien.
Die zitten ook niet stil, dus moet het wel verdomd goed zijn.
En natuurlijk ontwikkeld nVidia phyxs oplossingen voor (hun) gpu's. Angezien zij geen cpu's verkopen. En je hoeft er niks extra's voor te betalen als je een nvidia gpu hebt.
Irrelevant. Maakt mij het uit hoe ze en waar ze op ontwikkelen. Ik ben niet onder de indruk. Ik ga dus niet speciaal nvidia kopen omdat ik physx wil hebben, omdat ik niet onder de indruk ben.
Geen slechte ontwikkeling naar mijn mening.
Nee dat is het ook niet, waar zeg ik dat het slecht is. Ik ben alleen als ik de verschillen zie, niet onder de indruk en heb ik het idee dat bijvoorbeeld met havok het zelfde bereikt had kunnen worden.
En in dat Havok filmpje zie ik alleen maar een poppetje wat zich balanceerd op een brug, 1 plank die wordt kapot gegooid, en nog wat bewegende voorwerpen. Dan vind ik de gpu phyxs filmpjes toch wat indrukwekkender
Oe ja, dan dat wapperende capeje... En zie de datum 2007...

[ Voor 12% gewijzigd door Verwijderd op 10-10-2009 19:26 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:23:

Die zitten ook niet stil, dus moet het wel verdomd goed zijn.
Beiden zitten niet stil, maar voor zover ik begrepen heb is er toch wel wat meer mogelijk met gpu physx dan met cpu physics. (met een speelbare framerate.)
Irrelevant. Maakt mij het uit hoe ze en waar ze op ontwikkelen. Ik ben niet onder de indruk. Ik ga dus niet speciaal nvidia kopen omdat ik physx wil hebben, omdat ik niet onder de indruk ben.
Ik vind het weldegelijk relevant. nVidia wil extra klanten behalen door extra's toe te voegen bij hun videokaarten. Physx is daar 1 van. Het lijkt me dus niet meer dan logisch dat nVidia phyxs ontwikkeld voor (hun) gpu's en niet voor (AMD) cpu's. Daarnaast zijn de huidige gpu's ook veel geschikter om physics berekeningen uit te voeren dan de huidige cpu's.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:17:
[...]

Jah, die komen van nvidia, zijn PR fimpjes over PhysX. In games. Die demo's zijn leuk hoor, maar in games zie ik er weinig van.
Het is maar wat je weinig noemt.



Maar goed, 'weinig' is uiteraard subjectief. Dat er niet veel games zijn die zoveel objecten, particles en volumetric fog hebben is echter gewoon een feit. Dat het op CPUs wel zou moeten kunnen zegt me dus niet zo veel. Als het zo makkelijk was, waarom is het er dan nog niet?

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 19:15:
En in Mirror's Edge en Batman zaten inderdaad niet de meest wereldschokkende Physx effecten, maar het is een mooi begin. Meer games zitten in de pipeline. AMD verkoopt voorlopig alleen nog maar gebakken lucht op dit gebied.
Er komen ook meer Havok physics games, wat is het punt? Dat het over de GPU gaat betekent niet per definitie dat het ook beter is.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat filmpje bedoel ik dus. Ik ben echt niet onder de indruk van dat wapperende capeje. Of het rond spattende glas in Mirrors Edge. Dat kan havok en consorten ook wel.

[ Voor 12% gewijzigd door Verwijderd op 10-10-2009 19:36 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
NVIDIA praat gewoon zoals het hun uitkomt (net zoals elk groot bedrijf bijna altijd wel doet). Vanaf maandag is voor NVIDIA DirectX10.1 ineens een nuttige feature die performancewinst en betere IQ brengt. Die gaan een heel ander toontje zingen dan het "who needs DX10.1" verhaal dat ze tot nu toe hebben gedaan. Let maar op. ;)

Je merkt nu al dat ze door hebben dat een closed source PhysX nergens toe leidt. De toon die ze nu zetten in recente interviews en berichten, is ineens een andere toon... een die laat zien dat ze ook voor open standaarden zijn, daar waar eerst hun eigen producten superieur waren. Maar als je grootheden als Apple, Microsoft en Intel tegenover je hebt, dan houdt zelfs NV dat niet lang vol.

Dat AMD niet mee wil liften op de PhysX + CUDA trein is logisch. Ze hebben dan geen controle op de final performance en NV kan met opzet de performance op Radeons saboteren zodat deze lager uit valt dan op de eigen GeForces door een simpele driverupdate. Met open standaarden als OpenCL en DirectCompute heeft iedereen evenveel kans en gaat het puur om wie de snelste hardware heeft. Degene die straks de beste performance heeft in games met Bullet of Havok GPU via OpenCL, heeft gewoon de betere physicshardware. Dat kan dan NV zijn, maar dat kan ook AMD zijn of Intel. Waar het om gaat is dat het op alle platformen werkt en dat een partij er niet voor kan zorgen dat een ander met opzet benadeeld gaat worden.

Oogkleppen ophouden en stug je eigen ding blijven pushen werkt niet. Dat werkte in het verleden al niet (Glide, S3 Metal, etc) en dat werkt nu ook niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op zaterdag 10 oktober 2009 @ 17:19:
Verder is het beklag van AMD niet eens de PhysX, maar het gedoe met AA, wat gewoonweg niets anders dan pesterij lijkt te zijn, om het ingame AA uit te schakelen, wanneer een AMD-kaart wordt gedetecteerd.
Even hierop terugkomend: er van uitgaande dat dat AA gedoe waar is, dan is het iets waar ik zeker geen voorstander van ben. Alleen is het dan wel een koekje van eigen deeg. Ik herinner me nog uitstekend Call of Juarez DX10 en het verdwijnen van het (door nV ondersteunde) hardware AA renderpath daaruit nadat AMD de distributierechten voor dat spel had opgekocht.

Zo zijn er wel meer dingen waarbij nV van zaken wordt beschuldigd die AMD net zo goed doet. Zoals bijvoorbeeld het rebranden van kaarten. Van het rebranden ben ik ook absoluut geen voorstander. Alleen doet AMD dat net zo goed: De Radeon 9600 (RV370) bijvoorbeeld is gerebrand naar X300/550/600 en vervolgens naar de X1000 serie. Diverse kaarten uit de HD2000 serie zijn gerebrand naar de HD3000 serie, en diverse uit de HD3000 serie (w.o. RV610 en RV630 die dus al uit de HD2000 serie kwamen) naar de HD4000 serie.

En maar klagen over nV, maar daar hoor je dan niemand over... :/
Het lijkt echt alsof bepaalden hier AMD benaderen met een blinde vlek en nV met een vergrootglas...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dahakon schreef op zaterdag 10 oktober 2009 @ 19:34:
[...]

Er komen ook meer Havok physics games, wat is het punt? Dat het over de GPU gaat betekent niet per definitie dat het ook beter is.
Het punt is dat er op dit moment al gpu physics games zijn en er binnenkort steeds meer zullen zijn, dat wil niet betekenen dat het beter is, maar hiervoor heb ik zulke effecten nog niet terug kunnen vinden in andere games (met cpu physics).

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:35:
Dat filmpje bedoel ik dus. Ik ben echt niet onder de indruk van dat wapperende capeje. Of het rond spattende glas in Mirrors Edge. Dat kan havok en consorten ook wel.
Als het wapperende capeje het enige is wat er opvalt, dan moet je je ogen nog eens laten testen..

Of misschien je schaduw laten posten, die denkt wellicht wat langer na :D

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 10 oktober 2009 @ 19:43:
[...]
Diverse kaarten uit de HD2000 serie zijn gerebrand naar de HD3000 serie, en diverse uit de HD3000 serie (w.o. RV610 en RV630 die dus al uit de HD2000 serie kwamen) naar de HD4000 serie.
En welke kaarten zijn dat geworden in de HD4 serie dan? Ik kan ze namelijk niet vinden.
Wikipedia: Comparison of AMD graphics processing units

En die van de HD2 naar HD3 serie zijn nog wel gedieshrinked en hebben OOK nog DX10.1 gekregen. Dat is wel een betere rebrand dan nvidia deed niet.

[ Voor 9% gewijzigd door Verwijderd op 10-10-2009 19:55 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Biff schreef op zaterdag 10 oktober 2009 @ 19:33:
[...]


Het is maar wat je weinig noemt.

[video]

Maar goed, 'weinig' is uiteraard subjectief. Dat er niet veel games zijn die zoveel objecten, particles en volumetric fog hebben is echter gewoon een feit. Dat het op CPUs wel zou moeten kunnen zegt me dus niet zo veel. Als het zo makkelijk was, waarom is het er dan nog niet?
Ik heb Batman nog niet gespeeld, maar nu ik dit zie heb ik erg zin gekregen om de game te gaan spelen. (met phyxs aan, natuurlijk ;) ) Tuurlijk zullen bepaalde mensen met een Radeon videokaart deze effecten niet zo indrukwekkend vinden, want die zien ze ook niet aangezien AMD nog niks op het gebied van physics te bieden heeft.

[ Voor 3% gewijzigd door Tyranium op 10-10-2009 19:56 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tyranium schreef op zaterdag 10 oktober 2009 @ 19:06:
[...]
Ik wil nog wel zien dat een bestaande AMD processor Physx effecten zoals bijvoorbeeld in dit filmpje te zien zijn: http://www.youtube.com/watch?v=iyg9HgiD8X0 kan uitvoeren en een vergelijkbare framerate kan halen als een nVidia gpu.
Grapjas, alles wat je daar ziet is FumeFX en heeft geen kont met PhysX te maken. _O- _O-
Of dacht je echt dat Transformers 2 door een Nvidia GPU'tje word aangedreven :z .
Biff schreef op zaterdag 10 oktober 2009 @ 19:33:
[...]
Dat het op CPUs wel zou moeten kunnen zegt me dus niet zo veel. Als het zo makkelijk was, waarom is het er dan nog niet?
Oh, je bedoeld zoals dit? En dat is met de gecripplede Software implentatie van PhysX _O-

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Cheetah schreef op zaterdag 10 oktober 2009 @ 19:43:
[...]
Zo zijn er wel meer dingen waarbij nV van zaken wordt beschuldigd die AMD net zo goed doet. Zoals bijvoorbeeld het rebranden van kaarten. Van het rebranden ben ik ook absoluut geen voorstander. Alleen doet AMD dat net zo goed: De Radeon 9600 (RV370) bijvoorbeeld is gerebrand naar X300/550/600 en vervolgens naar de X1000 serie.
Ze waren trouwens al veel eerder begonnen, 8500 -> 9000. Je weet wel, toen de 8 nog voor DirectX8 stond.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

SirNobax schreef op zaterdag 10 oktober 2009 @ 19:55:
[...]

Grapjas, alles wat je daar ziet is FumeFX en heeft geen kont met PhysX te maken. _O- _O-
Of dacht je echt dat Transformers 2 door een Nvidia GPU'tje word aangedreven :z .


[...]

Oh, je bedoeld zoals dit? En dat is met de gecripplede Software implentatie van PhysX _O-
Ik heb het ook niet over de filmbeelden, maar de effecten aan het begin van het filmpje die wel degelijk met behulp van Phyxs gedaan zijn. En dit is alleen een voorbeeld, genoeg andere demo's te vinden, grapjas. ;)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 19:44:
[...]

Het punt is dat er op dit moment al gpu physics games zijn en er binnenkort steeds meer zullen zijn, dat wil niet betekenen dat het beter is, maar hiervoor heb ik zulke effecten nog niet terug kunnen vinden in andere games (met cpu physics).
Ubisoft to Use Havok Middleware for Future Games.

Gecombineerd met het feit dat Havok Cloth en andere physics mogelijkheden via OpenCL al over de GPU kunnen draaien, is dan toch wel een klap in het gezicht van PhysX. Er zal inderdaad meer GPU-berekende physics komen, maar dan niet alleen van PhysX, maar Havok en Bullet zullen leuk mee gaan doen.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

SirNobax schreef op zaterdag 10 oktober 2009 @ 19:55:
[...]
Oh, je bedoeld zoals dit? En dat is met de gecripplede Software implentatie van PhysX _O-
Ja, Physx draait ook op de CPU ja. Dat heb ik hier al meerdere malen betoogd, dank je wel. :?

Maar dit suffe stukje gang van jou heeft niet veel te maken met de Physx high video die ik heb gepost. Kijk nog maar 'ns een keer.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dahakon schreef op zaterdag 10 oktober 2009 @ 20:00:
[...]

Ubisoft to Use Havok Middleware for Future Games.

Gecombineerd met het feit dat Havok Cloth en andere physics mogelijkheden via OpenCL al over de GPU kunnen draaien, is dan toch wel een klap in het gezicht van PhysX. Er zal inderdaad meer GPU-berekende physics komen, maar dan niet alleen van PhysX, maar Havok en Bullet zullen leuk mee gaan doen.
Inderdaad, voor future games, dus daar kan je nog minimaal een jaartje op wachten. Verder inderdaad geen slechte ontwikkeling. Worden physics hopelijk door steeds meer en meer games ondersteund.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tyranium schreef op zaterdag 10 oktober 2009 @ 19:58:
[..]maar de effecten aan het begin van het filmpje die wel degelijk met behulp van Phyxs gedaan zijn. En dit is alleen een voorbeeld, genoeg andere demo's te vinden, grapjas. ;)
Je bedoel zeker die Realflow beelden _O-

Verkeerd getagde youtube/gametrailers/etc video's *O* .
Biff schreef op zaterdag 10 oktober 2009 @ 20:06:
[...]
Maar dit suffe stukje gang van jou heeft niet veel te maken met de Physx high video die ik heb gepost. Kijk nog maar 'ns een keer.
Kijk jij maar is op 5:50 van je eigen filmpje, dat is namelijk precies hetzelfde.

[ Voor 25% gewijzigd door SirNobax op 10-10-2009 20:19 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er zijn meer ontwikkelaars dan Ubisoft die Havok gebruiken. Blizzard is een andere grote naam. StarCraft II is de eerste titel in de lijn om Havok te tonen (zodra Battle.net II klaar is naar hun inzicht).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:35:
Dat filmpje bedoel ik dus. Ik ben echt niet onder de indruk van dat wapperende capeje. Of het rond spattende glas in Mirrors Edge. Dat kan havok en consorten ook wel.
Alleen is het er nog niet, of wordt nog niet fatsoenlijk toegepast.

Dat HAVOK het kan geloof ik allemaal wel, en dat OPEN CL heel goed zal zijn ook, maar het is er simpelweg niet. PhysX wel.

Nu zit iedereen zich druk te maken om nV's PhysX, en iedereen zegt dat HAVOK ook goed is e.d., alleen zie ik er maar bar weinig van in games.

Ehm, weinig? Nee... niks.

Edit; en demo's daar koop ik niks voor. :)
Biff schreef op zaterdag 10 oktober 2009 @ 20:06:
Maar dit suffe stukje gang van jou heeft niet veel te maken met de Physx high video die ik heb gepost. Kijk nog maar 'ns een keer.
Dat ziet er idd superwreed uit.

Ik heb toch het idee dat mensen op internet, en dan met name de mensen die geen nV kaarten hebben massaal nV zitten te bashen omdat ze geen PhysX kunnen renderen. Wel grappig. nVidia is ineens een idioot bedrijf, dictatoriaal enz enz... Wel lachwekkend om te lezen hier en daar.... O+
CJ schreef op zaterdag 10 oktober 2009 @ 19:39:
Degene die straks de beste performance heeft in games met Bullet of Havok GPU via OpenCL, heeft gewoon de betere physicshardware. Dat kan dan NV zijn, maar dat kan ook AMD zijn of Intel. Waar het om gaat is dat het op alle platformen werkt en dat een partij er niet voor kan zorgen dat een ander met opzet benadeeld gaat worden.
En wanneer gaan we die Physics eens in games zien? :) Binnenkort? En dan op dezelfde schaal als in Batman?

[ Voor 68% gewijzigd door Format-C op 10-10-2009 20:24 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

SirNobax schreef op zaterdag 10 oktober 2009 @ 20:12:
[...]

Je bedoel zeker die Realflow beelden _O-

Verkeerd getagde youtube/gametrailers/etc video's *O* .
Ander filmpje dan: http://www.youtube.com/watch?v=ok8ThRR-59Q , fluid phyxs. ;)

Acties:
  • 0 Henk 'm!

Verwijderd

RappieRappie schreef op zaterdag 10 oktober 2009 @ 20:15:
[...]

Alleen is het er nog niet, of wordt nog niet fatsoenlijk toegepast.
Kom op. Een van de beste games, naja, sandbox, blijft Garys Mod. Dat is havok. En dat is ook al best oud.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op zaterdag 10 oktober 2009 @ 19:23:
Irrelevant. Maakt mij het uit hoe ze en waar ze op ontwikkelen. Ik ben niet onder de indruk. Ik ga dus niet speciaal nvidia kopen omdat ik physx wil hebben, omdat ik niet onder de indruk ben.
Net zoals anderen niet onder de indruk zijn van HQ textures, AA, AF en een resolutie hoger dan 640x480?
Het gaat er niet om of jij onder de indruk bent. Het gaat er om of er objectief verschil te zien is tussen GPU Physics on en GPU Physics off. Dat is zo, en het is niet een klein beetje.
Nee dat is het ook niet, waar zeg ik dat het slecht is. Ik ben alleen als ik de verschillen zie, niet onder de indruk en heb ik het idee dat bijvoorbeeld met havok het zelfde bereikt had kunnen worden.
Kun je ons in dat geval doorverwijzen naar een grafisch vergelijkbare Havok presentatie, met dezelfde framerate?
Aan 'ik denk dat het heel misschien eventueel toevallig ooit wellicht zou kunnen op een CPU' hebben we niet zoveel nl...
Oh, je bedoeld zoals dit? En dat is met de gecripplede Software implentatie van PhysX _O-
Klik dan ook even door naar de bijbehorende threath. De PhysX workload is met een factor 5 verlaagd (van 5 naar 1) in de demo die je quote. En dat zie je in de delays en dat de effects niet kloppen (papier dat dwars door batman heen gaat, elementen die effect zouden moeten hebben op de physics en dat niet hebben). En die demo is dus met een BEEST van een systeem opgenomen (Core i7 @4.4Ghz, HD4870X2 + HD4870 Tri-fire) waarmee die 30fps doet, en als ik zo naar dat filmpje en de delays kijk kan ik me haast niet anders voorstellen dat ie daarbij nog (aanmerkelijk) diepere dips heeft.
Een veel eenvoudiger DualCore sys met een singlecore nV graka doet het met 2 vingers in z'n neus beter.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

HAVOK ook goed is e.d., alleen zie ik er maar bar weinig van in games.


Havok word gebruik bij alle xbox 360games

Since the SDK's launch in 2000, it has been used in over 150 video and computer games. Those games have primarily been in the first-person shooter genre (the physics engine in Valve Corporation's Source engine uses a heavily modified version of Havok), however it has seen some use in other genres, such as in the Cyan Worlds' adventure game Uru: Ages Beyond Myst; THQ/Relic Entertainment's real-time strategy game, Company of Heroes; racing game MotorStorm; Nintendo's Super Smash Bros. Brawl[3]; and Blizzard Entertainment's StarCraft II Diablo III PAIN! and WWE Smackdown vs Raw 2010 [4].

Havok can also be found in Autodesk Media & Entertainment's 3ds max as a bundled plug-in called reactor. A plugin for Autodesk Media & Entertainment's Maya animation software and an xtra for Adobe Director's Shockwave are also available.

Havok is also used in the Second Life virtual world, with all physics handled by its online simulator servers, rather than by the users' client computers. An upgrade to Havok version 4 was released in April 2008.


http://www.havok.com/index.php?page=all

complete lijst van games

[ Voor 84% gewijzigd door Verwijderd op 10-10-2009 20:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Biff schreef op zaterdag 10 oktober 2009 @ 12:23:
[...]


Ach, en ik meen me toch te herinneren dat Richard Huddy al eens had aangekondigd dat GPU Physics een dood spoor waren. Soms veranderen dingen toch best rap.

OpenCL is verder natuurlijk prima voor Nvidia-fans, immers kan elke CUDA-compatible kaart daar ook gebruik van maken. Oftewel alles nieuwer dan die goeie oude G80.

Hoe zit dat eigenlijk met de huidige generatie ATI kaarten? Het zal toch niet voorbehouden blijven aan 58xx en up? ;)
Dat heeft Huddy _nooit_ zo gezegd, zie ook de post van CJ. Als je een beetje verder nadenkt, een GPU heeft veel meer rekenkracht dan een CPU en kan daardoor veel meer physics effecten uitvoeren. Er is echter nog geen game developer die het tot zover gebracht heeft.
dahakon schreef op zaterdag 10 oktober 2009 @ 14:46:
[...]


Blijkbaar heb je de showcase van Havok Physics gerenderd met OpenCL gemist.
Ik wil geen showcase maar een game met physics?
Als ze echt hun best hadden gedaan om de PhysX via CPU in Batman over alle beschikbare cores te laten draaien, ipv core 0 alleen, en het was dan nog steeds significant langzamer en slechter dan via de GPU, dan had men een punt gehad. Maar goed, het had, ondanks dat PhysX natuurlijk over de GPU gedaan kan worden, allemaal ook goed over de CPU gedaan kunnen worden. Maar dan hadden ze geen mooie marketing kunnen voeren met Batman.
Je bekijkt het verkeerd. Uiteraard doet Batman het over de CPU goed, omdat er niet zoveel physics effecten inzitten. Maar als physics effecten steeds zullen toenemen dan kan ik me inbeelden dat een developer het vanaf nu al wil aanleren om het over de GPU te doen, dan dat hij het over een jaar met 10x zoveel physics effecten nog moet "aanleren".
dahakon schreef op zaterdag 10 oktober 2009 @ 19:34:
[...]

Er komen ook meer Havok physics games, wat is het punt? Dat het over de GPU gaat betekent niet per definitie dat het ook beter is.
Niet beter in de zin van mooiere graphics, maar wel beter in de zin van meer rekenkracht. De vraag blijft uiteraard hoeveel effecten je nodig hebt.
En wanneer gaan we die Physics eens in games zien? :) Binnenkort?
Er wordt al jaren over physics gesproken, maar tot nu toe is het nog steeds geen succes.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zaterdag 10 oktober 2009 @ 20:24:
[...]
Net zoals anderen niet onder de indruk zijn van HQ textures, AA, AF en een resolutie hoger dan 640x480?
Het gaat er niet om of jij onder de indruk bent. Het gaat er om of er objectief verschil te zien is tussen GPU Physics on en GPU Physics off. Dat is zo, en het is niet een klein beetje.
Je maakt de vergelijking verkeerd. Het gaat er om of er verschil is tussen GPU Physics en CPU Physics. Physics off is een verschil dat zelfs een blinde haast kan zien.
Kun je ons in dat geval doorverwijzen naar een grafisch vergelijkbare Havok presentatie, met dezelfde framerate?
Aan 'ik denk dat het heel misschien eventueel toevallig ooit wellicht zou kunnen op een CPU' hebben we niet zoveel nl...
Er zijn demo's getoond van Havoc via OpenCL. Daarin doet de Havok Cloth niets onder voor de PhysX cloth getoond in Batman. Wanneer het in games toegepast gaat worden? Dat is aan de ontwikkelaars.
Klik dan ook even door naar de bijbehorende threath. De PhysX workload is met een factor 5 verlaagd (van 5 naar 1) in de demo die je quote. En dat zie je in de delays en dat de effects niet kloppen (papier dat dwars door batman heen gaat, elementen die effect zouden moeten hebben op de physics en dat niet hebben). En die demo is dus met een BEEST van een systeem opgenomen (Core i7 @4.4Ghz, HD4870 Tri-fire) waarmee die 30fps doet, en als ik zo naar dat filmpje en de delays kijk kan ik me haast niet anders voorstellen dat ie daarbij nog (aanmerkelijk) diepere dips heeft.
Moet je het verhaal wel even compleet maken. De reden waarom ze dat 'moeten' doen is omdat de CPU-PhysX heel erg 'handig voor nVidia' zwaar is voor 1 core van je CPU. Moderne CPU's komen echter maar al te vaak met 4 cores en soms nog meer threads. Waarom geen gebruik maken van die cores/threads? Misschien omdat GPU-PhysX dan opeens niet zo meer naar voren springt en de GTS250 opeens niet langer sneller is dan een HD5870?

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 20:25:
HAVOK ook goed is e.d., alleen zie ik er maar bar weinig van in games.


Havok word gebruik bij alle xbox 360games
Voor zover ik weet gaat het hier over pc games, aangezien we in het nVidia nieuws&discussie topic zijn.

En het is gewoon een feit dat er op dit moment geen games zijn met Havok physics, of andere cpu physics die in de buurt komen van nV's Phyxs.
dahakon schreef op zaterdag 10 oktober 2009 @ 20:32:
[...]

Er zijn demo's getoond van Havoc via OpenCL. Daarin doet de Havok Cloth niets onder voor de PhysX cloth getoond in Batman. Wanneer het in games toegepast gaat worden? Dat is aan de ontwikkelaars.
Je vergelijkt nu een techdemo van Havok met ingame beelden van Batman. Maar als je de havok techdemo vergelijkt met een Physx techdemo, dan zie ik weldegelijk een groot verschil.

[ Voor 34% gewijzigd door Tyranium op 10-10-2009 20:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 10 oktober 2009 @ 20:24:
[...]
Net zoals anderen niet onder de indruk zijn van HQ textures, AA, AF en een resolutie hoger dan 640x480?
Het gaat er niet om of jij onder de indruk bent. Het gaat er om of er objectief verschil te zien is tussen GPU Physics on en GPU Physics off. Dat is zo, en het is niet een klein beetje.
Lezen is ook een vak: Ik heb het niet over het verschil met physx aan en off. Ik had het over dat niet onder de indruk bent met physx aan ten opzichte van andere games die CPU physx gebruiken.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 10 oktober 2009 @ 20:25:
HAVOK ook goed is e.d., alleen zie ik er maar bar weinig van in games.


Havok word gebruik bij alle xbox 360games

Since the SDK's launch in 2000, it has been used in over 150 video and computer games. Those games have primarily been in the first-person shooter genre (the physics engine in Valve Corporation's Source engine uses a heavily modified version of Havok), however it has seen some use in other genres, such as in the Cyan Worlds' adventure game Uru: Ages Beyond Myst; THQ/Relic Entertainment's real-time strategy game, Company of Heroes; racing game MotorStorm; Nintendo's Super Smash Bros. Brawl\[3]; and Blizzard Entertainment's StarCraft II Diablo III PAIN! and WWE Smackdown vs Raw 2010 \[4].

Havok can also be found in Autodesk Media & Entertainment's 3ds max as a bundled plug-in called reactor. A plugin for Autodesk Media & Entertainment's Maya animation software and an xtra for Adobe Director's Shockwave are also available.

Havok is also used in the Second Life virtual world, with all physics handled by its online simulator servers, rather than by the users' client computers. An upgrade to Havok version 4 was released in April 2008.


http://www.havok.com/index.php?page=all

complete lijst van games
Alleen gaat het hier om pc gaming ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Tyranium schreef op zaterdag 10 oktober 2009 @ 20:33:
[...]

Voor zover ik weet gaat het hier over pc games, aangezien we in het nVidia nieuws&discussie topic zijn.

En het is gewoon een feit dat er op dit moment geen games zijn met Havok physics, of andere cpu physics die in de buurt komen van nV's Phyxs.


[...]


Je vergelijkt nu een techdemo van Havok met ingame beelden van Batman. Maar als je de havok techdemo vergelijkt met een Physx techdemo, dan zie ik weldegelijk een groot verschil.
Jammer dat je de rest niet leest .
Veel games die op de xbox 360 zijn verschenen zijn ook op de pc.
Zelf de psp maak gebruik van havok.

Dat dit een nvidia topic is maak niks uit het gaat om de functie van cuda versus havok.

Ook oblivione en fallout3 gebruiken havok .
Zeker falloud 3 als je iemand neer schiet op een berg zie je die op de gekste kronkels neer komen .

Nee probleem is dat havok niet vol uit zijn software door je strot heen staat te duwen .
Iets wat nvidia dat wel doet .

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 10 oktober 2009 @ 20:35:
[...]


Alleen gaat het hier om pc gaming ;)
Moet je op de link duwen
Dan zie je alle pc games staan. (staat niks voor niks all op die link)
http://www.havok.com/index.php?page=all

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Verwijderd schreef op zaterdag 10 oktober 2009 @ 20:41:
[...]


Jammer dat je de rest niet leest .
Veel games die op de xbox 360 zijn verschenen zijn ook op de pc.
Zelf de psp maak gebruik van havok.

Dat dit een nvidia topic is maak niks uit het gaat om de functie van cuda versus havok.

Ook oblivione en fallout3 gebruiken havok .
Zeker falloud 3 als je iemand neer schiet op een berg zie je niet op de gekste kronkels neer komen .

Nee probleem is dat havok niet vol uit zijn software door je strot heen staat te duwen .
Iets wat nvidia dat wel doet .
Jammer dat jij mijn reactie niet leest. Er zullen vast wel games zijn die een bepaalde vorm van physics doen over de cpu. Maar er zijn tot nu toe nog geen games met havok physics die in de buurt komen van de effecten zoals bijvoorbeeld in batman.

En nVidia duwt niks door je strot heen, je bent niet verplicht een nvidia kaart te kopen. Maar natuurlijk gebruiken ze Physx in hun marketing, aangezien hun grootste cuncurrent op dit moment (AMD), niks te bieden heeft op dat gebied.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op zaterdag 10 oktober 2009 @ 20:34:
Lezen is ook een vak: Ik heb het niet over het verschil met physx aan en off. Ik had het over dat niet onder de indruk bent met physx aan ten opzichte van andere games die CPU physx gebruiken.
PhysX off == CPU physx in Batman.
De tijd dat er games zonder CPU physics engine worden uitgeleverd ligt al enige tijd achter ons.

En mijn verzoek om ff door te linken naar een game met CPU physics die vergelijkbaar zijn met Batman's GPU physics - of er zelfs maar in de buurt komen - staat nog steeds open. Als Batman's GPU PhysX 'normaaltjes' zijn zou dat geen enkel probleem moeten zijn met de hele stapel van games met CPU accelerated physics die we al hebben. Genoeg eromheen gebabbelt: boter bij de vis.

[ Voor 14% gewijzigd door Cheetah op 10-10-2009 20:47 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Cheetah schreef op zaterdag 10 oktober 2009 @ 20:45:
[...]
En mijn verzoek om ff door te linken naar een game met CPU physics die vergelijkbaar zijn met Batman's GPU physics - of er zelfs maar in de buurt komen - staat nog steeds open.
Astu.

Filmpje 1.

Filmpje 2.

Beide hebben boeiendere physics dan wat wapperend plee-papier zoals bij Batman. :/

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

SirNobax schreef op zaterdag 10 oktober 2009 @ 21:00:
[...]

Astu.

Filmpje 1.

Filmpje 2.

Beide hebben boeiendere physics dan wat wapperend plee-papier zoals bij Batman. :/
Grapjas, dat eerste filmpje is juist een Physx filmpje, gemaakt door Ageia, het bedrijf dat door nVidia overgenomen is. :o

[ Voor 3% gewijzigd door Tyranium op 10-10-2009 21:08 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:05:
[...]

Grapjas, dat eerste filmpje is juist een Physx filmpje, gemaakt door Ageia, het bedrijf dat door nVidia overgenomen is. :o
Grapjas, als je het bijschrift gelezen had, dan had je geweten dat de PPU-physics gedaan werd door de CPU zonder dat het opeens een lag-fest werd. Als je wilt trollen, doe het dan goed 8)7

[ Voor 5% gewijzigd door dahakon op 10-10-2009 21:12 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
dahakon schreef op zaterdag 10 oktober 2009 @ 21:11:
[...]
Grapjas, als je het bijschrift gelezen had, dan had je geweten dat de PPU-physics gedaan werd door de CPU zonder dat het opeens een lag-fest werd.
Op een Athlon64 X2 4200+ notabene, daar zijn we al een tijdje voorbij kwa performance. :>

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

[quote]dahakon schreef op zaterdag 10 oktober 2009 @ 21:11:
[...]

Grapjas, als je het bijschrift gelezen had, dan had je geweten dat de PPU-physics gedaan werd door de CPU zonder dat het opeens een lag-fest werd. Als je wilt trollen, doe het dan goed 8)7
[/quote]
Je spreekt jezelf nogal tegen he, "PPU-physics gedaan door de cpu". Dat filmpje werd gedraait met een Ageia PPU, een aparte chip die de physics berekeningen deed, niet de cpu. En nVidia gebruikt nu die techniek in hun gpu's. Dus ik weet niet wie hier wil trollen, maar doe het dan inderdaad goed


Mijn fout, niet het onderschrift gelezen.

[ Voor 4% gewijzigd door Tyranium op 10-10-2009 21:29 ]


Acties:
  • 0 Henk 'm!

  • glennvho
  • Registratie: Mei 2009
  • Laatst online: 20:58
Ach binnen enkele maanden is physx toch dood en heeft iedereen goeie physics met opencl dankzij amd/ati ;)
Geef toe dat er zeker de laatste tijd niet veel spellen meer zijn uitgekomen die van physx gebruik kunnen maken.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:17:
[...]

Je spreekt jezelf nogal tegen he.
Wel goed lezen hey, voordat je twee keer onzin wegtypt. :+
"Cellfactor without AGEIA"
"A video of videogame techdemo Cellfactor:combat training running without a PhysX Card. A demonstration of negligible gain of performance of AGEIA physX versus CPU power.
The system is a dual core AtlonX2 4200 with a 7900 GT and 2 GB of RAM. "

[ Voor 8% gewijzigd door SirNobax op 10-10-2009 21:22 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:17:
[...]

Je spreekt jezelf nogal tegen he, "PPU-physics gedaan door de cpu". Dat filmpje werd gedraait met een Ageia PPU, een aparte chip die de physics berekeningen deed, niet de cpu. En nVidia gebruikt nu die techniek in hun gpu's. Dus ik weet niet wie hier wil trollen, maar doe het dan inderdaad goed ;)
A video of videogame techdemo Cellfactor:combat training running without a PhysX Card. A demonstration of negligible gain of performance of AGEIA physX versus CPU power.
The system is a dual core AtlonX2 4200 with a 7900 GT and 2 GB of RAM.


Uit het bijschrift van het filmpje. Het was dus orgineel bedoeld voor de PPU, maar werd berekend door een simpele Athlon X2 4200...

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
Edit: Spammerds laat mij ook eens wat zeggen :+

[ Voor 82% gewijzigd door EdwardvGelder op 10-10-2009 21:21 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dahakon schreef op zaterdag 10 oktober 2009 @ 21:19:
[...]

A video of videogame techdemo Cellfactor:combat training running without a PhysX Card. A demonstration of negligible gain of performance of AGEIA physX versus CPU power.
The system is a dual core AtlonX2 4200 with a 7900 GT and 2 GB of RAM.


Uit het bijschrift van het filmpje. Het was dus orgineel bedoeld voor de PPU, maar werd berekend door een simpele Athlon X2 4200...
Dan wil ik de framerate vergelijking wel zien, van deze manier, en met de Ageia chip erin.
SirNobax schreef op zaterdag 10 oktober 2009 @ 21:19:
[...]


Wel goed lezen hey, voordat je twee keer onzin wegtypt. :+


[...]
Leuk dat je een demo van meer dan 2 jaar oud gebruikt, maar ik wil de huidige techdemo's wel op een cpu zien draaien.

[ Voor 21% gewijzigd door Tyranium op 10-10-2009 21:26 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:21:
Leuk dat je een demo van meer dan 2 jaar oud gebruikt, maar ik wil de huidige techdemo's wel op een cpu zien draaien.
Volgens mij wil je dat eigenlijk helemaal niet, omdat je helemaal niet wilt dat physics goed over de CPU kunnen draaien, niet omdat het dan niet mooi zou kunnen zijn of omdat je nog steeds speelbare framerates kunt hebben, maar omdat je dan geen reden meer hebt om PhysX over GPU te verdedigen als het ultieme doel.

Of iets twee jaar oud is betekent niet dat het niet mooi kan zijn. Dat iets net nieuw is, betekent niet dat het het summum is.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:21:
Leuk dat je een demo van meer dan 2 jaar oud gebruikt, maar ik wil de huidige techdemo's wel op een cpu zien draaien.
Dit was niet waardig genoeg zeker, vergeleken met je prachtige vliegend pleepapier bij Batman ? :/

Ga jij maar lekker Batman spelen, en je ogen uitkijken wanneer er een prullenbak omvalt, ga ik ondertussen nog wat gebouwen opblazen in Red Faction 3. Ik weet wel welke game beter gebruik maakt van Physics. ;)

[ Voor 24% gewijzigd door SirNobax op 10-10-2009 21:34 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dahakon schreef op zaterdag 10 oktober 2009 @ 21:31:
[...]
Volgens mij wil je dat eigenlijk helemaal niet, omdat je helemaal niet wilt dat physics goed over de CPU kunnen draaien, niet omdat het dan niet mooi zou kunnen zijn of omdat je nog steeds speelbare framerates kunt hebben, maar omdat je dan geen reden meer hebt om PhysX over GPU te verdedigen als het ultieme doel.

Of iets twee jaar oud is betekent niet dat het niet mooi kan zijn. Dat iets net nieuw is, betekent niet dat het het summum is.
Ik verdedig phyxs over de gpu helemaal niet als het ultieme doel. Het is gewoon een feit dat een gpu veel beter is in het berekenen van physics in games dan een cpu, dat heeft niks te maken met wat ik wil.

Ik zou het inderdaad wel mooi vinden als physics in veel meer games gebruikt zou worden, aangezien het volgens mij wel degelijk wat toevoegd aan de graphics en soms zelfs gameplay van een spel.
SirNobax schreef op zaterdag 10 oktober 2009 @ 21:32:
[...]

Dit was niet waardig genoeg zeker, vergeleken met je prachtige vliegend pleepapier bij Batman ? :/

Ga jij maar lekker Batman spelen, en je ogen uitkijken wanneer er een prullenbak omvalt, ga ik ondertussen nog wat gebouwen opblazen in Red Faction 3. Ik weet wel welke game beter gebruik maakt van Physics. ;)
Wie heeft het over waardig, ik zeg alleen maar dat je als voorbeeld een demo gebruikt van 2 jaar oud, en als ik het goed heb de eerste demo die gebruikt maakt van gpu / ppu physics.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Leuk hoor. Vergelijk die alleen eens met deze: http://www.youtube.com/watch?v=dZ1PPzCyNcg&NR=1. Zelfde game, maar nu met PPU.
En dan heb ik het niet alleen over de ontbrekende NPC's uit het 1e filmpje (wat heerlijk ontlastend voor de CPU), maar vooral over de hoeveelheid effecten tegelijkertijd onscreen en het verschil in detail en vloeiendheid.
Die explosion engine is inderdaad indrukwekkend, maar beperkt zich vrijwel alleen tot gebouwen. En ook die engine had een stuk gedetailleerder gekund met GPU physics. Daarnaast houdt physics meer in dan alleen explosies. Zie die post van Biff: Grote hoeveelheden dynamic rigid bodies? Dynamic Smoke/Steam/Fog? Full dynamic environments?

Daarnaast is het simpelweg zo dat CPU power die wordt gebruikt voor physics niet kan worden gebruikt voor andere zaken als AI etc. Door de CPU te ontlasten kan deze meer/beter worden gehanteerd voor andere ingame zaken.

Maargoed, waarschijnlijk zouden dezelfden die PhysX nu downplayen exact dat aan het uitleggen zijn als het AMD was geweest die deze effects met GPU physics voor elkaar had gekregen terwijl nV geen antwoord had.
Beide hebben boeiendere physics dan wat wapperend plee-papier zoals bij Batman. :/
Heb je dat filmpje nou al bekeken dat Biff hier postte al bekeken?
Daar gebeurd nogal wat meer dan 'wapperend plee-papier' namelijk :/

Ik kan me nog prima herinneren hoe er gejuigd werd toen ATi ~3,5 jaar terug bekend maakte dat het met HavokFX bezig was aan GPU physics. Toen was het fantastisch. Maar wanneer nV nu een goed werkende implementatie van GPU pysics heeft en AMD niet dan wordt er plots alles aan gedaan GPU physics te downplayen. En straks, wanneer AMD een werkende OpenCL implementatie laat zien zal GPU physics plots wel allemaal weer fantastisch zijn... de voorspelbaarheid is zeer voorspelbaar, maar wel tevens zeer jammer :/

[ Voor 15% gewijzigd door Cheetah op 10-10-2009 22:10 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tyranium schreef op zaterdag 10 oktober 2009 @ 21:49:
Wie heeft het over waardig, ik zeg alleen maar dat je als voorbeeld een demo gebruikt van 2 jaar oud,
Dat het een game betreft van 2 jaar oud beaamt alleen maar hoe weinig er geinnoveerd is.
en als ik het goed heb de eerste demo die gebruikt maakt van physics.
Ik hou me mond maar, want ehh, ..... :/
Leuk hoor. Vergelijk die alleen eens met deze: http://www.youtube.com/watch?v=dZ1PPzCyNcg&NR=1. Zelfde game, maar nu met PPU.
Hier ga ik niet eens verder op in. Heb je die game uberhaupt opgestart zonder een PPU, of die "hack" :/ . Dan is het level werkelijk he-le-maal leeg, op 5 dozen na ofzo.
Het is precies dezelfde game, precies dezelfde settings en precies dezelfde physics.
Dat die game niet op te starten is zonder een PPU zonder een text bestandje aan te passen, veranderd niets aan de effecten of physics.
Nu stop ik ook gelijk commenten hierop, blijkbaar heb ik met mijn grote voeten op wat gevoelige teentjes gestapt. ;)


Hebben jullie weer ruimte om over de nieuwe Nvidia videokaarten te discussieren ... oh, wacht. :+

[ Voor 4% gewijzigd door SirNobax op 10-10-2009 22:24 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

SirNobax schreef op zaterdag 10 oktober 2009 @ 22:16:
[...]

Ik hou me mond maar, want ehh, ..... :/
Hoezo, waren er daarvoor al veel meer games die gpu/ppu-physics gebruikten? Volgens mij is het een van de eerste.
dahakon schreef op zaterdag 10 oktober 2009 @ 21:31:
[...]
Of iets twee jaar oud is betekent niet dat het niet mooi kan zijn. Dat iets net nieuw is, betekent niet dat het het summum is.
Je gaat Doom 2 toch ook niet als voorbeeld gebruiken dat de radeon 5870 sneller is als een nVidia 6200? Er zijn op dit moment genoeg demo's die een stuk verder en zwaarder zijn in physics dan die demo van cellfactor.

[ Voor 45% gewijzigd door Tyranium op 10-10-2009 22:32 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

SirNobax schreef op zaterdag 10 oktober 2009 @ 22:16:
Hier ga ik niet eens verder op in.
Tuurlijk joh. Anders ga je gewoon totaal niet in op de argumentatie in mijn post. What else is new? O-)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 09-09 18:17

SG

SG surft naar info hardewaren

Mei 2006 2x PPU en CF: CT gespeeld this dus Ruim 3 jaar oud.
Dat is zo lang geleden maar die flik is dus de grootste misleiding die er is. Door anti PPU gelobby van bepaalde volk.
Ik miss die big interactieve flag in het midden.
Dan zal blood ook uitgeschakeld zijn al doet dat er niet toe zonder bots.

PPU zou 2 jaar mee gaan zou eigenlijk nu PPU3 komen. We kunnen GT300 als PPU3 zien.
GT200A als PPU2.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
SG schreef op zaterdag 10 oktober 2009 @ 22:35:
Mei 2006 2x PPU en CF: CT gespeeld this dus Ruim 3 jaar oud.
Ik miss die big interactieve flag in het midden.
Dan zal blood ook uitgeschakeld zijn al doet dat er niet toe zonder bots.
Beide is inderdaad uitgeschakeld. Neemt niet weg dat hetgene wat je wel ziet wel impressive is en prima op de cpu draaid.
Verder, voor de unbelievers, is die demo gewoon te vinden op het internet, kan je het met je eigen ogen en systeempje zien dat ppu/cpu precies hetzelfde is (op mogelijk het bloed en die vlag na).

De volledige versie van Cellfactor (die overigens gratis is) was volgends mij niet te 'kraken'.

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 16-08 17:58

SECURITEH

Man of legend.

Biff schreef op zaterdag 10 oktober 2009 @ 19:46:
[...]


Als het wapperende capeje het enige is wat er opvalt, dan moet je je ogen nog eens laten testen..

Of misschien je schaduw laten posten, die denkt wellicht wat langer na :D
Er is wel wat meer te zien idd. maar om te zeggen dat je iets mist wanneer het uit staat, nee dat zeker niet.
Ik moet ook zeggen dat ik veel dingen zoals het papier erg onrealistisch vind bewegen (te overdreven, maar zo is het eigenlijk met bijna alle physics in Batman).

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

SECURITEH schreef op zaterdag 10 oktober 2009 @ 22:45:
Er is wel wat meer te zien idd. maar om te zeggen dat je iets mist wanneer het uit staat, nee dat zeker niet.
Inderdaad: realistischer graphics, realistischer effects, realistischer environment, realistischer physics... gewoon allemaal onzin. Eigenlijk is alles wat er geinnoveerd is sinds Wolfenstein 3D uit 1992 gewoon allemaal onzin... gewoon lekker allemaal terug naar 320x240 LQ textures 0xAA/0xAF... je mist er niks aan en je AMD K6-266 met ATi Rage3D Turbo trekt dat ook nog... scheelt weer geld voor een high-end sys O-)

[ Voor 8% gewijzigd door Cheetah op 10-10-2009 22:56 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 10 oktober 2009 @ 22:19:
Je gaat Doom 2 toch ook niet als voorbeeld gebruiken dat de radeon 5870 sneller is als een nVidia 6200? Er zijn op dit moment genoeg demo's die een stuk verder en zwaarder zijn in physics dan die demo van cellfactor.
Doom 2 is natuurlijk wel even wat anders dan twee jaar oud.

Om een mooi voorbeeld te geven van een game van twee jaar oud waarover nog steeds gekwijld word alsof het het summum is: Crysis. Op een maand na is het nu twee jaar oud. Valt die ook in de categorie 'Doom 2' qua graphics etc?

Je poging om dingen in het ridicule te trekken zijn daarmee dan ook mislukt als je het mij vraagt.
Cheetah schreef op zaterdag 10 oktober 2009 @ 22:32:
[...]
Tuurlijk joh. Anders ga je gewoon totaal niet in op de argumentatie in mijn post. What else is new? O-)
Je vergelijkt een gameplayvideo van iemand met een officiele trailer van het bedrijf? Er zal vast wel iets meer verschil zijn dan alleen het ontbreken van die PPU in een dergelijk geval.

[ Voor 22% gewijzigd door dahakon op 10-10-2009 23:00 ]


Acties:
  • 0 Henk 'm!

  • Cyberamp
  • Registratie: April 2004
  • Laatst online: 27-11-2024

Cyberamp

Multithreaded Tweaker

Physx vs CPU discussie ... :/
Ik vraag me af in hoeverre relevant dit. Met DX11 komt hier weldegelijk verandering in. Jammer nu zo'n discussie over te wijden in dit nieuwstopic. Deze discussie is nl. al tig keer eerder gevoerd. Wellicht interessant dit te bespreken omdat Nvidia DX11 kaarten in vooruitzicht heeft staan in 2010. Nvidia's eigen gpgpu-taal Cuda, gaat sowieso dan plaats maken voor DirectX 11's gpgpu-taal, genaamd DirectCompute. Deze is namelijk universeel waardoor meerdere softwareontwikkelaars die kunnen implementeren voor GPU-based berekeningen.

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Tuurlijk joh. Anders ga je gewoon totaal niet in op de argumentatie in mijn post.
Waarom?

Omdat het duidelijk is dat ik meer onder de indruk ben van Physics die iets toevoegen aan het spel, en dat anderen hier het liefst vliegende tegeltjes ziet en wapperend pleepapier. Een zinloze discussie in mijn ogen aangezien we het toch nooit eens zullen zijn.
Fancy graphics en effectjes, absoluut leuk meegenomen, maar daar koop ik geen spel voor. Zolang Nvidia zich vast klampt aan zijn proprietary PhysX zullen we nooit games, met het TWIMTBP logo, meemaken waarbij physics een belangrijk onderdeel word van een spel. De enige game waarbij dit wel zo was (cellfactor), is ook prima te spelen met CPU physics, maar is het, hard-coded, gedisabled.

Het meeste plezier van Physics heb ik duidelijk gehad in games die geen ondersteuning bieden voor PhysX;
(nog zo'n CPU Physics toppertje ... )

/me SirNobax hoort al in de verte graphic-whores schreeuwen dat daar geanimeerde plaatjes staan van een 2D game, zonder 8xFSAA 16xAnsotropic Filter, Screen Space Ambient Occlusion, etc

[ Voor 11% gewijzigd door SirNobax op 10-10-2009 23:38 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 16-08 17:58

SECURITEH

Man of legend.

Cheetah schreef op zaterdag 10 oktober 2009 @ 22:53:
[...]
Inderdaad: realistischer graphics, realistischer effects, realistischer environment, realistischer physics... gewoon allemaal onzin. Eigenlijk is alles wat er geinnoveerd is sinds Wolfenstein 3D uit 1992 gewoon allemaal onzin... gewoon lekker allemaal terug naar 320x240 LQ textures 0xAA/0xAF... je mist er niks aan en je AMD K6-266 met ATi Rage3D Turbo trekt dat ook nog... scheelt weer geld voor een high-end sys O-)
Zo te zien heb ik je op een pijnlijke plek geraakt...
Ik geef alleen mijn mening over de "o zo geweldige" physics in onder andere Batman, jammer dat jij hier niet tegen kan en bang bent voor alles wat een eigen mening heeft.

Ik zeg helemaal niet dat de techniek op zichzelf slecht is en het heeft zeker een toekomst, maar wat ik tot nu toe heb gezien geeft mij geen idee van realisme en werkt alleen maar afleidend doordat het over de top is naar mijn mening (niets realistisch aan een aval bak die 5 meter stuitert omdat iemand er zacht tegen aan stoot).

Acties:
  • 0 Henk 'm!

Verwijderd

inderdaad ik kan niet geloven dat jullie 3 pagina's lang zitten te zagen over physX -_-.
open jullie eigen topic eens.

Ik veronderstel dat jullie (ja gij daar) constant mirror edge zitten te spelen en daarvoor ook nog een nV kaart gekocht hebben (screw Directx 10.1/11 en hardware tesselation).

ook het argument dat physx het beste is omdat er geen alternatieven zijn is vrij slecht.
dat doet me denken aan de zegswijze: in het land der blinden is éénoog koning.

Havok en bullet zullen beide beter zijn dan physx omdat ze op ATI, nV en larrabee zullen werken.
Ik denk niet dat jullie weten hoe belangrijk is om zoveel mogelijk mensen te bereiken, vooral sinds jullie het abnormaal vinden dat AMD geen physx license van nV gekocht heeft.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Mensen die PhsyX verdedigen doen alsof dat het énige is wat er ooit zal zijn in dat genre. Ik wacht mooi af, koop ondertussen de beste prestaties voor mijn geld (ATI natuurlijk) en zal wel nadenken over gpu-physics als het eenmaal opengebloeid is en als er verschillende implementaties zijn waaruit ik kan kiezen.

Ik ga mijzelf niet als een hongerige hond op het enkele bot storten dat ik al te pakken kan krijgen, want ik besef dat ik niet hongerig ben. Ik kan wachten. ;)

Tegen dat ik aan games zit waarin de physics significante parten spelen, zullen de physics al volwassen geworden zijn, en zal al duidelijk zijn wat de beste implementatie is, en wat er mogelijk is binnen het potentiëel van die implementaties.

Echt waar, als je enkele jaren achterloopt op pc-gaming, dan zie je pas hoe leuk het is: alle horizonten zijn al verkend, je kan je gewoon direct storten in zwelgpartijen van games in feesthallen die gebouwd zijn door de pioniers, de pioniers die geleden hebben onder het dilemma van welke weg ze zouden opgaan zonder te weten waar die hen brengt. Gelukkig doen ze dat, zodat ik nadien wél weet welke weg ik het beste hoor te nemen. Doe maar, ik volg later wel. ;)

Mag ik terzijde wel opmerken dat ik volledig zen ben dankzij mijn aanpak? Ik moet niet ruziemaken over welke technologie het waarschijnlijk zal maken in de toekomst, want ik zal het - tegen dat ik het behoor te weten - al kunnen weten. Vrede in mijn hoofd en hart! Het niet moeten aanhoren van het eeuwige gebikkel over iets wat toch nog niet zeker is - of ATI of nVidia de beste physics aanpak gekozen heeft. Het is zinloos in alles, behalve voor het mogelijks geruststellen van de eigen ziel, of voor de verwaandere persoon: het krijgen van zijn gelijk, om nu zoveel tijd en moeite te steken in deze discussie. Zinloos!

Doe zoals ik, en geniet van wat er al geweten is, en wat er al geoptimaliseerd is. Natuurlijk moet je dan enkele jaren vasten, en dat is makkelijker gezegd dan gedaan, maar probeer het eens: het is zoveel leuker, goedkoper, en je leeft er waarschijnlijk enkele jaren langer door dankzij minder stress.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Amen! :D

En ook helemaal mee eens eigenlijk. Of je nou DX11 of physx hebt, zolang je niet uber-high-end gamed zal je echt niks missen. (dat deed ik ook pas toen ik crysis wilde spelen met een FX5600 :P en ook het feit dat ik oblivion alleen kon spelen met een mod genaamd "oldblivion" was een subtiele hint)

[ Voor 112% gewijzigd door bwerg op 11-10-2009 00:13 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik vind al die physics effecten totaal niet realistisch uitzien. Alles beweegt zo robotisch in groepen.

de ontploffende gebouwen in red faction zien er uit als een gebouw dat uit meerdere delen bestaat en uit elkaar word gezogen. Totaal niet overtuigend uitzien. De rondvliegende rotzooi in batman rond die grote gast beweegt zo statisch in een vaste lijn.

Als dit physics is op dit moment dan wacht ik wel tot er games komen die wel geloofwaardige physics hebben voordat ik ga oordelen waarop physics beter werkt.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

DevilsProphet schreef op zondag 11 oktober 2009 @ 00:08:
Mensen die PhsyX verdedigen doen alsof dat het énige is wat er ooit zal zijn in dat genre.
Nee hoor, ze melden slechts dat het nu, en vermoedelijk voorlopig (aangezien het nog wel even duurt voor DXCompute en OpenCL worden uitgewerkt in GPU physics engines en geimplementeerd zijn in games), het enige IS in dat genre. Onvoltooid tegenwoordige tijd.
Ik wacht mooi af, koop ondertussen de beste prestaties voor mijn geld (ATI natuurlijk) en zal wel nadenken over gpu-physics als het eenmaal opengebloeid is en als er verschillende implementaties zijn waaruit ik kan kiezen [...] Echt waar, als je enkele jaren achterloopt op pc-gaming [...]
Moet je doen dan... Niet iedereen heeft zin om minimaal tot halverwege volgend jaar te gaan zitten wachten op iets dat nu al te krijgen is.

Maar prima filosofie verder hoor als je er zen mee bent: gewoon niets kopen totdat de toekomst hier is... Wat effectief op elk moment in de tijd neerkomt op niets kopen :)
Het niet moeten aanhoren van het eeuwige gebikkel over iets wat toch nog niet zeker is - of ATI of nVidia de beste physics aanpak gekozen heeft.
Het gaat niet over wie de beste aanpak heeft, het gaat over wie de enige werkende aanpak heeft :z
Verwijderd schreef op zaterdag 10 oktober 2009 @ 23:44:
inderdaad ik kan niet geloven dat jullie 3 pagina's lang zitten te zagen over physX -_-.
open jullie eigen topic eens.
Kweet niet hoor, er wordt in een nVidia topic gesproken over een nVidia unique selling point dat wordt afgezeken door voornamelijk AMD aanhang. En dan moeten degenen die dat unique selling point van nV in nV's eigen topic verdedigen dan maar ffies een ander topic openen zodat de AMD aanhang hier rustig ongestoord door kan gaan met 't afbranden. Prachtig weer :D
ook het argument dat physx het beste is omdat er geen alternatieven zijn is vrij slecht.
dat doet me denken aan de zegswijze: in het land der blinden is éénoog koning.
Dat heb je prima gezegd. PhysX is inderdaad het beste omdat er geen alternatieven zijn. Het enige is automatisch het beste namelijk. Net zoals de enige auto destijds ook de beste auto was.
Havok en bullet zullen beide beter zijn dan physx omdat ze op ATI, nV en larrabee zullen werken.
Toekomstige tijd. Hoe/wat/waar en vooral wanneer zal nog moeten blijken.
SECURITEH schreef op zaterdag 10 oktober 2009 @ 23:21:
Zo te zien heb ik je op een pijnlijke plek geraakt...
Neu hoor... Ik legde alleen even de ultieme toepassing uit van de door jou en diverse anderen gehanteerde filosofie: 3D = 3D, dat hadden we al sinds Wolfenstein3D/1992, en alle verbetering en verfraaiing van ingame realisme sindsdien is onzinnig.

[ Voor 6% gewijzigd door Cheetah op 11-10-2009 08:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Intussen ben je nog steeds niet in gegaan op mijn argumentatie in die post. Ook hier niet...
Omdat het duidelijk is dat ik meer onder de indruk ben van Physics die iets toevoegen aan het spel, en dat anderen hier het liefst vliegende tegeltjes ziet en wapperend pleepapier. Een zinloze discussie in mijn ogen aangezien we het toch nooit eens zullen zijn.
Fancy graphics en effectjes, absoluut leuk meegenomen, maar daar koop ik geen spel voor. Zolang Nvidia zich vast klampt aan zijn proprietary PhysX zullen we nooit games, met het TWIMTBP logo, meemaken waarbij physics een belangrijk onderdeel word van een spel.
Hoe kom je daar bij eigenlijk? Dynamic steam/fog heeft al een interessant effect op de Batman gameplay als ik zo kijk, doordat enemies veel meer verhuld zijn, en 't kan worden weggeblazen om ze beter zichtbaar te maken.

De volgende stap is dat de dynamic vectoren die je er bij bosjes extra bijkrijgt als PhysX ingeschakeld wordt met hun collision detection impact gaan hebben op de gameplay, bijvoorbeeld doordat ze effect hebben op zowel de player character als npc's wanneer die geraakt worden. Dit zal games wederom veel levendiger en realistischer maken. In Batman gebeurd dat al een beetje, maar je kunt zitten wachten op titels waarin dit nog beter gedaan is.
Het uitschakelen van dergelijke berekeningen voor degenen die geen PhysX card met diens rekenkracht hebben is relatief eenvoudig: als de vectoren niet berekend worden, dan ook geen collisions met die vectoren natuurlijk. En dat ga je wel merken in de gameplay.

Verder wordt er maar doorgehamerd op dat realistischere physics perse iets zouden moeten toevoegen aan de gameplay. Wederom de vraag: waarom zijn hoge reso's, HQ textures en AA/AF dan zo belangrijk?? Die voegen ook helemaal niets toe aan de gameplay namelijk. Als alleen de gameplay belangrijk is kun je snel en bijzonder goedkoop klaar zijn met een HD2400Pro, hoef je absoluut geen HD58x0 voor aan te schaffen.

[ Voor 11% gewijzigd door Cheetah op 11-10-2009 08:48 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zondag 11 oktober 2009 @ 08:16:
"veel geblaat"

Het gaat niet over wie de beste aanpak heeft, het gaat over wie de enige werkende aanpak heeft :z

Dat heb je prima gezegd. PhysX is inderdaad het beste omdat er geen alternatieven zijn. Het enige is automatisch het beste namelijk. Net zoals de enige auto destijds ook de beste auto was.

"veel geblaat"

"nog meer geblaat in een tweede post"
Dus, zoals jij nu naar de dingen kijkt, heb je een probleem als blijkt dat Fermi echt geen hardwaretesselationunit heeft en het via de software moet doen. Want dat betekent automatisch dat er maar 1 merk is met tesselation en echte DX11 support.

Of is het dan opeens anders?

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op zondag 11 oktober 2009 @ 09:12:
Dus, zoals jij nu naar de dingen kijkt, heb je een probleem als blijkt dat Fermi echt geen hardwaretesselationunit heeft en het via de software moet doen. Want dat betekent automatisch dat er maar 1 merk is met tesselation en echte DX11 support.

Of is het dan opeens anders?
Ja. Want er zijn op dit moment geen (serieuze) games met support voor DX11, laat staan voor die hardware tesselator. En wel games met support voor PhysX.
Tegenwoordige tijd versus toekomstige tijd weet je nog? :)

Als er iets is wat nu nog niet van belang is, dan is het dat wel. Als het je echt gaat om DX11 dan kun je beter wachten totdat nV z'n DX11 kaart op de markt heeft voordat je beslist, want pas tegen die tijd (en vermoedelijk zelfs pas daarna) zul je langzaamaan serieuze titels zien verschijnen die er serieus support voor bieden.

NB: Een serieuze post met serieuze argumentatie wegzetten als "geblaat" omdat je er vrm weinig tot niets tegenin kunt brengen is een nogal jammere en disrespectvolle discussiemethodiek. Het is geen kleuterklas hier.

[ Voor 12% gewijzigd door Cheetah op 11-10-2009 09:44 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zondag 11 oktober 2009 @ 09:39:
[...]
Ja. Want er zijn op dit moment geen (serieuze) games met support voor DX11, laat staan die hardware tesselator. En wel games met support voor PhysX.
Tegenwoordige tijd versus toekomstige tijd weet je nog? :)
Er is ook nog geen Fermi. Er is al wel een DX11 ondersteunende titel en anderen volgen snel. Daarbij denk ik niet dat Fermi volgend jaar opeens een hardware oplossing gaat krijgen, een paar maanden nadat hij uit is.

Dus ook hier hebben we het al over tegenwoordige tijd.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dahakon schreef op zondag 11 oktober 2009 @ 09:12:
[...]


Dus, zoals jij nu naar de dingen kijkt, heb je een probleem als blijkt dat Fermi echt geen hardwaretesselationunit heeft en het via de software moet doen. Want dat betekent automatisch dat er maar 1 merk is met tesselation en echte DX11 support.

Of is het dan opeens anders?
Of je tesselation hardwarematig of softwarematig doet maakt voor directx11 niet uit, het gaat er om dat de videokaart het kan doen, wil het directX11 ondersteunen.

Maar bij Amd videokaarten is het op dit moment dat ze helemaal niks met physics kunnen doen.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op zondag 11 oktober 2009 @ 09:43:
Er is ook nog geen Fermi. Er is al wel een DX11 ondersteunende titel en anderen volgen snel. Daarbij denk ik niet dat Fermi volgend jaar opeens een hardware oplossing gaat krijgen, een paar maanden nadat hij uit is.

Dus ook hier hebben we het al over tegenwoordige tijd.
Je bedoelt dat gepatchte gratis speelbare semi-antieke spel Battleforge? Please zeg...
Batman AA en Mirrors Edge afkraken, en dan zelf met Battleforge komen aanzetten. Prachtig weer... O-)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zondag 11 oktober 2009 @ 09:47:
[...]

Of je tesselation hardwarematig of softwarematig doet maakt voor directx11 niet uit, het gaat er om dat de videokaart het kan doen, wil het directX11 ondersteunen.

Maar bij Amd videokaarten is het op dit moment dat ze helemaal niks met physics kunnen doen.
Het maakt weldegelijk uit, want het argument van CPU-physics was niet specifiek hoe het er uit kan zien, maar dat die oplossing voor minder fps zorgt. Hetzelfde is hoogstwaarschijnlijk te stellen voor softwaremagite tesselation.
Cheetah schreef op zondag 11 oktober 2009 @ 09:50:
[...]
Je bedoelt dat gepatchte gratis speelbare semi-antieke spel Battleforge? Please zeg...
Batman AA en Mirrors Edge afkraken, en dan zelf met Battleforge komen aanzetten. Prachtig weer... O-)
Als 'nog geen half jaar ouder dan Batman Archam Asylum' (wat overigens geen DX11 ondersteund) opeens semi-antiek is... Waar ging die opmerking over ingaan op echte argumenten dan over? Nee, ondanks dat het de nieuwste DX-versie ondersteund als enige spel, is het natuurlijk geheel en totaal verouderd, je kunt het haast op die K6-266MHz draaien waar je het eerder over had.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ik denk dat hij bedoelt dat Battleforge niet grafisch hoogstaand is (en dan druk ik het nog zacht uit), en Batman wel.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
RappieRappie schreef op zondag 11 oktober 2009 @ 10:12:
Ik denk dat hij bedoelt dat Battleforge niet grafisch hoogstaand is (en dan druk ik het nog zacht uit), en Batman wel.
Je kunt verschillende ideeen hebben over wat grafische pracht en praal is, maar vanuit een dergelijk standpunt zou je kunnen stellen dat Batman prehistorisch is ten opzichte van bv het al 2 jaar oude Crysis. Maar dat is natuurlijk weer geen argument.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Cheetah schreef op zondag 11 oktober 2009 @ 08:16:
Nee hoor, ze melden slechts dat het nu, en vermoedelijk voorlopig (aangezien het nog wel even duurt voor DXCompute en OpenCL worden uitgewerkt in GPU physics engines en geimplementeerd zijn in games), het enige IS in dat genre. Onvoltooid tegenwoordige tijd.
Het hangt er maar van af hoe lang men zou moeten wachten vooraleer ATI ook speler is op het gebied van GPU-physics, en ook van het feit hoe onmisbaar men de huidige PhysX-implementaties in games acht in deze onvoltooid tegenwoordige tijd. Het feit dat de meeste games een implementatie hebben die makkelijk door de cpu gedaan kan worden en daarmee al zijn afhankelijkheid van een nVidia-gpu op losse sporen zet, plus het feit dat niet iedereen de ongeduldige zot moet uithangen en direct iets moet kopen wat er nog maar net is, maakt dat je best kan begrijpen dat niet iedereen overtuigd is om dankzij PhysX toch te gaan voor een nVidia, ondanks dat ATI momenteel in alle marktsegmenten een betere prijs per prestatie-ratio heeft.
Moet je doen dan... Niet iedereen heeft zin om minimaal tot halverwege volgend jaar te gaan zitten wachten op iets dat nu al te krijgen is.
Het is een kwestie van niet kunnen omdat je geen geld hebt voor een upgrade, of niet willen dankzij doorzettingsvermogen. Je weet best dat een "early adopter" in de pc-hardware-wereld al gauw benadeeld is omdat die meestal in het duister tast over welke technologie het zal willen, en dat de prijzen relatief te hoog zijn voor wat je krijgt. Je betaalt dus voor het nieuwe, en als dat je niet per sé zo dierbaar is, dan ben je volgens mij al veel rationeler bezig dan een gemiddelde splinternieuwkoper.
Maar prima filosofie verder hoor als je er zen mee bent: gewoon niets kopen totdat de toekomst hier is... Wat effectief op elk moment in de tijd neerkomt op niets kopen :)
Bwa niet echt, je koopt gewoon een huidige mid-end gpu, en dat is een beest van een gpu om de games van de laatste drie jaar op te spelen op maximale settings, die op die tijd ondertussen al helemaal gepatched en gebalanceerd zijn, en waarbij de community al zijn grootste deel heeft toe bijgedragen (denk aan mods, als het toepasselijk is), zodat een gamer die later begint met een game direct van het hele, afgewerkte en volledige pakket kan genieten. Het is een leuke beloning voor het wachten, al zeg ik het zelf.

En om dan even verder te reageren op diezelfde post, maar waarbij ik niet gequoted werd:
Het gaat niet over wie de beste aanpak heeft, het gaat over wie de enige werkende aanpak heeft :z
ATI heeft geen momenteel werkende aanpak, maar die zit eraan te komen. Net zoals nVidia fans wachten op hun eigen next-gen gpu, ipv te gaan voor de al beschikbare en werkende next-gen gpu van ATI. Zoiets is toch volkomen te begrijpen? En je kunt beweren dat een next-gen ATI minder toevoegt aan een huidige-gen nVidia kaart dan een nVidia kaart met PhysX aan een ATI kaart zonder PhysX, maar dat is aan de koper om dat uit te maken. Ik herinner mij dat je zelf pleitte dat beeldkwaliteit belangrijk is, en dat is net een van de sterke punten van de next-gen ATI, dus als je moet kiezen tussen tesselation en DX11, of PhysX, welke wordt het? En wat zijn de redenen? En mag iedereen hierover geen eigen mening hebben?
Kweet niet hoor, er wordt in een nVidia topic gesproken over een nVidia unique selling point dat wordt afgezeken door voornamelijk AMD aanhang. En dan moeten degenen die dat unique selling point van nV in nV's eigen topic verdedigen dan maar ffies een ander topic openen zodat de AMD aanhang hier rustig ongestoord door kan gaan met 't afbranden. Prachtig weer :D
Het wordt niet afgezeken, maar gerelativeerd, al kan dat er gelijkaardig uitzien, aangezien dat de enige selling point is van nVidia momenteel, als het gaat om games tenminste. Wat wél wordt afgezeken is de verzuurde aanpak van nVidia in het hele PhysX-gebeuren: mensen met een ATI kaart worden moedwillig in de kou gezet (hun PPU werkt niet als ze een ATI kaart hebben, PhysX wordt gedaan over 1 cpu-thread als ze een ATI kaart hebben) en dàt is wat ATI mensen niet willen hebben. Moest nVidia zich nu neutraal houden en zich differentiëren door betere kwaliteit te leveren, dan zou alles goed zijn. Maar nVidia probeert de betere te zijn door de andere effectief slechter te maken, en dat is een punt waar geen enkele consument (ook niet de NV-fans) blij om zouden mogen zijn. Het is repressie van de concurrentie, het is een marktwerking waarbij de arrogantie van de marktleider toonbaar wordt en waarbij ze geen schroom meer hebben om zich in te houden.

Dus, als je met de unique selling point van nVidia bedoelt: de PhysX-over-GPU-implementatie, dan nee, dat wordt niet afgezeken door de gemiddelde ATI-fanaat. Als je daar echter mee bedoelt: het moedwillig fnuiken van de prestaties op kaarten van de concurrentie, dan zéker wel! En daar sta ik 100% achter. Een bedrijf dat andere tactieken gebruikt dan concurreren op pure kwaliteit hoort bij mij niet thuis in de markt, die horen ferm gesanctioneerd te worden.
Dat heb je prima gezegd. PhysX is inderdaad het beste omdat er geen alternatieven zijn. Het enige is automatisch het beste namelijk. Net zoals de enige auto destijds ook de beste auto was.
Een auto is onmisbaar, maar PhysX is maar één van de vele grafische extra's die je op je GPU kan gebruiken. Zie het eerder als airco, of een cd-speler, of elektrische ruiten. Er zijn genoeg mensen die willen wachten op de airco, cd-speler of elektrische ruiten van de concurrentie, en ondertussen zullen ze wel blijven verder rijden in hun Toyota Starlett van 15 jaar oud. Het rijdt, en elektrische ruiten zullen ze wel kopen als de standaardenstrijd is beslecht en wanneer het geweten is wie de winnaar is en wat elektrische ruiten uiteindelijk zullen kosten, en wanneer elektrische ruiten waarschijnlijk beter gemaakt zullen zijn dan nu tijdens een van de kantelmomenten.
Toekomstige tijd. Hoe/wat/waar en vooral wanneer zal nog moeten blijken.
En aangezien die toekomst er zit aan te komen, is het dan slim om op een moment waarbij het nog niet zo belangrijk is of je nu een PhysX-ondersteunde gpu hebt al daarvoor te kiezen?
Neu hoor... Ik legde alleen even de ultieme toepassing uit van de door jou en diverse anderen gehanteerde filosofie: 3D = 3D, dat hadden we al sinds Wolfenstein3D/1992, en alle verbetering en verfraaiing van ingame realisme sindsdien is onzinnig.
ATI heeft ook zijn eigen grafische extraatjes, nVidia is daar niet de enige in. Het is dus maar welke van al die extraatjes van beide kampen jij belangrijkst acht. En dan spreek ik niet over nu, want het nu is enorm vluchtig. Ik spreek over nu en de komende jaren. Het is niet alsof ik mijn grafische kaart koop om nu te gebruiken, en dat die tegen volgende week al over vervaldatum is.

De eindconclusie is: ja, nVidia heeft het voordeel van gpu-PhysX op dit eigenste moment, en het is leuk voor nVidia-bezitters, maar is het voor ATI-bezitters de reden om een nVidia-kaart te kopen in de plaats? Is het voor momentele upgraders de moeite om te gaan voor een nVidia-kaart, met alle voor- en nadelen van beide kampen op elkaar afgewogen? Ik weet niet wie hier allemaal uit welk standpunt spreekt, maar aangezien er verschillende zijn, en aangezien er hier af en toe naast elkaar wordt gepraat, lijkt het mij dat iedereen moet uitleggen wat hij als ultieme doel beschouwt, en van daar uit vertrekkende zullen veel zegsels hier duidelijker worden.

Ik zal om te beginnen mijn meningen bij de verschillende standpunten uitleggen:
- Voor de nVidia-bezitters is PhysX een leuke extra, want het is gratis en het maakt de spelervaring beter.
- Voor de ATI-bezitters is PhysX "maar" een extra, en dus niet de moeite waard om over te schakelen, aangezien ATI zijn eigen extra's heeft.
- Voor upgraders hangt het er van af wat zij verwachten van hun nieuwe gpu: als ze PhysX de belangrijkste extra vinden, dan zullen ze daarvoor gaan. Als andere voordelen bij hen opwegen, dan niet. Heeft iemand andere voordelen die nVidia heeft tegenover ATI, en die ik vergeten vermelden ben? Zoja, aarzel niet, want het belangrijkste van deze discussie is om een unaniem besluit te bekomen, om de laatkomers (zoals ik eigenlijk zelf ben) van directe antwoorden te kunnen dienen bij hun vraag wat ze nu moeten beslissen. ;)

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zondag 11 oktober 2009 @ 09:12:
[...]


Dus, zoals jij nu naar de dingen kijkt, heb je een probleem als blijkt dat Fermi echt geen hardwaretesselationunit heeft en het via de software moet doen. Want dat betekent automatisch dat er maar 1 merk is met tesselation en echte DX11 support.

Of is het dan opeens anders?
Dat is sowieso onzin, DX11 zegt helemaal niet hoe je tesselation moet implementeren. Daarnaast klopt de beshrijving "software" ook niet echt, als het over de shaders gaat dan spreken we nog steeds over hardware.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op zondag 11 oktober 2009 @ 10:57:
[...]


Dat is sowieso onzin, DX11 zegt helemaal niet hoe je tesselation moet implementeren. Daarnaast klopt de beshrijving "software" ook niet echt, als het over de shaders gaat dan spreken we nog steeds over hardware.
Klopt. Maar PhysX kan ook gewoon over de CPU, dus bij mijn pc is het ook geïmplementeerd (met een Ati). Dus ach... Het werkt anders, geeft een grotere performancehit, maar het kan gewoon. Of tesselation bij de GT300 een performancehit gaat geven weet echter nog niemand dus daar kunnen we beter nog niet over gaan discussiëren.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op zondag 11 oktober 2009 @ 10:57:
Dat is sowieso onzin, DX11 zegt helemaal niet hoe je tesselation moet implementeren. Daarnaast klopt de beshrijving "software" ook niet echt, als het over de shaders gaat dan spreken we nog steeds over hardware.
De differentiatie tussen de softwarematige of hardwarematige aanpak is als de aanpak gebeurt door hardware die gespecialiseerd is voor die éne taak, of door hardware die vanalles kan, en dankzij softwareprogrammatie geschikt is voor die ene taak.

Een hardware tesselation-eenheid behoort tot de hardwarematige aanpak, de multipurpose gpu-aanpak tot de softwarematige. Want wat is een gpu anders dan een cpu in dat opzicht, buiten dat een gpu beter geschikt is voor simpele en-mass parallellisatie?

Acties:
  • 0 Henk 'm!

Verwijderd

bwerg schreef op zondag 11 oktober 2009 @ 11:04:
[...]
Klopt. Maar PhysX kan ook gewoon over de CPU, dus bij mijn pc is het ook geïmplementeerd (met een Ati). Dus ach... Het werkt anders, geeft een grotere performancehit, maar het kan gewoon. Of tesselation bij de GT300 een performancehit gaat geven weet echter nog niemand dus daar kunnen we beter nog niet over gaan discussiëren.
Ik beweer ook niet dat het één sneller is dan het ander, het is alleen onjuist om te roepen dat een kaart geen echte DX11 support heeft omdat er geen tesselation unit aanwezig is.
DevilsProphet schreef op zondag 11 oktober 2009 @ 11:07:
[...]
De differentiatie tussen de softwarematige of hardwarematige aanpak is als de aanpak gebeurt door hardware die gespecialiseerd is voor die éne taak, of door hardware die vanalles kan, en dankzij softwareprogrammatie geschikt is voor die ene taak.

Een hardware tesselation-eenheid behoort tot de hardwarematige aanpak, de multipurpose gpu-aanpak tot de softwarematige. Want wat is een gpu anders dan een cpu in dat opzicht, buiten dat een gpu beter geschikt is voor simpele en-mass parallellisatie?
Hoewel je gelijk hebt blijf ik het geen goede benaming vinden, ik heb het liever over een tesselation unit oid. Dat klinkt toch net iets duidelijker in de oren.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 11 oktober 2009 @ 11:13:
[...]


Ik beweer ook niet dat het één sneller is dan het ander, het is alleen onjuist om te roepen dat een kaart geen echte DX11 support heeft omdat er geen tesselation unit aanwezig is.
Het gaat er ook niet zozeer om of het wel of niet echt DX11 is. In mijn opinie is het gewoon DX11, als het tesselation kan doen.

Maar het punt was dat de statement dat physics over de CPU geen echte physics is, van dezelfde strekking is. Het is onzin, want physics is physics. Vanuit het oogpunt van bv Cheetah zou tesselation zonder hardwarematige tesselationunit echter eigenlijk geen tesselation zijn.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Kijk, een gebalanceerde post. Mijn dank is groot :)
Het hangt er maar van af hoe lang men zou moeten wachten vooraleer ATI ook speler is op het gebied van GPU-physics, en ook van het feit hoe onmisbaar men de huidige PhysX-implementaties in games acht in deze onvoltooid tegenwoordige tijd.
Wat is "onmisbaar"? Is AA en AF onmisbaar? Zijn HQ textures onmisbaar?
En de vraag is inderdaad hoe lang men zal moeten wachten voordat anderen werkende GPU physics engines hebben. Het nadeel van DX11Compute is dat backwards compatibility met vorige DX versies naar mijn weten nogal slecht is. Voordat dit ingeburgerd zal zijn, zijn we dus wel even verder. Alternatief is OpenCL, maar ook daar staan er nog niet of nauwelijks games op de rol die hiervan gebruik gaan maken.
ATi belooft al 3,5 jaar GPU physics. Ik besef dat die nu geen 3,5 jaar meer weg zijn, maar hoe lang wel dan? Ik hoor al zeker een jaar - sinds nV bezig is met PhysX - "ja, binnenkort gaat het gebeuren". Mijn motto: eerst zien, dan geloven. Pas wanneer ik een lijst met binnenkort te releasen game-titels zie die gebruik gaan maken van een alternatieve GPU physics engine ga ik er serieus rekening mee houden. Niet eerder.
Het feit dat de meeste games een implementatie hebben die makkelijk door de cpu gedaan kan worden en daarmee al zijn afhankelijkheid van een nVidia-gpu op losse sporen zet
Dit is een bewering die ik in het topic wel meer gedaan, maar niet gestaafd heb zien worden. De CPU kan dergelijke berekeningen met dergelijke precisie dus ook, zonder probleem? Waar zijn al de games dan?
plus het feit dat niet iedereen de ongeduldige zot moet uithangen en direct iets moet kopen wat er nog maar net is, maakt dat je best kan begrijpen dat niet iedereen overtuigd is om dankzij PhysX toch te gaan voor een nVidia, ondanks dat ATI momenteel in alle marktsegmenten een betere prijs per prestatie-ratio heeft.
Dat kan ik prima begrijpen. Maar men moet dan niet met doorzichtige downplayargumenten komen als:
* Ja, dat physx maakt allemaal niets uit, het zijn alleen maar grafische effects (dat zijn AA/AF & HQ-tex ook)
* Ja, dat kan mijn CPU ook hoor (bewijs a.u.b.)
* Ja, er is a.t.m. nog niet genoeg support voor (ga dan niet intussen de loftrompet steken over "DX11" en "hardware tesselator" op de doos van een HD58x0, want veel verder dan de opdruk op de doos komt men er voorlopig ff niet mee)

Kun je het daarnaast ook begrijpen dat iemand met een eenvoudig mid-end systeem en een mid-end nVidia kaart er best enthousiast over is dat hij effecten waar systemen met high-end CPU's hun tanden op stukbijten kan afdraaien op z'n redelijk eenvoudige systeempje?
Ik herinner mij dat je zelf pleitte dat beeldkwaliteit belangrijk is, en dat is net een van de sterke punten van de next-gen ATI, dus als je moet kiezen tussen tesselation en DX11, of PhysX, welke wordt het? En wat zijn de redenen? En mag iedereen hierover geen eigen mening hebben?
Natuurlijk mag iedereen een eigen mening hebben. Maar als ik het eens vrij mag vragen: in welk spel kan ik de betere beeldkwaliteit en 'grafische extraatjes' van ATi waar je het over had momenteel zien? Of DX11? Of een hardware tesselator?
Nu voor de volle mep een DX11 kaart kopen voor DX11 games die er niet zijn en hardware tesselation dat nog in geen enkele game gesupport wordt... tja, van mij mag het hoor... maar dan wordt jouw filosofie plots wel interessant: waarom nu de volle mep betalen voor features waar je nog letterlijk niets aan hebt, terwijl je tegen de tijd dat je er wel wat aan hebt de prijzen flink gedaald zijn en er meer keuze op de markt is?
Ik zit ook te denken over een 5850, maar bepaald niet voor DX11 hoor. Tegen de tijd dat DX11 serieus gebruikt wordt is de 58-serie achterhaald. Zou heel specifiek voor Crysis in het here-and-now zijn.
Het wordt niet afgezeken, maar gerelativeerd
"Je ziet er nauwelijks wat van in game"; "Het is allemaal onzin; het veranderd niets aan de gameplay"; "Mijn CPU kan dat allemaal ook hoor"; "Je hebt er niks aan, want over XX maanden/jaar komt ATi pas echt met The-Shizzle-Physics"?
Tja... kan aan mijn definities liggen, maar ik versta toch echt wat anders onder "relativeren" ;)
Wat wél wordt afgezeken is de verzuurde aanpak van nVidia in het hele PhysX-gebeuren: mensen met een ATI kaart worden moedwillig in de kou gezet (hun PPU werkt niet als ze een ATI kaart hebben, PhysX wordt gedaan over 1 cpu-thread als ze een ATI kaart hebben) en dàt is wat ATI mensen niet willen hebben. Moest nVidia zich nu neutraal houden en zich differentiëren door betere kwaliteit te leveren, dan zou alles goed zijn. Maar nVidia probeert de betere te zijn door de andere effectief slechter te maken, en dat is een punt waar geen enkele consument (ook niet de NV-fans) blij om zouden mogen zijn. Het is repressie van de concurrentie, het is een marktwerking waarbij de arrogantie van de marktleider toonbaar wordt en waarbij ze geen schroom meer hebben om zich in te houden.
Is het vreemd dat nV PhysX beperkt tot nV kaarten nadat AMD glashard geweigerd heeft eraan mee te werken en support ervoor te bieden? Zij wilden niet, nouja, dan helemaal niet dus... en dat vind ik nog steeds jammer, want dat is de reden waarom ik nu nog twijfel over een 5800 serie kaart. Ik wil Batman AA nog spelen en er staan nog wat andere interessante PhysX ondersteunende titels op de rol.

De soep wordt trouwens niet zo heet gegeten als die opgediend wordt, want er is inmiddels een patch om een ATi kaart te kunnen gebruiken met een nV kaart voor PhysX.

[ Voor 8% gewijzigd door Cheetah op 11-10-2009 14:05 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Cheetah schreef op zondag 11 oktober 2009 @ 13:55:
De soep wordt trouwens niet zo heet gegeten als die opgediend wordt, want er is inmiddels een patch om een ATi kaart te kunnen gebruiken met een nV kaart voor PhysX.
Dat is dus juist andersom. Nvidia heeft na de introductie van Win7 overuren gedraaid (bij wijze van spreken) om te zorgen dat dit niet mogelijk was.

Dat iemand vervolgends erachter komt dat die "soft-limit" eruit gehackt kan worden (waar hebben we dat eerder gehoord ? :X ) door de drivers met intercepten tijdens de installatie van de nvidia drivers binnen de Win7 "driver testing mode", heeft niets met de goodwill van nvidia te maken. Integendeel zelfs.

Dit kan er elk moment uitgesloopt worden, zei het door Microsoft (al is daar geen reden toe) of door Nvidia.

[ Voor 9% gewijzigd door SirNobax op 11-10-2009 14:14 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 00:58

dion_b

Moderator Harde Waren

say Baah

Modbreak:Mensen, mag ik jullie even **DRINGEND** op de titel en dus het onderwerp van deze topic wijzen :?

PhysX vs Havoc is 1) geen nieuws en 2) al lang en breed uitgekauwd hier.


Dit topic staat momenteel sowieso in z'n geheel ter discussie wegens onoverzichtelijkheid en het feit dat het nauwelijks (met normale inzet) te modereren is. Degenen die nu *WEER* eens iets onnodig gaan zitten te herkauwen zijn allemaal regulars. Jullie weten beter, en jullie hebben ook het meest te verliezen. Ga vooral zo door als je een einde wilt aan dit topic... :o

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zondag 11 oktober 2009 @ 13:55:
Het nadeel van DX11Compute is dat backwards compatibility met vorige DX versies naar mijn weten nogal slecht is. Voordat dit ingeburgerd zal zijn, zijn we dus wel even verder. Alternatief is OpenCL, maar ook daar staan er nog niet of nauwelijks games op de rol die hiervan gebruik gaan maken.
Het probleem van backwards compatibility van CS is vooral van belang als je geen DX11 kaarten kunt leveren. Vanaf dinsdag heeft AMD echter al 4 kaarten beschikbaar in de verschillende lagen, waaronder de behoorlijke 100-150 euro laag.
Dit is een bewering die ik in het topic wel meer gedaan, maar niet gestaafd heb zien worden. De CPU kan dergelijke berekeningen met dergelijke precisie dus ook, zonder probleem? Waar zijn al de games dan?
Wat denk je dat er zou gebeuren als nVidia de GPU-physics ook zou hardcoden om maar gebruik te maken van een enkele shaderunit. Denk je dat de game dan ook nog soepel zou lopen? Dat als alles moet wachten op de physics-berekeningen, je nog altijd 60+ fps krijgt? Dat is namelijk het probleem waar nu tegenaan gelopen wordt, hardcoded belemmering om goed te kunnen draaien.
Dat kan ik prima begrijpen. Maar men moet dan niet met doorzichtige downplayargumenten komen als:
* Ja, dat physx maakt allemaal niets uit, het zijn alleen maar grafische effects (dat zijn AA/AF & HQ-tex ook)
* Ja, dat kan mijn CPU ook hoor (bewijs a.u.b.)
* Ja, er is a.t.m. nog niet genoeg support voor (ga dan niet intussen de loftrompet steken over "DX11" en "hardware tesselator" op de doos van een HD58x0, want veel verder dan de opdruk op de doos komt men er voorlopig ff niet mee)
Die downplayargumenten zijn niet veel meer dan een reactie op andere downplayargumenten. Waarom stel je 1 ding als extreem belangrijk en andere zaken als totale luxe? Je hebt het om de haverklap over AA/AF en hoge resoluties en komt dan met de opmerking dat je anders ook wel op antieke hardware kunt blijven gamen. Maar AMD is al jaren bezig om iets als tesselation in DirectX te krijgen. DX10 werd ook erg teruggeschroefd omdat 1 hardwarefabrikant niet alles in zijn G80 'al dan niet kon' stoppen/heeft gestopt. Zodra Dirt 2 uitkomt, loopt AMD verder praktisch gelijk op qua DX11 titels vs nVidia-only 'PhysX titels'.
Kun je het daarnaast ook begrijpen dat iemand met een eenvoudig mid-end systeem en een mid-end nVidia kaart er best enthousiast over is dat hij effecten waar systemen met high-end CPU's hun tanden op stukbijten kan afdraaien op z'n redelijk eenvoudige systeempje?
Vanaf volgende week kunnen mensen ook genieten van CS 5, waarmee een game als Battleforge een behoorlijke prestatiewinst boekte. Toch leuk voor mensen met een ~110 euro kaart die prestaties heeft van een HD4870/GTX260)
Natuurlijk mag iedereen een eigen mening hebben. Maar als ik het eens vrij mag vragen: in welk spel kan ik de betere beeldkwaliteit en 'grafische extraatjes' van ATi waar je het over had momenteel zien? Of DX11? Of een hardware tesselator?
Nu voor de volle mep een DX11 kaart kopen voor DX11 games die er niet zijn en hardware tesselation dat nog in geen enkele game gesupport wordt... tja, van mij mag het hoor... maar dan wordt jouw filosofie plots wel interessant: waarom nu de volle mep betalen voor features waar je nog letterlijk niets aan hebt, terwijl je tegen de tijd dat je er wel wat aan hebt de prijzen flink gedaald zijn en er meer keuze op de markt is?
Ik zit ook te denken over een 5850, maar bepaald niet voor DX11 hoor. Tegen de tijd dat DX11 serieus gebruikt wordt is de 58-serie achterhaald. Zou heel specifiek voor Crysis in het here-and-now zijn.
Of je er niets aan hebt? Zoals gezegd, de eerste titel die gebruik maakt van de verbeteringen die DX11 met zich mee brengt is er al. Dat is net zo bruikbaar als die 'rondvliegende toiletpapier' zoals een medeposter het noemt in Batman. Het is maar net wat je interessant vindt. Verder is een kaart die goedkoper is dan een GTX260, maar dankzij DX11 wel betere prestaties neer kan zetten helemaal niet zo'n slechte deal, ik zou het in ieder geval niet bestempelen als 'de volle mep betalen'.

Edit: zie net de modbreak boven mijn post staan. Excuses als deze post nog als irrelevant bestempeld wordt, in dat geval, heb ik er geen probleem mee als deze wordt verwijderd en onthoudt ik mij verder uit deze ietwat uit de hand gelopen discussie aangaande standaarden en ondersteuning.

[ Voor 3% gewijzigd door dahakon op 11-10-2009 14:23 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Een hd5850 is anders wel goedkoper dan een gtx285 :B

Ik vind dat nvida physx blokeert in geval van een ati + nvidia combinatie wel een erg slechte zaak. Het is alsof je kabelmaatschappij een zender blokkeert omdat je niet de goede merk tv hebt.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zondag 11 oktober 2009 @ 14:21:
[...]


Het probleem van backwards compatibility van CS is vooral van belang als je geen DX11 kaarten kunt leveren. Vanaf dinsdag heeft AMD echter al 4 kaarten beschikbaar in de verschillende lagen, waaronder de behoorlijke 100-150 euro laag.
Het is eigenlijk vooral van belang als je geen DX11 kaart hebt. Zoals 99.94% van alle PC bezitters. Terwijl er miljoenen kaarten uitstaan die CS4(.1) zouden kunnen gebruiken.

Dat roept toch op zijn minst de vraag op waarom iedereen weer eens moord en brand schreeuwt als de Ageia PPU 3 jaar na zijn adoptie door Nvidia geen driver updates meer krijgt, terwijl backwards compatibility op andere fronten vrij gemakkelijk wordt weggewimpeld.

OpenCL werkt tenminste wel gewoon op alle Nvidia hardware van 3 jaar geleden of nieuwer. En zal binnenkort wellicht tenminste nog op de RV770, en op DX11-kaarten van AMD draaien.

Ik kan dan ook slechts de hoop uitspreken dat OpenCL een groot stuk van de GPGPU-taart zal opeisen. Maar vrees tegelijkertijd dat CS al op voorhand gewonnen heeft.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Biff schreef op zondag 11 oktober 2009 @ 14:57:
Het is eigenlijk vooral van belang als je geen DX11 kaart hebt. Zoals 99.94% van alle PC bezitters. Terwijl er miljoenen kaarten uitstaan die CS4(.1) zouden kunnen gebruiken.

Dat roept toch op zijn minst de vraag op waarom iedereen weer eens moord en brand schreeuwt als de Ageia PPU 3 jaar na zijn adoptie door Nvidia geen driver updates meer krijgt, terwijl backwards compatibility op andere fronten vrij gemakkelijk wordt weggewimpeld.

OpenCL werkt tenminste wel gewoon op alle Nvidia hardware van 3 jaar geleden of nieuwer. En zal binnenkort wellicht tenminste nog op de RV770, en op DX11-kaarten van AMD draaien.

Ik kan dan ook slechts de hoop uitspreken dat OpenCL een groot stuk van de GPGPU-taart zal opeisen. Maar vrees tegelijkertijd dat CS al op voorhand gewonnen heeft.
Exact... Vandaar ook dat ik enige serieuze bedenkingen heb rond wanneer het allemaal dan zou moeten gaan gebeuren met de GPU physics alternatieven.

DX11Compute zal voor verreweg de meeste gamebouwers op dit moment niet zo interessant zijn om een - dus niet backwards compatible - physics engine op te baseren, omdat naar verhouding vrijwel niemand DX11 kaarten heeft, en de doelgroep voorlopig dus niet interessant genoeg is.

HavokFX we hoeven we niet te verwachten voordat Intel's Larrabee het daglicht ziet (dus mininmaal ~1/2 jaar van nu als er geen delays zijn), plus het is net zo proprietair en gesloten als PhysX.

Rond OpenCL heb ik helaas nog geen serieuze GPU physics ontwikkelingen gezien... AMD promoot dat met de mond, maar nog nauwelijks met resources... gezien standaarden en physics engines niet van gisteren op vandaag ontwikkeld worden, en zoals je stelt DX11Compute al om de hoek is komen kijken is het maar net de vraag in hoeverre gamedev's nu in OpenCL gaan investeren.

In het meest gunstige geval zien we wellicht over 6-9 maanden alternatieve GPU physics engines oppoppen. Ligt het wat ongunstiger, dan gaan dev's zitten wachten tot DX11 voldoende momentum heeft om DX11Compute interessant te maken... en dan praten we naar ik bang ben toch over minstens een jaar van nu.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dion_b schreef op zondag 11 oktober 2009 @ 14:14:
[modbreak]Ga vooral zo door als je een einde wilt aan dit topic... :o [/modbreak]
Geeft nog maar even een stille hint. :X

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 28-08 22:56

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Is die testsample van Fermi eigenlijk nog op de gevoelige plaat (foto) gezet?

Er werd gesproken over het feit dat er veel draadjes aan hingen enz, maar toch ben ik dan wel benieuwd hoe die er uit zag. Zal zeker wel geen echte foto van zijn?

Ik ben benieuwd naar de Fermi, goeie concurrentie is goed voor ons, dus kom maar op :)

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Oet schreef op zondag 11 oktober 2009 @ 16:13:
Is die testsample van Fermi eigenlijk nog op de gevoelige plaat (foto) gezet?

Er werd gesproken over het feit dat er veel draadjes aan hingen enz, maar toch ben ik dan wel benieuwd hoe die er uit zag. Zal zeker wel geen echte foto van zijn?

Ik ben benieuwd naar de Fermi, goeie concurrentie is goed voor ons, dus kom maar op :)
Ik vrees dat we die versie niet te zien zullen krijgen, tenzij een interne medewerker van nVidia heel erg graag een andere baan wil gaan zoeken. Ze zullen echte testkaarten, hoe deze er ook uit zien, echt niet buiten het lap brengen en echt niet aan jan en alleman tonen. De risico's dat er werkelijk beeldmateriaal van op internet verschijnt is gewoon te groot. Zelfs als er niets te zien valt, zullen er nog de wereld aan speculaties ontstaan.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik zou aan zoiets denken (iedereen weet wel welke chip dit is):

Afbeeldingslocatie: http://tweakers.net/ext/f/Au1VDhgbUINFFnUNhbeuzKCw/thumb.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/czJ6u3MoUdLeySwCHmda8ghL/thumb.jpg

March of the Eagles


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
Hacku schreef op zondag 11 oktober 2009 @ 16:51:
Ik zou aan zoiets denken (iedereen weet wel welke chip dit is):

[afbeelding]

[afbeelding]
Nou iedereen, welke chip is dat? :)
Btw: Alstublieft stoppen over die Physx discussie, ik geniet van dit topic en van het Ati topic en zou het jammer vinden als het topic gesloten wordt.
Alvast bedankt d:)b

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Ik zet mijn geld op een Riva 128. :9

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Laat me eerder denken aan een Sun PGX64 (ATi Rage XL)... maar het zal hem niet zijn :(.
Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.