[Algemeen] nVidia Nieuws & Discussie Topic - Deel 39 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 21.726 views

Acties:
  • 0 Henk 'm!

Anoniem: 287880

Chipset.
Met de geheugencontroller geintegreerd op de die?
En met Clarkdale een 45 nm IGP in dezelfde package?
Vanaf sandy bridge al helemaal?

Het is nog maar een southbridge achtig iets en verder niets.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Tyranium schreef op donderdag 08 oktober 2009 @ 20:21:
Maar nVidia is het hiervoor ook gelukt met chipsets als de 790, 680, nForce 4, nForce2. Dit waren allemaal chipsets die even goed, zo niet betere prestaties hadden dan de Intel/AMD tegenhangers.
Ik weet niet hoe je erbij komt dat een 680i chipset goed/beter was dan een Intel tegenhanger.
De 790 was misschien dan niks mis mee maar wat had die van voordeel boven een Intel chipset (behalve SLI)
De nForce 2 en 4 weet ik niet niks van (te lang geleden.) :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Toch denk ik niet dat het ontbreken van NVidia-chipsets erg is voor de markt. Leuk, zo'n concurrent, maar dat gaat prijzen echt niet omlaagdrukken. Als AMD- en intel-chipsets maken doen ze dat voor hun eigen platformen, en die zullen ze toch wel zo goed mogelijk willen verkopen. In dat opzicht zijn AMD- en intel-chipsets wél concurrenten: ze zijn dan wel voor een totaal ander platform bedoeld maar ze concurreren als geheel platform.

NVidia uit de high-end grakamarkt, echter... dàt is slecht voor de concurrentie.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

chimo schreef op donderdag 08 oktober 2009 @ 16:09:
Als Nvidia failliet gaat, moet je dus een ATI kaart kopen als je wilt gamen? Ik weet niet of mensen dat willen, om wat voor reden dan ook. Kan ook niet volgens mij, dat er één videokaart fabrikant is.
Ik geloof dat het perspectief op dit moment een beetje zoek is :)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Biff schreef op vrijdag 09 oktober 2009 @ 00:23:
[...]


Ik geloof dat het perspectief op dit moment een beetje zoek is :)
Stukje tekst uit de link:

Advanced Micro Devices (AMD)
When will AMD actually make money again? The question is becoming more important by the day since it carries over $5 billion in long-term debt.

After losing almost $3 billion from 2007 – 2008, analysts expect the company to lose more money in 2009 and 2010.

While the shares rallied from their February $2 low, they still appear stuck in a long-term down trend from $40 highs way back in 2006.

Volgens mij doet alleen Intel het nog goed :'( Zou wat zijn als we straks alleen nog met Larabee overblijven ;)

Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 05-06 21:32
Tyranium schreef op vrijdag 09 oktober 2009 @ 00:29:
[...]


Stukje tekst uit jou link:

Advanced Micro Devices (AMD)
When will AMD actually make money again? The question is becoming more important by the day since it carries over $5 billion in long-term debt.

After losing almost $3 billion from 2007 – 2008, analysts expect the company to lose more money in 2009 and 2010.

While the shares rallied from their February $2 low, they still appear stuck in a long-term down trend from $40 highs way back in 2006.

Volgens mij doet alleen Intel het nog goed :'( Zou wat zijn als we straks alleen nog met Larabee overblijven ;)
In zo'n geval zal AMD opgeknipt worden en zullen de 'losse' onderdelen verkocht worden lijkt me om de schuldeisers tegemoet te komen. Oftewel, CPU divisie, VGA divisie, flash divisie...

Je hoeft je geen zorgen te maken hoor :)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

-The_Mask- schreef op donderdag 08 oktober 2009 @ 20:38:
[...]

Ik weet niet hoe je erbij komt dat een 680i chipset goed/beter was dan een Intel tegenhanger.
De 790 was misschien dan niks mis mee maar wat had die van voordeel boven een Intel chipset (behalve SLI)
De nForce 2 en 4 weet ik niet niks van (te lang geleden.) :p
Ik zeg niet dat alle nVidia chipsets veel beter waren dan hun intel/amd tegenhangers, maar de 680i presteerde zeker ook niet slechter dan de intel chipsets op dat moment.

En de nForce 2 (Athlon XP) en nForce 4 (Athlon 64) waren beiden ook top chipsets.

Edit:
In zo'n geval zal AMD opgeknipt worden en zullen de 'losse' onderdelen verkocht worden lijkt me om de schuldeisers tegemoet te komen. Oftewel, CPU divisie, VGA divisie, flash divisie...

Je hoeft je geen zorgen te maken hoor
Aan m'n knipoog smiley kon je zien dat mijn post niet al te serieus is. AMD zit al veel langer in de rode cijfers en ik verwacht dan ook niet dat ze nu opeens failliet gaan ofzo. :)

[ Voor 25% gewijzigd door Tyranium op 09-10-2009 10:44 ]


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Tyranium schreef op vrijdag 09 oktober 2009 @ 03:43:
[...]

Ik zeg niet dat alle nVidia chipsets veel beter waren dan hun intel/amd tegenhangers, maar de 680i presteerde zeker ook niet slechter dan de intel chipsets op dat moment.
nieuws: Nforce 680i-chipset definitief niet compatible met Yorkfield-cpu's

Zeker wel, de 680i was een erg slechte overclocker met quad cores.
En de nForce 2 (Athlon XP) en nForce 4 (Athlon 64) waren beiden ook top chipsets.
Voor het AMD platvorm waren dat echt goeie chipsets.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Tyranium schreef op donderdag 08 oktober 2009 @ 20:21:
Of het voor nVidia mogelijk is om een betere chipset te maken dan de P55/X58 weet ik niet. En tuurlijk heeft intel een voordeel in deze situatie. Maar nVidia is het hiervoor ook gelukt met chipsets als de 790, 680, nForce 4, nForce2. Dit waren allemaal chipsets die even goed, zo niet betere prestaties hadden dan de Intel/AMD tegenhangers. (ik heb het nu even over prestaties en niet over warmteproductie of verbruik, maar dit vind ik persoonlijk minder belangrijk voor een high-end systeem).

En daarnaast heeft nVidia met hun ION platform op dit moment een veel betere chipset dan Intel zelf heeft voor de Intel Atom processor.
Niet vergeten dat de fabrikanten in de chipsetmarkt niet constant zijn geweest over de laatste tien jaar.

Ten tijde van de Athlon had je vooral Via en SiS chipsets, en samen met de eerste via DDR chipsets werd de nVidia nforce gelanceerd, die echter niet tot de beste in die tijd behoorde. Daarna werd de nForce2 gelanceerd en werd Via in de budget-chipsetmarkt geduwd, waarna die compleet verdween van het toneel. Hetzelfde is blijkbaar bezig met nVidia, al hebben ze zich eerder toegelegd op de high-end dan op de low-end vooraleer ze ermee stopten. Ondertussen was AMD de hele tijd bezig met eigengemaakte chipsets, maar die waren niet zo bekend in de enthousiastmarkt, tot de release van hun 600- en 700-series chipsets, en sindsdien hebben ze vrijwel de hele markt voor AMD cpu's ingepalmd.

[ Voor 8% gewijzigd door RuddyMysterious op 09-10-2009 09:39 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik heb gewerkt met de nforce 680i/790i
De 680i was niet helemaal stabiel leuk voor sli en een lichte oc meer niet.
De 790i was echter een toppertje flinke oc mee behaald en goed stabiel en werd niet heet.
Dit bord doet het nu nog super goed bij veel mensen die hem nog hebben.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Tyranium schreef op vrijdag 09 oktober 2009 @ 03:43:
[...]
rs, maar de 680i presteerde zeker ook niet slechter dan de intel chipsets op dat moment.
Prestatie verschil in chipsets kun je sowieso tegenwoordig wel verwaarlozen. Het gaat om de extra dingen zoals overklokken en met 65nm quadcores van Intel was dat gewoon niet te doen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

NVIDIA DirectX 11 Questionnaire – A Response to AMD’s Views

At the same time, however, NVIDIA gave us the opportunity to ask them some questions. So with questions in hand and Ujesh Desai, the Vice President of Product Marketing willing to answer them, it was time to see what was going on with the green team.
Veel leesplezier. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 06-06 22:02
dahakon in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Oud! :P.

Oh het vervolg... hij leek er zoveel op... mijn excuses. :D

Jammer dat er geen beter voorbeeld bedacht werd dan alleen maar "Batman: Arkham Asylum dit" "Batman: Arkham Asylum dat".

[ Voor 54% gewijzigd door Paprika op 09-10-2009 12:32 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Dat is iets anders. ;)

Dit is een interview met een nV PR man.

Edit:
Posted: 1 day, 3 hours Ago

[ Voor 29% gewijzigd door Format-C op 09-10-2009 12:25 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 263719

Jammer dat er geen beter voorbeeld bedacht werd dan alleen maar "Batman: Arkham Asylum dit" "Batman: Arkham Asylum dat".
Idd, duidelijk iemand van de PR afdeling, in elk antwoord zie je steeds dezelfde woorden terug komen :

PhysX, CUDA, Batman AA, 3D Vision, SLI, Great,...

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 06-06 22:02
Tja, dat had ik al voor het lezen verwacht, maar dit:
for example, people with GeForce GPUs get an awesome in-game physics experience with Batman: Arkham Asylum TODAY. It is unfortunate for AMD GPU customers that AMD does not innovate at the same pace as NVIDIA and that they miss out on great features like PhysX and 3D Vision in blockbuster titles like Batman: Arkham Asylum.
Een Blockbuster is een bom die een compleet huizenblok verwoest... weinig games krijgen die titel van mij en Batman...? Nou, nee.

Jammer.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 06-06 14:14

Darkasantion

Just keep swimming!

[...It is unfortunate for AMD GPU customers that AMD does not innovate at the same pace as NVIDIA...]
Lol, we negeren even het feit dat ATI de 1e was met 40 nm, GDDR5, Tesselation ect ect....

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Darkasantion schreef op vrijdag 09 oktober 2009 @ 12:52:
[...]

Lol, we negeren even het feit dat ATI de 1e was met 40 nm, GDDR5, Tesselation ect ect....
DX10.1 en 11 niet te vergeten.

Dat iemand zo'n persoon dan nog serieus gaat nemen, vraag ik mij dan dus af. :')

[ Voor 13% gewijzigd door -The_Mask- op 09-10-2009 13:00 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Even today our GeForce GTX 285 significantly outperforms the HD 5870 in next gen games like Batman Arkham Asylum with physics. In fact, even our GeForce GTS 250 outperforms it. That's fundamentally the difference between us and AMD. We focus on graphics plus cool effects like physics and 3D stereo, whereas AMD just makes incremental changes to their graphics cards.
:')

nVidia, wie hou je nou eigenlijk voor de gek.
Het enige waar jullie ATi mee outperformen is met geld/PR, "cool effects like physics" "een zak geld geven aan ontwikkelaars om het niet voor ati beschikbaar te maken"
-O-

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 30-03 21:55
Wat moet hij dan? Gaan roepen dat Physx in slechts 2 spellen (Batman:AA en Mirrors Edge) een verschil maakt uit een verzameling van honderden spellen voor de PC? Toegeven dat CUDA totaal betekenisloos is in games afgezien van Physx? De 58xx serie van Ati als de beste koop voor het bovengemiddelde performance segment op dit moment gaan aanprijzen.

Ik heb bijna medelijden met hem. Hij moet wel hetzelfde verhaaltje opdreunen wat al sinds de 48xx wordt herhaald. Er is niets anders te melden en nVidia zet voedsel op zijn tafel dus herhaalt hij het allemaal nog een keer.

[ Voor 4% gewijzigd door SneakyNL op 09-10-2009 14:32 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ja, maar hij overdrijft wel heel erg als hij zegt dat een GTS250 beter is dan een 5870... zelfs voor een PR-mannetje. Maar goed, ik kan wel om die knul lachen zo :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
SneakyNL schreef op vrijdag 09 oktober 2009 @ 14:31:
Wat moet hij dan? Gaan roepen dat Physx in slechts 2 spellen (Batman:AA en Mirrors Edge) een verschil maakt uit een verzameling van honderden spellen voor de PC? Toegeven dat CUDA totaal betekenisloos is in games afgezien van Physx? De 58xx serie van Ati als de beste koop voor het bovengemiddelde performance segment op dit moment gaan aanprijzen.
Zou wel eerlijk zijn iig. :+

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 07-06 12:23
Over de HD5870:
Even today our GeForce GTX 285 significantly outperforms the HD 5870 in next gen games like Batman Arkham Asylum with physics. In fact, even our GeForce GTS 250 outperforms it.
:X :+

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 18:13

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 07-06 12:23
Was dit al gepost?
http://publish.it168.com/2009/0807/20090807051203.shtml

Afbeeldingslocatie: http://img.publish.it168.com/2009/0807/images/1633232.JPG

Afbeeldingslocatie: http://img.publish.it168.com/2009/0807/images/1633238.jpg

Afbeeldingslocatie: http://img.publish.it168.com/2009/0807/images/1633251.jpg

Echt budget spul dus. Ws eerder concurrent van de HD 5350/5370 dan HD 5750 en 5770?

[ Voor 12% gewijzigd door dirkjesdirk op 09-10-2009 15:07 ]

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 02:09
Kunnen alle ATI fanboys ff moven en ergens anders gaan bashen? Dank u! :)

Ik geloof nog steeds in Nvidia en hoop dat ze een 100% kickass videokaart uitbrengen, zoals 3dgameman altijd zegt. :P

[ Voor 45% gewijzigd door chim0 op 09-10-2009 15:50 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
chimo schreef op vrijdag 09 oktober 2009 @ 15:49:
Kunnen alle ATI fanboys ff moven en ergens anders gaan bashen? Dank u! :)

Ik geloof nog steeds in Nvidia en hoop dat ze een 100% kickass videokaart uitbrengen, zoals 3dgameman altijd zegt. :P
Dat is altijd beter, jammer is dat het niet echt waarschijnlijk lijkt.


Wat ik me afvraag, gezien ze de tessalator software gaan doen, doen ze dat misschien met CUDA?

Als ze dat doen zijn ze misschien wel veel sneller met tessalator functies als dat kan werken?

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
chimo schreef op vrijdag 09 oktober 2009 @ 15:49:
Kunnen alle ATI fanboys ff moven en ergens anders gaan bashen? Dank u!
Waar dan? In het ATI Nieuws & Discussie Topic zou dat offtopic zijn.
Of mag je alleen als Nvidia-liefhebber hier iets posten? ;)

Dat een Nvidia PR knakker zichzelf belachelijk maakt door uitspraken zoals over die GTS250 is natuurlijk niet die "ATI fanboy's" ( :/ ) schuld.
Wat ik me afvraag, gezien ze de tessalator software gaan doen, doen ze dat misschien met CUDA?
Als ze dat doen zijn ze misschien wel veel sneller met tessalator functies als dat kan werken?
Misschien, als de "cuda-cores" niets anders aan het doen zijn. Helaas blijkt dat tijdens het spelen van spellen, er vaak iets gerenderd moet worden, voordat er ergens tesselation kan toegepast worden.
Gelukkig is Tesselation 'schaalbaar', dus mocht die SW-tesselator echt brak zijn, merk je dat niet in de framerate terug. Wel op het uiteindelijke beeld van je scherm uiteraard.

[ Voor 39% gewijzigd door SirNobax op 09-10-2009 16:09 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 01:52
dirkjesdirk schreef op vrijdag 09 oktober 2009 @ 15:03:
Was dit al gepost?
http://publish.it168.com/2009/0807/20090807051203.shtml

[afbeelding]

[afbeelding]

[afbeelding]

Echt budget spul dus. Ws eerder concurrent van de HD 5350/5370 dan HD 5750 en 5770?
Geen idee wat voor een HD4670 hier is gebruikt, maar ik ben er nog geen tegen gekomen met een geheugen snelheid van 1000MHz. Bij een normale HD4670 ligt deze op 1600MHz.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

tomcatha schreef op vrijdag 09 oktober 2009 @ 15:58:
Wat ik me afvraag, gezien ze de tessalator software gaan doen, doen ze dat misschien met CUDA?
Wat dacht je van gewoon de Kernel die DX calls afvangt en vertaald naar software instructies, zoals altijd en niet eerst DX naar CUDA en DAN naar hardware calls?
Als ze dat doen zijn ze misschien wel veel sneller met tessalator functies als dat kan werken?
Als je alleen de tesselator benchmarked, waarschijnlijk wel, maar alles wat je gebruikt voor de Tesselator kun je niet gebruiken voor Graphics of ander Compute workload.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 18:56

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

chimo schreef op vrijdag 09 oktober 2009 @ 15:49:
Kunnen alle ATI fanboys ff moven en ergens anders gaan bashen? Dank u! :)

Ik geloof nog steeds in Nvidia en hoop dat ze een 100% kickass videokaart uitbrengen, zoals 3dgameman altijd zegt. :P
Ik heb de laatste paar pagina's even doorgenomen, maar ik zie nergens expliciet ATi fanboys. Het negatieve commetaar op Nvidia is gewoon terecht, de afgelopen paar jaar houden zij er al een mindere (slechte) bedrijfsvoering op na.

Het is niet te hopen dat zij hier aan onderdoor gaan en zi moeten zich ook niet uit de GPU markt terug trekken, want concurrentie is altijd goed voor de marktwerking. Alleen zou Nvidia in de top/management er eens flink de bezem er door moeten houden.

Als je naar ATi kijkt, toen de HD2000 werd geintroduseerd ging het daar in eerste instantie ook net zo goed mee, maar ATi is er gewoon mee doorgegaan en leveren nu prima kaarten af.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 14-04 10:01
tomcatha schreef op vrijdag 09 oktober 2009 @ 15:58:
[...]
Wat ik me afvraag, gezien ze de tessalator software gaan doen, doen ze dat misschien met CUDA?
Als ze dat doen zijn ze misschien wel veel sneller met tessalator functies als dat kan werken?
ATi gebruikt een hardware tesselator, en functies worden in hardware in de regel (veel) sneller uitgevoerd dan in software. Zo niet, dan heeft men de hardware aardig verkloot.. :X

[ Voor 46% gewijzigd door Da_DvD op 09-10-2009 16:07 ]


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

Dat was gewoon pijnlijk om te lezen als je het complete plaatje weet. :/
Ik snap dat het zijn werk is maar in mijn ogen waren ze beter af geweest als ze de vragen niet hadden beantwoord.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
chimo schreef op vrijdag 09 oktober 2009 @ 15:49:
Kunnen alle ATI fanboys ff moven en ergens anders gaan bashen? Dank u! :)

Ik geloof nog steeds in Nvidia en hoop dat ze een 100% kickass videokaart uitbrengen, zoals 3dgameman altijd zegt. :P
Ik geloof ook dat nvidia nog wel een keer een 100% kickass kaart uit brengt,
maar op dit moment hebben ze gewoon niks. Zelfs nog geen werkende samples!
Dat is toch wel enorm triest? Zelfs als nvidia "fanboy" moet je dat toch wel toegeven...

Maar goed. Volgende generatie ga ik er eigenlijk wel van uit dat ook nvidia voor de kleinere cores kiest,
ze hebben inmiddels tijd genoeg gehad om hier iets aan te doen.

Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 07-06 12:23
Blastpe schreef op vrijdag 09 oktober 2009 @ 16:04:
[...]


Geen idee wat voor een HD4670 hier is gebruikt, maar ik ben er nog geen tegen gekomen met een geheugen snelheid van 1000MHz. Bij een normale HD4670 ligt deze op 1600MHz.
De effectieve clock is toch 2x 1000? 1600 mhz kom ik nergens tegen. Het lijkt mij wel een reële vergelijking.

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
We are confident that when the Fermi-based GeForce products ship that we will maintain our performance crown. Even today our GeForce GTX 285 significantly outperforms the HD 5870 in next gen games like Batman Arkham Asylum with physics. In fact, even our GeForce GTS 250 outperforms it. That's fundamentally the difference between us and AMD. We focus on graphics plus cool effects like physics and 3D stereo, whereas AMD just makes incremental changes to their graphics cards.
_O-

Maare even op het fermi gebeuren; Ik denk dat de Gtx 380 (of wat dan ook) de 5870 zal outpreformen met 20-30%, maar ik denk dat de Gtx 380 op een lauch prijs van 400-500 euro komt, en daarom zal ik toch voor de Ati kaart gaan, want nVidia kennende wordt dit een gigantisch monster, voor een gigantische launch prijs.

Trouwens hij spreekt zichzelf tegen :P, hij zegt eerst dat Fermi based GeForce producten de preformance crown terug zullen halen, en daarna zegt hij dat de GTX 285, en zelfs de GTS 250 sneller zijn, en dat ze de crown dus al hebben 8)7

[ Voor 13% gewijzigd door M4gick op 09-10-2009 17:26 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 06-06 16:09
Misschien baseer je dat terughalen op een ander stuk van het interview dan het gedeelte uit je quote (het het niet gelezen, mijn dag is ook goed zonder die PRbs), dan kun je gelijk hebben. Maar als je op maintain doelt, dat betekent toch echt behouden.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Snorro schreef op vrijdag 09 oktober 2009 @ 17:37:
Misschien baseer je dat terughalen op een ander stuk van het interview dan het gedeelte uit je quote (het het niet gelezen, mijn dag is ook goed zonder die PRbs), dan kun je gelijk hebben. Maar als je op maintain doelt, dat betekent toch echt behouden.
Nou ik zie dat toch echt niet terug in benchmarks hoor, en volgens mij verslaat de 5870 de gts 250 wel in Batman met physiX, of ze hebben een niet overgeclockte duo core gebruikt voor cpu physix :\

En verder bedoelde ik inderdaad de rare uitspraken van die Nvidia man.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

M4gick schreef op vrijdag 09 oktober 2009 @ 17:23:
en daarna zegt hij dat de GTX 285, en zelfs de GTS 250 sneller zijn, en dat ze de crown dus al hebben 8)7
Ging dat niet puur over Batman, of andere PhysX games in het bijzondere, in plaats van algemeen?

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Kom op jongens. Jullie weten toch dat PR niets te maken heeft met logica :P.

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 02:09
spNk schreef op vrijdag 09 oktober 2009 @ 16:48:
[...]
Dat is toch wel enorm triest? Zelfs als nvidia "fanboy" moet je dat toch wel toegeven...
Dat is het ook, hoewel de GTX295 voor de games die ik speel prima voldoet maar hij is wel prijzig.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
dirkjesdirk schreef op vrijdag 09 oktober 2009 @ 16:56:
[...]


De effectieve clock is toch 2x 1000? 1600 mhz kom ik nergens tegen. Het lijkt mij wel een reële vergelijking.
De enige 46xx kaarten met 1000MHz geheugenklok zijn de HD4650's met DDR2. Je zou dan ook kunnen verwachten dat ze een HD4650 hadden vanuit dat oogpunt.

Wat ik me meer afvraag, aangezien ik het zo snel even niet kon vinden, is of die GT220 Vantage scores zijn met 'CPU PhysX' over de nVidia-driver. Dat zou de score namelijk toch wel enigsinds beinvloeden.

Acties:
  • 0 Henk 'm!

Anoniem: 317606

GeForce GT 220 ~P3300 in 3DMark Vantage (GPU PhysX uitgeschakeld).

/edit/

De hierboven genoemde 3DMark Vantage score is lager dan degene die ik vandaag had, maar dat komt omdat ik een snellere cpu gebruikte (Core i7 920 vs 965). In elk geval, beide zijn met GPU PhysX uitgeschakeld.

[ Voor 86% gewijzigd door Anoniem: 317606 op 09-10-2009 22:49 ]


Acties:
  • 0 Henk 'm!

Anoniem: 9449

_Dune_ schreef op vrijdag 09 oktober 2009 @ 16:06:
Het is niet te hopen dat zij hier aan onderdoor gaan en zi moeten zich ook niet uit de GPU markt terug trekken, want concurrentie is altijd goed voor de marktwerking. Alleen zou Nvidia in de top/management er eens flink de bezem er door moeten houden.
Ik denk dat het laatste wat je kan zeggen over nV wel is dat het topmanagement hun werkt niet goed doet (i.h.a.). Het is nu even een combinatie van pech (Intel chipsets) en een stukje mismanagement (huidige GPU's) maar dat laatste is echt een grote uitzondering bij nV. Die CEO schijnt een zeer duidelijke/goede visie te hebben en is enorm opportunistisch. Wellicht komen ze hier nog sterker uit.

En kijk eens in de Steam hardware survey, nV heeft daar (paar miljoen samples) een marktaandeel van 75%. Ik snap niet hoe ze dat doen, ben zelf absoluut pro-ATi, maar blijkbaar gaan er toch heel veel voor de naam...

Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 18:56

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Anoniem: 9449 schreef op vrijdag 09 oktober 2009 @ 23:19:
[...]
Ik denk dat het laatste wat je kan zeggen over nV wel is dat het topmanagement hun werkt niet goed doet (i.h.a.). Het is nu even een combinatie van pech (Intel chipsets) en een stukje mismanagement (huidige GPU's) maar dat laatste is echt een grote uitzondering bij nV. Die CEO schijnt een zeer duidelijke/goede visie te hebben en is enorm opportunistisch. Wellicht komen ze hier nog sterker uit.

En kijk eens in de Steam hardware survey, nV heeft daar (paar miljoen samples) een marktaandeel van 75%. Ik snap niet hoe ze dat doen, ben zelf absoluut pro-ATi, maar blijkbaar gaan er toch heel veel voor de naam...
Het is niet allen de huidige GPU's, zover ik weet is het reeds in 2006 begonnen met het gehele G84, G86 en G92 debakel. Hiermee heeft Nvidia bepaald geen vrienden gemaakt bij oem partners en consumenten of personen die hun produkten kunnen aanraden/advizeren bij de technisch minder mede mens.

Vervolgens beginnen ze onophoudelijk oude GPU's te hernoemen naar de nieuwe series, daarmee in mijn ogen gewoon de "onwetende" consument bedonderen.

En nu dan de huidge of de toekomstige GPU's, ik noem dit alles toch een behoorlijk mismanagement. Wat betreft het mobile GPU debakel,ik heb via het Dell forum een link (interview) gezien met de CEO van Nvidia waarin hij in eerste instantie het gehele debakel tracht te ontkennen of probeert voor te doen dat het minder is dan men zegt, maar werkelijk al deze GPU's zijn default bugged. Hier heeft Nvidia nooit een degelijke oplossing voor geboden.

In iedergeval, Nvidia heeft inderdaad prima produkten op de markt gebracht alleen hebben ze de laatst paar jaar toch echt heel verkeerde keuzes gemaakt. Wanneer ik produkten moet adviseren dan ben ik zeker op het ogenblik wat Nvidia betreft heel kritisch, tenminste zeker als het op de GPU's gaat.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07-06 14:33

SG

SG surft naar info hardewaren

This eerder dat AMD niet mee kan met nV. AMD is een combi van de noodlijdende CPU firma en gezonde GPU firma. Samen is het niet niet helemaal pluis.

Dit komt omdat AMD CPU tak het nu zwaar aflegd tegen iNtel.
iNtel ATI genaaid heeft met HavokFX kill. nV kon nog Physx op de kop tikken.

Doordat het R&D en investment beleid nu gecombineerd is. Moet AMD op CPU en GPU flak efficenter te werk gaan. Top big GPU zoals de R600 was en is niet rendabel. Sucses of niet. Te weinig cash return en grote kans op ee drama.

Maar hun speetspot prijs en kosten en performance ratio beleid, ondermijnt tophigh-end big chip gedrevenhied.
nV gaat gewoon met die obsesieve king of the hill big GPU beleid door. Terijl de concurent eigenlijk niet meer met die strijd mee gaat. Maar daar gewoon twee chipjes tegen zet.

De markt werking is dus anders. Sneller met volume produkten komen met de next gen. ipv eerst een poos alleen een top-end nextgen.

Het is toch geinig dat AMD door beperkingen zoals één CPU architektuur voor alle markten Server workstation desktop mobile gewoon 64bit bracht waar dat eigenlijk nog niet nodig was. Tot op heden. Dat zou dan innovatie zijn.
Heel opmerkelijk dat AMD kwa GPU eigenlijk de GPU leiderschap juist de witte doek de ring in gooid en met budged en midrange gerichtheid eigenlijk een mokerslag uitdeeld. Beetje onvoorstelbaar gezien die oude GPU strijd.

Tja toch maar PhysX ready zijn en 3DGF vision hier en Re5 gamen. Ben dus helemaal into nV.

Maar ik denk hieraan. Ontwikkeltijd van GPU architekturen worden lang geleden besloten. RV770 is eigenlijk een 2005 idee en beleid. Toen was het ook gewoon grote risiko nemen want je hebt geen benul wat de competitie doet. Dat komt pas tot uiting op het einde van de rit. De reden dat nV zo extreem groot uitpakt. Want als dat de concurent ook deed. Zoals R300 vs nV30 of de twee bigchips R600 vs G80

Dus ik weet niet op nV nog steeds die obsesieve nr1 drift abieerd. Of dat ze oude beleid nu nog moeten afronden. En dat de refresh van de GT300 zoiets wordt als de G92. Geen performance boost maar economisch rendement realiseren. GT300B

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 01:52
dirkjesdirk schreef op vrijdag 09 oktober 2009 @ 16:56:
[...]


De effectieve clock is toch 2x 1000? 1600 mhz kom ik nergens tegen. Het lijkt mij wel een reële vergelijking.
Dus is volgens jou is de effectieve clockrate voor de GT220 3160MHz. Toch redelijke snel voor GDDR3

[ Voor 17% gewijzigd door Blastpe op 09-10-2009 23:58 ]


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 18:56

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

SG schreef op vrijdag 09 oktober 2009 @ 23:46:
Heel opmerkelijk dat AMD kwa GPU eigenlijk de GPU leiderschap juist de witte doek de ring in gooid en met budged en midrange gerichtheid eigenlijk een mokerslag uitdeeld. Beetje onvoorstelbaar gezien die oude GPU strijd.
Opzich is dit niet zo heel vreemd, want juist in de budget en midrange is het meeste te verdienen doordat het verweg het grootste deel is van de afzetmarkt.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • MPeek
  • Registratie: Januari 2009
  • Laatst online: 31-05 21:58
Heeft iemand hier enig idee hoe je DXVA (hardware versnelling) uitschakelt voor een bepaalde applicatie, Sony Vegas in dit geval? Sony Vegas pakt DXVA (via mijn 2 8800GT's in SLI setup) om video's te renderen maar het gaat veel langzamer als op de CPU (een Core i7 920 @ 3,3Ghz). Dus hoe kan ik dit stoppen zodat ik weer lekker op volle snelheid kan renderen?

Acties:
  • 0 Henk 'm!

Anoniem: 287880

SG schreef op vrijdag 09 oktober 2009 @ 23:46:
This eerder dat AMD niet mee kan met nV. AMD is een combi van de noodlijdende CPU firma en gezonde GPU firma. Samen is het niet niet helemaal pluis.

Dit komt omdat AMD CPU tak het nu zwaar aflegd tegen iNtel.
iNtel ATI genaaid heeft met HavokFX kill. nV kon nog Physx op de kop tikken.

Doordat het R&D en investment beleid nu gecombineerd is. Moet AMD op CPU en GPU flak efficenter te werk gaan. Top big GPU zoals de R600 was en is niet rendabel. Sucses of niet. Te weinig cash return en grote kans op ee drama.

Maar hun speetspot prijs en kosten en performance ratio beleid, ondermijnt tophigh-end big chip gedrevenhied.
nV gaat gewoon met die obsesieve king of the hill big GPU beleid door. Terijl de concurent eigenlijk niet meer met die strijd mee gaat. Maar daar gewoon twee chipjes tegen zet.

De markt werking is dus anders. Sneller met volume produkten komen met de next gen. ipv eerst een poos alleen een top-end nextgen.

Het is toch geinig dat AMD door beperkingen zoals één CPU architektuur voor alle markten Server workstation desktop mobile gewoon 64bit bracht waar dat eigenlijk nog niet nodig was. Tot op heden. Dat zou dan innovatie zijn.
Heel opmerkelijk dat AMD kwa GPU eigenlijk de GPU leiderschap juist de witte doek de ring in gooid en met budged en midrange gerichtheid eigenlijk een mokerslag uitdeeld. Beetje onvoorstelbaar gezien die oude GPU strijd.

Tja toch maar PhysX ready zijn en 3DGF vision hier en Re5 gamen. Ben dus helemaal into nV.

Maar ik denk hieraan. Ontwikkeltijd van GPU architekturen worden lang geleden besloten. RV770 is eigenlijk een 2005 idee en beleid. Toen was het ook gewoon grote risiko nemen want je hebt geen benul wat de competitie doet. Dat komt pas tot uiting op het einde van de rit. De reden dat nV zo extreem groot uitpakt. Want als dat de concurent ook deed. Zoals R300 vs nV30 of de twee bigchips R600 vs G80

Dus ik weet niet op nV nog steeds die obsesieve nr1 drift abieerd. Of dat ze oude beleid nu nog moeten afronden. En dat de refresh van de GT300 zoiets wordt als de G92. Geen performance boost maar economisch rendement realiseren. GT300B
Leuke post, maar je stelt het een beetje alsof Nvidia het high end volledig in handen heeft. Je doet een beetje denigrerend over de 4870 X2 als 'twee chipjes' terwijl Nvidia het ook doet met de 295, maar dan met twee monsterchips. Die niet echt bedoeld waren om samen op één bord te moeten. Terwijl het bij ATI gewoon de tactiek was, net zoals de Hemlock in deze generatie de absolute top-end kaart wordt.
ATI maakt wel degelijk kaarten voor top end alleen met meerdere GPU's. En dat werkt verdomd goed.

Intussen heeft Nvidia nog steeds geen opvolger voor G92 b ....

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 287880 schreef op zaterdag 10 oktober 2009 @ 01:54:
Leuke post, maar je stelt het een beetje alsof Nvidia het high end volledig in handen heeft. Je doet een beetje denigrerend over de 4870 X2 als 'twee chipjes' terwijl Nvidia het ook doet met de 295, maar dan met twee monsterchips. Die niet echt bedoeld waren om samen op één bord te moeten. Terwijl het bij ATI gewoon de tactiek was, net zoals de Hemlock in deze generatie de absolute top-end kaart wordt.
ATI maakt wel degelijk kaarten voor top end alleen met meerdere GPU's. En dat werkt verdomd goed.
Ja, en het is ook zo verdomd schaalbaar :D

Helaas blijft multi-GPU toch beperkingen opleveren, en Crossfire in het bijzonder. Het scoort altijd minder dan het theoretische maximum, de compatibiliteit is beduidend slechter, en je hebt ook nog eens micro-stuttering. En zoals de 295 mooi demonstreert, dat truukje kan altijd nog, en beter ook. Het is dan ook raadzaam niet te vroeg te juichen over Hemlock.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Biff schreef op zaterdag 10 oktober 2009 @ 03:11:

Helaas blijft multi-GPU toch beperkingen opleveren, en Crossfire in het bijzonder. Het scoort altijd minder dan het theoretische maximum, de compatibiliteit is beduidend slechter, en je hebt ook nog eens micro-stuttering. En zoals de 295 mooi demonstreert, dat truukje kan altijd nog, en beter ook. Het is dan ook raadzaam niet te vroeg te juichen over Hemlock.
En juist dat gaat deze maand nog veranderen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07-06 14:33

SG

SG surft naar info hardewaren

Ja de performance punt van 'n HD5870X2 zal soms minder dan single 5870 zeg 80% voor die probleem games en soms 80% schaling van twee maal de performance van een in uitzonderlijke gevallen. Meeste is ligt tussen de 25% en 60% Geld ook voor al dat andere nV en AMD dubbel spul.
En je performance punt is daarmee over een groot gebied uitgesmeerd tov GT300 of welke andere single chip wat in de buurt zit kwa performance.

Ik wil niet afhankelijk zijn van nV en AMD driver CF/SLI profiel updates en Game patches.
Komen elke keer nieuwe games, ook die minder bekend zijn.
Voor mij houd het gewoon op bij HD5870 en dan wacht ik liever op een 2GB versie.
En GTX360 want die GTX380 zal wel te duur zijn voor mij wel 'n 2GB+

Mijn grens ligd bij €400

Dus ja multi GPU is niks voor mij.
Tenzij het driver onafhankelijk schaald en alle andere minpuntjes opgelost zijn.
En ja dat zou 'n appart chipje kunnen oplossen volgens geruchten. Maar tot dan blijf ik bij single GPU

[ Voor 12% gewijzigd door SG op 10-10-2009 08:16 ]

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Blastpe schreef op vrijdag 09 oktober 2009 @ 23:55:
[...]

Dus is volgens jou is de effectieve clockrate voor de GT220 3160MHz. Toch redelijke snel voor GDDR3
Het is dus dat de geheugensnelheid van de HD4670 in die slides niet klopt. Een HD4670 heeft standaard GDDR3 op 873MHz, wat effectief 1746MHz oplevert. Dat is wel even wat anders dan 1000MHz effectief.

Daarnaast zijn er ook HD4670's met GDDR4 (sapphire) die op 1100MHz draait, dus effectief 2200MHz. Ook zijn er HD4670's te vinden met hoger geklokt GDDR3 geheugen. Maar kaarten met 500MHz geheugen zijn er geheel niet in die reeks.

De enige HD46xx kaart met 500MHz geheugen (effectief 1000MHz) is de HD4650 met DDR2 geheugen.


Verder aangaande de post van SG, met betrekking op HavokFX. HavokFX mag misschien in de koelkast gegooid zijn, maar ondertussen is AMD samen met de mensen van Havok (met toestemming van Intel) verder gegaan met het laten draaien van Havok over de OpenCL api, waardoor het uiteindelijk ook calls naar de GPU kan sturen. De vraag zal zijn welke game hier het eerst gebruik van gaat maken, maar aangezien werkende demo's al zijn getoond, is het in ieder geval al toepasbaar. Misschien dat StarCraft II de eer heeft om het als eerste naar de markt te brengen.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

neliz schreef op zaterdag 10 oktober 2009 @ 08:03:
[...]


En juist dat gaat deze maand nog veranderen.
Multi-GPU gaat voortaan wel probleemloos werken?
Nvidia kan hetzelfde niet meer doen, of niet meer beter dan ATI?
ATI gaat geld verdienen?
Wat bedoel je precies ;)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zaterdag 10 oktober 2009 @ 10:06:
[...]
Verder aangaande de post van SG, met betrekking op HavokFX. HavokFX mag misschien in de koelkast gegooid zijn, maar ondertussen is AMD samen met de mensen van Havok (met toestemming van Intel) verder gegaan met het laten draaien van Havok over de OpenCL api, waardoor het uiteindelijk ook calls naar de GPU kan sturen. De vraag zal zijn welke game hier het eerst gebruik van gaat maken, maar aangezien werkende demo's al zijn getoond, is het in ieder geval al toepasbaar. Misschien dat StarCraft II de eer heeft om het als eerste naar de markt te brengen.
Ach, en ik meen me toch te herinneren dat Richard Huddy al eens had aangekondigd dat GPU Physics een dood spoor waren. Soms veranderen dingen toch best rap.

OpenCL is verder natuurlijk prima voor Nvidia-fans, immers kan elke CUDA-compatible kaart daar ook gebruik van maken. Oftewel alles nieuwer dan die goeie oude G80.

Hoe zit dat eigenlijk met de huidige generatie ATI kaarten? Het zal toch niet voorbehouden blijven aan 58xx en up? ;)

[ Voor 6% gewijzigd door Biff op 10-10-2009 12:28 ]

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Nee. HD4000 Serie en hoger. Daaronder voldoet de hardware niet aan bepaalde vereisten voor OpenCL 1.0.

Richard Huddy heeft nooit echt aangekondigd dat GPU Physics op een dood spoor zat. Hij heeft alleen gezegd dat closed source oplossingen als PhysX op een dood spoor zaten en dat Havok FX op een dood spoor zat. Verder heeft hij gezegd dat ze voor open source oplossingen waren en zich daar op zouden richten. Dat doen ze nu met het Open Physics project waar alle IHVs baat bij hebben, terwijl NVIDIA lekker mee profiteert van AMDs inspanning en ondertussen ook leuk hun eigen closed CUDA environment in stand houdt. Ik verwacht dat ze dit niet eeuwig zullen volhouden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Biff schreef op zaterdag 10 oktober 2009 @ 12:07:
Multi-GPU gaat voortaan wel probleemloos werken?
Nvidia kan hetzelfde niet meer doen, of niet meer beter dan ATI?
ATI gaat geld verdienen?
Wat bedoel je precies ;)
Hydra

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

CJ schreef op zaterdag 10 oktober 2009 @ 12:53:
Nee. HD4000 Serie en hoger. Daaronder voldoet de hardware niet aan bepaalde vereisten voor OpenCL 1.0.

Richard Huddy heeft nooit echt aangekondigd dat GPU Physics op een dood spoor zat. Hij heeft alleen gezegd dat closed source oplossingen als PhysX op een dood spoor zaten en dat Havok FX op een dood spoor zat. Verder heeft hij gezegd dat ze voor open source oplossingen waren en zich daar op zouden richten. Dat doen ze nu met het Open Physics project waar alle IHVs baat bij hebben, terwijl NVIDIA lekker mee profiteert van AMDs inspanning en ondertussen ook leuk hun eigen closed CUDA environment in stand houdt. Ik verwacht dat ze dit niet eeuwig zullen volhouden.
Ik denk dat ook jij wel beseft dat dit een wel heeeel kromme voorstelling van de feiten is. :)

Laten we eens naar resultaten kijken. De conclusie kan niet anders zijn dan dat AMD op het gebied van GPU physics tot nu toe niets bereikt heeft. En wat betreft GPGPU in het algemeen sowieso behoorlijk achter ligt.

Havok FX is bijvoorbeeld nooit verder gekomen dan een holle belofte, en dat is nog vriendelijk gesteld. De oplossing van je concurrent afwijzen zonder zelfs maar een werkend product te hebben of een serieuze kans dat die ooit tot bloei zou komen is eigenlijk gewoon behoorlijk smerige FUD.

En nu wordt er weer eens een andere toekomstvisie gelanceerd, lekker buzzword compliant met open source en zo, het lijkt wel een filantropische instelling dat AMD! Je spreekt hier zelfs van een 'inspanning' aan de kant van AMD waar Nvidia van mee zou profiteren. Maar in werkelijkheid heeft AMD wederom nog niets gepresteerd behalve een website, en bestaat deze Open Physics, of Bullet, vrijwel compleet bij de gratie van de Nvidia OpenCL SDK en hardware waar het op ontwikkeld wordt. Want zoals zo vaak heeft Nvidia zijn zaakjes al weer wél op orde.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zaterdag 10 oktober 2009 @ 14:41:
En nu wordt er weer eens een andere toekomstvisie gelanceerd, lekker buzzword compliant met open source en zo, het lijkt wel een filantropische instelling dat AMD! Je spreekt hier zelfs van een 'inspanning' aan de kant van AMD waar Nvidia van mee zou profiteren. Maar in werkelijkheid heeft AMD wederom nog niets gepresteerd behalve een website, en bestaat deze Open Physics, of Bullet, vrijwel compleet bij de gratie van de Nvidia OpenCL SDK en hardware waar het op ontwikkeld wordt. Want zoals zo vaak heeft Nvidia zijn zaakjes al weer wél op orde.
Blijkbaar heb je de showcase van Havok Physics gerenderd met OpenCL gemist.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Oh, je bedoelt uitgerekend het product wat juist uitstekend geschikt zou zijn om meerdere aparte videokaarten samen te laten schalen? Dat lijkt me meer een opsteker voor degene met de snelste GPU eigenlijk ;)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

dahakon schreef op zaterdag 10 oktober 2009 @ 14:46:
[...]


Blijkbaar heb je de showcase van Havok Physics gerenderd met OpenCL gemist.
Dat zeg je goed; een SHOWCASE.

Wat hebben wij daar aan? Het is leuk hoor, al die "demo's", maar AMD heeft nog steeds geen enkele vorm van Physics geimplementerd in een game.

Ik ben het wel grotendeels eens met de post van Biff eigenlijk.

nV hééft tenminste iets dat daadwerkelijk werkt, wat nu al in games zit, en wat nog eens gratis is ook. Je krijgt het er voor niets bij. Nu kan iedereen dat wel lopen af te kraken, maar ik juich het op zich wel toe. PhysX. En als je dan kiest voor een AMD kaart, dan wéét je dat je geen PhysX hebt. Daar kies je zelf voor.
CJ schreef op zaterdag 10 oktober 2009 @ 12:53:

Richard Huddy heeft nooit echt aangekondigd dat GPU Physics op een dood spoor zat. Hij heeft alleen gezegd dat closed source oplossingen als PhysX op een dood spoor zaten en dat Havok FX op een dood spoor zat. Verder heeft hij gezegd dat ze voor open source oplossingen waren en zich daar op zouden richten. Dat doen ze nu met het Open Physics project waar alle IHVs baat bij hebben, terwijl NVIDIA lekker mee profiteert van AMDs inspanning en ondertussen ook leuk hun eigen closed CUDA environment in stand houdt. Ik verwacht dat ze dit niet eeuwig zullen volhouden.
Ja die Huddy zal ook gaan zeggen dat PhysX owned zeg. Dat zou hetzelfde zijn als een PR man van nV zou zeggen dat de HD5800 serie kont schopt.

Allemaal marketing... Uitspraken van die PR gasten van nV en die van ATi moet je met een korrel zout nemen imho, want ze zullen alleen hun eigen produkt echt goed vinden, en die van de ander "minder".

Dat zou hetzelfde zijn als een Peugeot dealer die zegt; "je moet geen Peugeot kopen. Verderop zit een Audi dealer, daar kan je beter heen gaan. Audi is veel beter". :+

[ Voor 49% gewijzigd door Format-C op 10-10-2009 15:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Voor mij zou PhysX helemaal geen probleem zijn, wanneer het gebruik zou maken van open standaarden, zodat het overal normaal op kan werken, net zoals bij DirectX, OpenGL, OpenAL. Juist dan is de consument er echt bij gebaat. Nu wordt deze namelijk gewoon gepiepeld. Het ergste is nog wel dat de consument wordt gepiepeld omdat bepaalde zaken opzettenlijk worden gecastreerd, waar dat technisch gesproken helemaal niet nodig is, maar puur gedaan wordt ter meerdere eer en glorie van de PR-afdeling die zodoende kan stellen dat een re-rebrand kaart als de GTS250 'sneller' is dan een gloednieuwe HD5870.

Als ze echt hun best hadden gedaan om de PhysX via CPU in Batman over alle beschikbare cores te laten draaien, ipv core 0 alleen, en het was dan nog steeds significant langzamer en slechter dan via de GPU, dan had men een punt gehad. Maar goed, het had, ondanks dat PhysX natuurlijk over de GPU gedaan kan worden, allemaal ook goed over de CPU gedaan kunnen worden. Maar dan hadden ze geen mooie marketing kunnen voeren met Batman.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Nee precies.

nVidia zal klauwen vol geld in de ontwikkeling van een game gaan steken en zeggen; alsjeblieft jongens, veel plezier ermee. :? Zo werkt het natuulijk niet. :/ En als een game-dev bereid is mee te werken met nV, moeten ze dat toch zelf weten? ATi/ AMD is degene die er geen stuiver in steekt. Dat doet nV wel.

Op zich vind ik het allemaal niet meer dan logisch.

Evenals ik het logisch vind dat zij Ageia gekocht hebben, en er veel geld voor betaald hebben, en dus ook gewoon zelf daar de vruchten van willen plukken. Ik vind daar helemaal niets mis mee.

Voor niks gaat de zon op.

Alleen willen sommige partijen blijkbaar gratis meeliften op het ontwikkelwerk (founden van games) van nV, en vinden ze het "raar" dat het PhysX gebeuren geen open standaard is. :|

Het moet niet gekker worden...

Ik begrijp nV volkomen. Waarom zouden ze alles waarvoor ze zelf veel betaald hebben ineens open standaard moeten maken en anderen ervan mee moeten laten bietsen???

[ Voor 7% gewijzigd door Format-C op 10-10-2009 15:32 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Jejking schreef op donderdag 08 oktober 2009 @ 14:01:
Nogmaals. Reality check. Je had hier eens moeten zijn in het tijdperk rondom het debacle rond ATi R600. Stemming: diepe teleurstelling over al het uitstel, het enorme stroomverbruik, het formaat van de chip, tegenvallende prestaties met AA, enz. Nog steeds posten hier dezelfde mensen, dus wat is je punt nou?
Nou, ik herinner me eerder het met hand en tand verdedigen van ATi, allerlij argumenten waarom de R600 eigenlijk toch wel een geweldige chip was, en allerlij verhalen dat de dramatische AA performance nog wel gefixed zou worden met die fake wonder alpha-driver waar ATi plots tijdens de reviews mee op de proppen kwam maar die vervolgens nooit het daglicht heeft gezien :)




Dat verhaaltje van Charlie Demerjian dat nV nu als een geslagen hond met de staart tussen de benen de mid en high-end graphics markt achter zich laat en zonder slag of stoot kado doet aan ATi - op basis van niets anders dan de slechte leverbaarheid van de 285 gedurende de afgelopen paar weken - moet toch zelfs voor de meest doorgewinterde die-hard ATi fans wel erg ongeloofwaardig klinken :)

De 58x0 is nog grotendeels onbekend bij het publiek. nV's logo staat op bijna alle bekende games i.t.t. dat van ATi. nV heeft de afgelopen 3 jaar gedomineerd. Daar bouw je wel voldoende naam & reputatie mee op om ook de komende 3 maanden mee door te komen. Als ATi 3 zware jaren heeft overleeft dan komt nV de komende 3 maanden ook wel door. nV praktisch doodverklaren omdat ATi 2 weken terug wat leuks op de markt heeft gezet dat na 3 jaar eindelijk weer eens sneller is dan nV's high-end is dus volslagen onrealistisch.
Gewoon even een reality check om 't eens populair te zeggen ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zaterdag 10 oktober 2009 @ 15:13:
Voor mij zou PhysX helemaal geen probleem zijn, wanneer het gebruik zou maken van open standaarden, zodat het overal normaal op kan werken, net zoals bij DirectX, OpenGL, OpenAL.
Dit vind ik ook zo'n volledig arbitrair standpunt. Wat is er in vredesnaam open aan DirectX? Het draait maar op één OS, en als je het op wat voor reden dan ook verbruit bij Microsoft (bijvoorbeeld door te proberen hen aan hun contract te houden wat betreft de prijs voor je XBox MCP en zo) dan wordt je buitengesloten van de discussie en mag de concurrent de standaard bepalen. Zie NV30/R300.

En OpenGL, wat door ATI altijd als een ongewenst stiefkindje behandeld is? Ook zo'n treffend voorbeeld van mooi weer spelen met open standaarden zodra het uitkomt. Veel geschreeuw en bijzonder weinig wol.
Als ze echt hun best hadden gedaan om de PhysX via CPU in Batman over alle beschikbare cores te laten draaien, ipv core 0 alleen, en het was dan nog steeds significant langzamer en slechter dan via de GPU, dan had men een punt gehad.
Je vergeet een niet onbelangrijk aspect. Physx draait tenminste op zowel GPU als CPU, wat je van Havok niet kan zeggen. En dat is tot dusver net zozeer een proprietair product, waar de licentienemers er gewoon baat bij hebben om het lekker op de CPU te houden. Laten we wel wezen, Intel verkoopt liever zowel een snelle CPU met een naadje GPU dan alleen maar een budget CPU.
Maar goed, het had, ondanks dat PhysX natuurlijk over de GPU gedaan kan worden, allemaal ook goed over de CPU gedaan kunnen worden. Maar dan hadden ze geen mooie marketing kunnen voeren met Batman.
Het had gedaan kunnen worden, maar het is niet gedaan. Dit is een regelmatig terugkerend thema bij de concurrentie van Nvidia. :D

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op zaterdag 10 oktober 2009 @ 15:13:
Voor mij zou PhysX helemaal geen probleem zijn, wanneer het gebruik zou maken van open standaarden, zodat het overal normaal op kan werken, net zoals bij DirectX, OpenGL, OpenAL. Juist dan is de consument er echt bij gebaat. Nu wordt deze namelijk gewoon gepiepeld. Het ergste is nog wel dat de consument wordt gepiepeld omdat bepaalde zaken opzettenlijk worden gecastreerd, waar dat technisch gesproken helemaal niet nodig is, maar puur gedaan wordt ter meerdere eer en glorie van de PR-afdeling die zodoende kan stellen dat een re-rebrand kaart als de GTS250 'sneller' is dan een gloednieuwe HD5870.
Waarom zou ik als bedrijf enorm veel tijd en geld steken in development van iets waar concurrenten vervolgens gewoon zonder ene cent te betalen op kunnen meeliften?
nV is geen filantropisch bedrijf hoor. ATi ook niet trouwens.

Bovendien is het helaas gewoon zo dat een GTS250 met de enige momenteel functionerende GPU physics acceleratie oplossing (t.w. PhysX) sneller is dan een HD5870. Pijnlijk maar waar. En dat komt niet door nV, maar door AMD zelf die gewoon weigert PhysX te ondersteunen met hun GPU's.
Als ze echt hun best hadden gedaan om de PhysX via CPU in Batman over alle beschikbare cores te laten draaien, ipv core 0 alleen, en het was dan nog steeds significant langzamer en slechter dan via de GPU, dan had men een punt gehad. Maar goed, het had, ondanks dat PhysX natuurlijk over de GPU gedaan kan worden, allemaal ook goed over de CPU gedaan kunnen worden. Maar dan hadden ze geen mooie marketing kunnen voeren met Batman.
Waarom zou ik als bedrijf voor een veel minder efficiente CPU methode van phyics rendering kiezen omdat mijn concurrent structureel weigert mijn uitgestoken hand te accepteren om mee te werken aan de reeds bestaande en prima functionerende GPU accelerated physics architectuur, terwijl die concurent zelf nauwelijks wat anders concreets heeft dan wat geroep over een eventuele toekomstige standaard die nog niet eens vastligt?

nVidia is niet de belemmering voor GPU accelerated physics maar ATi. Zolang je geen concreet functionerend en beter alternatief hebt kun je beter datgene ondersteunen wat al bestaat, werkt, en in gebruik is.

...Om het even cru te stellen... ;)

[ Voor 12% gewijzigd door Cheetah op 10-10-2009 15:58 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Cheetah schreef op zaterdag 10 oktober 2009 @ 15:44:

Waarom zou ik als bedrijf voor een veel minder efficiente CPU methode van phyics rendering kiezen omdat mijn concurrent structureel weigert mijn uitgestoken hand te accepteren om mee te werken aan de reeds bestaande en prima functionerende GPU accelerated physics architectuur
Hmmm, dit is wel erg mooi gebracht ;) Nvidia steekt niet zomaar een hand uit naar ati ofzo. Niet dat ik het verder niet met je eens ben maar dit is wat optimistisch.

Nvidia zal het wel prima vinden dat Ati geen physX heeft. Dat staat beter voor de marketing. Dat zullen ze Ati alleen wel geven voor een hele grote zak geld of strenge voorwaarden...

[ Voor 14% gewijzigd door bwerg op 10-10-2009 15:52 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Aan de gebeten honden boven mij:

Omdat nVidia graag wil dat hun PhysX 'de' standaard gaat worden in physics berekeningen voor alle spellen? Zolang er haken en ogen aan blijven hangen, zal het nooit 100% gaan domineren, of het nu via CPU of GPU berekend wordt.

Om het even cru te stellen, als nVidia het open zou gooien, zodat ontwikkelaars er echt zelf goed mee aan de slag zouden kunnen, dan zou het nVidia niets hoeven kosten om het in spellen geimplementeerd te krijgen. Ze zouden nog steeds de API zelf beheersen, waardoor het mogelijkerwijs nog altijd beter zou draaien op nVidia-hardware. Je slaat twee vliegen in een klap.

Wat als volgend jaar Star Craft II uit komt, met Havok, en Havok maakt in dat spel gebruik van physics berekend over CPU en GPU tegelijkertijd, is het dan opeens de omgekeerde wereld omdat alleen Havok een 'next gen modern spel' uit heeft met physics? En Star Craft II komt er aan en heeft Havok-physics en ook nVidia zal dan handig gebruik kunnen maken van het voorwerk wat AMD heeft gedaan. Als het dan ook via GPU berekend kan worden, danken jullie dan AMD ook nog? Of is het dan gewoon nVidia dat wederom zo geweldig is aangezien hun videokaart Havok-physics over hun GPU kan laten lopen.

Cheetah schreef op zaterdag 10 oktober 2009 @ 15:44:
En dat komt niet door nV, maar door AMD zelf die gewoon weigert PhysX te ondersteunen met hun GPU's.
AMD weigert om een licentie te nemen op PhysX over Cuda, aangezien Cuda toch ten allen tijde maximaal geoptimaliseerd zal zijn voor nVidia hardware, waardoor je als concurent ten allen tijde een achterstand zult hebben. Daarom kiest AMD dus ook voor de standaarden die iedere developer en hardwarefabrikant kan ondersteunen, zoals OpenCL, DirectX 11 (compute shader) en OpenPhysics.

Overigens mag DirectX dan verbonden zijn aan Windows, iedere hardwarefabrikant die dat wil, kan een gpu maken met ondersteuning ervoor, zonder licentiegedoe.

[ Voor 23% gewijzigd door dahakon op 10-10-2009 15:58 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

bwerg schreef op zaterdag 10 oktober 2009 @ 15:48:
Hmmm, dit is wel erg mooi gebracht ;) Nvidia steekt niet zomaar een hand uit naar ati ofzo. Niet dat ik het verder niet met je eens ben maar dit is wat optimistisch.
nV heeft een samenwerkingsverband met ATi aangeboden. Sterker nog, nV heeft zelfs aangeboden om AMD te helpen met het verwerken van ondersteuning voor CUDA en PhysX in hun drivers. Volgens mij zelfs gratis. AMD heeft geweigerd.

Dan is het natuurlijk wel even de wereld op z'n kop als ik hier nV in de schoenen geschoven zie krijgen dat zij GPU physics zouden tegenhouden/tegenwerken ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Cheetah schreef op zaterdag 10 oktober 2009 @ 15:55:
[...]
nV heeft een samenwerkingsverband met ATi aangeboden. Sterker nog, nV heeft zelfs aangeboden om AMD te helpen met het verwerken van ondersteuning voor CUDA en PhysX in hun drivers. Volgens mij zelfs gratis. AMD heeft geweigerd.
Bron.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Cheetah schreef op zaterdag 10 oktober 2009 @ 15:55:
[...]
nV heeft een samenwerkingsverband met ATi aangeboden. Sterker nog, nV heeft zelfs aangeboden om AMD te helpen met het verwerken van ondersteuning voor CUDA en PhysX in hun drivers. Volgens mij zelfs gratis. AMD heeft geweigerd.
Nvidia die gratis de drivers van Ati gaat updaten? Daar zou ik wel eens een linkje van willen zien, dat vind ik wel heel idealistisch klinken... Daar vragen ze minstens een grote zak geld voor.

Klinkt net zo geloofwaardig als dat de C1000 AH-huismerkproducten gaat verkopen.

[ Voor 11% gewijzigd door bwerg op 10-10-2009 16:03 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Een bron daarvan zou inderdaad heel erg interessant zijn, net zoals de verhalen rond de ontwikkeling van Batman waarbij door nVidia graag gesteld wordt dat AMD helemaal niets wil doen om te helpen met optimaliseren, niet eens 'gratis'. Als je de verhalen van AMD zelf ertegenover zet, wie moet je dan geloven? Natuurlijk kun je gewoon voor nVidia kiezen, want die zijn altijd eerlijk...

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Google eens "AMD Physx"
http://www.bit-tech.net/c...-support-to-amd--ati.html
http://www.tomsguide.com/us/AMD-PhysX-Havok,news-1950.html
http://www.tgdaily.com/content/view/38137/135/
Either way, it looks as though there’s hope for AMD / ATI getting a bite of the GPU PhysX pie after all; the guys at AMD just need to decide whether they want it.
And they didn't...

Sterker nog, er waren private initiatieven los van nV om CUDA/PhysX werkend te krijgen op ATi GPU's (met toestemming en support van nV), en ook daar wilde AMD niet aan meewerken:
Godfrey Cheng reacted quickly to our interview request and clarified many issues.
However, Badit told us that he was "disappointed’ with AMD’s support: "We are very disappointed with lack of support from AMD - we expected more than that," he said. "Apparently, they don’t want their users to have both Havok and PhysX APIs, since AMD’s support is critical for this project."

Apparently, Badit was ready to shelve the project, but he remained stubborn and keeps working on the project. Since we are interested whether PhysX can really run on Radeon cards, we have put him in touch with a partner that is now supporting his team.

[ Voor 10% gewijzigd door Cheetah op 10-10-2009 16:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • markjuh
  • Registratie: Juli 2000
  • Laatst online: 18-03 22:25
Cheetah schreef op zaterdag 10 oktober 2009 @ 15:55:
[...]
nV heeft een samenwerkingsverband met ATi aangeboden. Sterker nog, nV heeft zelfs aangeboden om AMD te helpen met het verwerken van ondersteuning voor CUDA en PhysX in hun drivers. Volgens mij zelfs gratis. AMD heeft geweigerd.

Dan is het natuurlijk wel even de wereld op z'n kop als ik hier nV in de schoenen geschoven zie krijgen dat zij GPU physics zouden tegenhouden/tegenwerken ;)
mwoa, samenwerking is een groot woord. ik vind AMD's statement waarom wel begrijpelijk:
Cheng: We will happily work with and support all middleware tool providers. We announced collaboration with Havok since they are willing to operate as a middleware vendor and enable support for all platforms. If Nvidia wishes to place resources into enabling PhysX on AMD platforms, we would have no argument, provided they don’t artificially disadvantage our platforms in relation to theirs. We have attempted to initiate discussions with Nvidia on this matter, but so far they have been less than forthcoming.

Nvidia stated that the PhysX software stack is layered on top of Nvidia’s proprietary CUDA interface. As you know, proprietary interfaces for hardware acceleration on the PC haven’t really been successful in the long term with developers (re: S3 Metal, 3dfx Glide, Cg). In these cases, the solutions they were trying to solve were superseded by collaborative industry wide interfaces, which is why we think it is far better for us to be putting our efforts into advancing open, industry standards such as OpenCL that will ultimately grow the ecosystem for Stream Computing. This is consistent with AMD’s Open Platform Strategy, and is a more Customer Centric approach in the long term.

We see a better option for developers in combining a middleware layer based on open industry standards, like OpenCL, that balances the computation between the CPU and GPU, with the possibility for best-of-breed third-party APIs, libraries and development tools that interface seamlessly with the middleware layer. This way the developer is freed from having to worry about where the physics executes, it will automatically execute on the best processor for the job.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

markjuh schreef op zaterdag 10 oktober 2009 @ 16:20:
mwoa, samenwerking is een groot woord. ik vind AMD's statement waarom wel begrijpelijk:
Je kunt het begrijpelijk vinden (ik niet, want ik vind dat je het gewoon moet proberen en dan pas moet gaan klagen wanneer er wat te klagen valt -> AMD had in ieder geval officieus met Bandit's project support kunnen helpen enabelen), maar intussen is het dus wel AMD's eigen schuld dat zelfs een lowly GTS250 de HD5870 schaterlachend voorbijrent zodra er GPU accelerated physics effects worden ingeschakeld... en dat nV dit nu uiteraard leuk in hun marketing kan gebruiken.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik ken maar één spel met physx waarin de GTS250 daarvoor een kans maakt (mirrors edge). Dat die sneller is dan een HD5870 is gewoon onzin, want je kan gewoon physx op de CPU gebruiken. En dat scheelt dan ook nog eens alleen in performance als de CPU de bottleneck is.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zaterdag 10 oktober 2009 @ 16:37:
[...]
Je kunt het begrijpelijk vinden (ik niet, want ik vind dat je het gewoon moet proberen en dan pas moet gaan klagen wanneer er wat te klagen valt -> AMD had in ieder geval officieus met Bandit's project support kunnen helpen enabelen), maar intussen is het dus wel AMD's eigen schuld dat zelfs een lowly GTS250 de HD5870 schaterlachend voorbijrent zodra er GPU accelerated physics effects worden ingeschakeld... en dat nV dit nu uiteraard leuk in hun marketing kan gebruiken.
Dat is dus juist het punt. Zelfs al had AMD hardware PhysX ondersteund, dan nog had nVidia, omdat het Cuda beheert, kunnen zorgen dat de HD5870 langzamer was geweest in Batman dan de GTS250. Als excuses hadden ze kunnen zeggen 'Oops, ergens zit een bug' om vervolgens rustig de tijd te nemen om hun marktaandeel te verstevigen en mensen het idee te geven dat PhysX over Radeons nooit goed zal werken omdat AMD zijn zaken niet op orde heeft.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

bwerg schreef op zaterdag 10 oktober 2009 @ 16:44:
Ik ken maar één spel met physx waarin de GTS250 daarvoor een kans maakt (mirrors edge). Dat die sneller is dan een HD5870 is gewoon onzin, want je kan gewoon physx op de CPU gebruiken. En dat scheelt dan ook nog eens alleen in performance als de CPU de bottleneck is.
Mirrors Edge en Batman Arkham Asylum (en er zitten er nog een aantal in de pipeline).

Even voor alle duidelijkheid: als je GPU accelerated physx over een CPU probeert te runnen is die altijd de bottleneck.
dahakon schreef op zaterdag 10 oktober 2009 @ 16:45:
Dat is dus juist het punt. Zelfs al had AMD hardware PhysX ondersteund, dan nog had nVidia, omdat het Cuda beheert, kunnen zorgen dat de HD5870 langzamer was geweest in Batman dan de GTS250. Als excuses hadden ze kunnen zeggen 'Oops, ergens zit een bug' om vervolgens rustig de tijd te nemen om hun marktaandeel te verstevigen en mensen het idee te geven dat PhysX over Radeons nooit goed zal werken omdat AMD zijn zaken niet op orde heeft.
Dat had wellicht gekund ja. En dan had AMD reden tot klagen gehad. Nu niet.

[ Voor 34% gewijzigd door Cheetah op 10-10-2009 16:54 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Cheetah schreef op zaterdag 10 oktober 2009 @ 16:11:
[...]
Google eens "AMD Physx"
http://www.bit-tech.net/c...-support-to-amd--ati.html
http://www.tomsguide.com/us/AMD-PhysX-Havok,news-1950.html
http://www.tgdaily.com/content/view/38137/135/


[...]
And they didn't...

Sterker nog, er waren private initiatieven los van nV om CUDA/PhysX werkend te krijgen op ATi GPU's (met toestemming en support van nV), en ook daar wilde AMD niet aan meewerken:
[...]
Leuk dat je het zo ziet, maar de werkelijkheid is anders.

Je weet dat Dave Hoff, de man die verantwoordelijk was bij NVIDIA voor de developeradoption (en daarmee het succes) van CUDA bij NV en F@A op GPUs, nu bij AMD werkt? Hij heeft zelfs NVIDIA heeft aangeboden om te helpen met PhysX te porten naar OpenCL omdat dit volgens hem erg simpel is (hij kan het weten als drijvende kracht achter CUDA). Maar helaas.... NVIDIA weigerde. Uiteindelijk verliet hij NV omdat de bedrijfscultuur hem tegen stond en AMD meer bij hem paste.
While it would be easy to convert PhysX from CUDA to OpenCL so it could run on our cards, and I've offered our assistance to do this, I can just imagine PhysX will remain that one app that doesn't ever become open.

As you may figure from my CUDA role, I was the guy responsible to get developer adoption. In addition to being a nut about SDK quality and following developers closely on the forums to initiate feature requests or critical fixes, I initiated the first ever consumer video transcode app with a partner using CUDA and delivered this to reviewers as part of the GTX280 launch, and I enabled developers to easily use notebook computers with CUDA-capable GPUs.

Of course, (in their brilliance - and why I left) folks over there abhorred this work I was doing to generate adoption since it didn't appear obvious enough that it would directly lead to Tesla sales ... (not only non-open, but even practically proprietary among their brands). At least they've eventually seen the light and seem to mention video transcoding now in about every breath ...

GPU F@H was also a project I initiated and ran at Nvidia I also started Nv's Folding@home team (team W.A....) initially for my test suite of machines. I'm still sometimes surprised at the enthusiasm around this.
Bron

There you have it. Voormalig CUDA topman biedt NV aan om PhysX te porten naar OpenCL, maar die willen niet. Deze meneer wordt nu door AMD ingezet om OpenCL en DirectCompute in te pushen. Gezien z'n succes met CUDA zal hij ook veel voor deze twee APIs kunnen betekenen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@cheetah.
Laat me nou niet lachen. AMD is toch niet gek! Ze gaan zich toch niet afhankelijk maken van een partij als nVidia 8)7 Notoir onbetrouwbaar.

Hoe naief denk je dat ze daar zijn :?

Laat nV maar lekker hun proprietary standaarden proberen te pushen, ik voel me veel beter bij een bedrijf dat open standaarden ondersteunt die het PC gaming platform in zijn geheel helpen... :)

[ Voor 41% gewijzigd door Help!!!! op 10-10-2009 17:03 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op zaterdag 10 oktober 2009 @ 16:50:

Mirrors Edge en Batman Arkham Asylum (en er zitten er nog een aantal in de pipeline).

Even voor alle duidelijkheid: als je GPU accelerated physx over een CPU probeert te runnen is die altijd de bottleneck.
Als je de CPU-versie van de PhysX expres over slechts 1 core van een CPU laat lopen en dan ook nog eens de core die bij default al het zwaarst belast wordt, dan is een bottleneck snel gecreeerd natuurlijk. Als je van een i7 de overige 7 draadjes compleet negeert, of 3 van een Phenom X4 bv, dan krijg je inderdaad veel slechtere performance dan zou kunnen. Het is dan ook interessant om te zien hoeveel slechter het zou draaien over de CPU, vergeleken met de GPU, wanneer het goed multi-threaded zou zijn toegepast.
Dat had wellicht gekund ja. En dan had AMD reden tot klagen gehad. Nu niet.
In dat geval was het te laat geweest voor AMD. Nu hebben ze de tijd en de ruimte om zich te richten op andere physics-mogelijkheden, waarbij geen onnatuurlijke belemmeringen opgegooid kunnen worden. Verder is het beklag van AMD niet eens de PhysX, maar het gedoe met AA, wat gewoonweg niets anders dan pesterij lijkt te zijn, om het ingame AA uit te schakelen, wanneer een AMD-kaart wordt gedetecteerd.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 10 oktober 2009 @ 16:53:
Leuk dat je het zo ziet, maar de werkelijkheid is anders.

Je weet dat Dave Hoff, de man die verantwoordelijk was bij NVIDIA voor de developeradoption (en daarmee het succes) van CUDA bij NV en F@A op GPUs, nu bij AMD werkt? Hij heeft zelfs NVIDIA heeft aangeboden om te helpen met PhysX te porten naar OpenCL omdat dit volgens hem erg simpel is (hij kan het weten als drijvende kracht achter CUDA). Maar helaas.... NVIDIA weigerde. Uiteindelijk verliet hij NV omdat de bedrijfscultuur hem tegen stond en AMD meer bij hem paste.

Bron

There you have it. Voormalig CUDA topman biedt NV aan om PhysX te porten naar OpenCL, maar die willen niet. Deze meneer wordt nu door AMD ingezet om OpenCL en DirectCompute in te pushen. Gezien z'n succes met CUDA zal hij ook veel voor deze twee APIs kunnen betekenen.
Wat is er anders aan de 'de werkelijkheid' dan?
nV heeft een eigen standaard genaamd CUDA. CUDA bestaat parallel aan OpenCL. Als nV op dit moment in de tijd CUDA wil pushen en dit (nog) niet gelijk wil trekken aan OpenCL is dat hun goed recht.

Dat veranderd niets aan het feit dat AMD weigert om CUDA/PhysX te supporten. Nogal logisch dat nV AMD niet z'n zin geeft om nV's PhysX API alleen te supporten onder AMD's voorwaarden, namelijk dat PhysX dan perse onder OpenCL moet draaien.

Is allemaal het goed recht van beide partijen, alleen moet er dan niet geklaagd worden dat nV's marketing (terecht) stelt dat hun GTS250 sneller is dan een HD5870 zodra de enige op dit moment werkende GPU accelerated physics implementatie wordt ingeschakeld.
AMD had voldoende gelegenheid om officieel of anders zelfs officieus mee te springen op deze trein. Hebben ze niet gedaan, en da's vooralsnog jammer, want er is geen ander functionerend alternatief op dit moment.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • denheer
  • Registratie: Oktober 2004
  • Laatst online: 12-04 19:32
Beste Cheetah,

Als je de keuze hebt tussen een open source oplossing en een gesloten standaard welke gedicteerd wordt door je grootste concurrent dan ga je dus nooit en te never voor die gesloten standaard kiezen.

Uitdragen dat AMD genoeg tijd had om CUDA/Physx te adopteren als in het aannemen van een standaard gedicteerd door hun grootste concurrent dan ben je wel HEEL naief. AMD zou zoiets alleen maar doen als er echt geen andere keuze zou zijn, gelukkig voor AMD zijn er zat andere keuzes en vervalt de optie CUDA/Physx op AMD hardware direct.

Als nV dan stelt dat een bepaald spel sneller is op hun gesloten standaard die nooit en te never door hun concurrent gebruikt gaat worden dan kan nV daarin wel gelijk hebben maar de suggestie van nV dat ze daardoor de snellere kaart in het algemeen hebben slaat natuurlijk als een tang op een varken. Laat dat laatste nou net zijn waarom iedereen hier nV weg zit te honen: nV strooit met propaganda en al hebben ze op bepaalde vlakken gelijk, het totaalbeeld wat ze proberen over te brengen klopt gewoon niet.

Acties:
  • 0 Henk 'm!

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 21-05 12:55

Sinester

Game Guru

AMD had voldoende gelegenheid om officieel of anders zelfs officieus mee te springen op deze trein. Hebben ze niet gedaan, en da's vooralsnog jammer
AMD is toch niet gek! Ze gaan zich toch niet afhankelijk maken van een partij als nVidia
Dat is waarschijnlijk de grootste reden, en van het oogpunt van een bedrijf heel begrijpenlijk

Hello there


Acties:
  • 0 Henk 'm!

  • ErikRedbeard
  • Registratie: Oktober 2005
  • Laatst online: 09-05 14:40

ErikRedbeard

Cookiecutter 5.0

Dat gedoe rondom ATI + nVidea + PhysX kan allemaal best. Dat ATI niet mee wil liften op de PhysX trein kunnen wij als consument niet veel mee doen. Het enigste wat dit veroorzaakt is dat je dadelijk een gescheiden community krijgt binnen het hele physics gebeuren.

Maar dan is er nog het feit dat nVidea, Ageia heeft overgekocht om de PhysX software te vekrijgen. Op het moment laten ze ook gewoon iedere gebruiker die een "ATI (rendering)" + "Ageia PPU of nVidea GPU (PhysX)" stikken en PhysX volledig softwarematig laat draaien. Voor een ATI + nVidea GPU is er sinds kort een unofficial patch uitgekomen, waarmee je wel hardware PhysX op je nVidia GPU krijgt als je met een ATI rendert. Maar voor de ATI + Agiea PPU gebruikers is er nogsteeds geen oplossing.

Ik zelf vind niet dat ze het recht hebben om de gebruikers van een Ageia PPU deze functie te mogen ontnemen als er een ATI kaart wordt gedetecteerd.

- En nee, oude PhysX set gebruiken werkt niet meer, aangezien nieuwe games/software niet werken/crashen als deze niet geupdate zijn.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

denheer schreef op zaterdag 10 oktober 2009 @ 17:46:
Als je de keuze hebt tussen een open source oplossing en een gesloten standaard welke gedicteerd wordt door je grootste concurrent dan ga je dus nooit en te never voor die gesloten standaard kiezen.

Uitdragen dat AMD genoeg tijd had om CUDA/Physx te adopteren als in het aannemen van een standaard gedicteerd door hun grootste concurrent dan ben je wel HEEL naief. AMD zou zoiets alleen maar doen als er echt geen andere keuze zou zijn, gelukkig voor AMD zijn er zat andere keuzes en vervalt de optie CUDA/Physx op AMD hardware direct.
Als er op dit moment een werkende OpenCL GPU-physics oplossing was, die ook nog eens op de rol staat om geimplementeerd te worden in een stapel games dan zou ik je helemaal gelijk geven. Alleen is die er niet.
Er is op dit moment geen keuze rond GPU-physics namelijk: die keuze is a.t.m. PhysX of niets.

Voordat alternatieven in productie zijn praten we vermoedelijk minimaal halverwege volgend jaar, of zelfs later.
Voor AMD klanten is het geen gebruik kunnen maken van PhysX helemaal geen voordeel. Nu niet, en ook in de toekomst niet. Ga wat beters ondersteunen zodra er wat beters is zou ik zeggen... of ondersteun (tijdelijk) wat er is en ontwikkel in de tussentijd - eventueel i.s.m. Microsoft - zelf wat beters...
Als nV dan stelt dat een bepaald spel sneller is op hun gesloten standaard die nooit en te never door hun concurrent gebruikt gaat worden dan kan nV daarin wel gelijk hebben maar de suggestie van nV dat ze daardoor de snellere kaart in het algemeen hebben slaat natuurlijk als een tang op een varken. Laat dat laatste nou net zijn waarom iedereen hier nV weg zit te honen: nV strooit met propaganda en al hebben ze op bepaalde vlakken gelijk, het totaalbeeld wat ze proberen over te brengen klopt gewoon niet.
Uh... waar stelt nV ook alweer precies dat de GTS250 'in het algemeen' sneller is dan de HD5870 :?
Zij wijzen er alleen op dat zij een voor gamers nuttige pysics feature hebben die ATi niet ondersteund, waardoor ATi klanten iets in hun gaming-experience zullen moeten missen omdat de performance daarvan met ATi kaarten dramatisch is. En dat klopt als een bus.

[ Voor 6% gewijzigd door Cheetah op 10-10-2009 18:07 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 9449

ErikRedbeard schreef op zaterdag 10 oktober 2009 @ 17:56:
Ik zelf vind niet dat ze het recht hebben om de gebruikers van een Ageia PPU deze functie te mogen ontnemen als er een ATI kaart wordt gedetecteerd.
Typische nVidia praktijk. AMD moet gewoon een chipset-detectie in hun CPU's inbouwen, als het een nV is dan de snelheid een factor 10 verlagen. Dan is het probleem snel opgelost.

Een andere oplossing om dit soort protectionisme te voorkomen is geen nV kaarten meer te kopen.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

denheer schreef op zaterdag 10 oktober 2009 @ 17:46:
Beste Cheetah,

Als je de keuze hebt tussen een open source oplossing en een gesloten standaard welke gedicteerd wordt door je grootste concurrent dan ga je dus nooit en te never voor die gesloten standaard kiezen.
Behalve dan als die standaard Havok heet, bedoel je?
nV strooit met propaganda en al hebben ze op bepaalde vlakken gelijk, het totaalbeeld wat ze proberen over te brengen klopt gewoon niet.
Dat geldt in niet mindere mate voor AMD/ATI, die vooralsnog helemaal niets hebben in te brengen tegen CUDA en Physx, al ver achter liggen bij de OpenCL certificering en backwards compatibility van zowel OpenCL als DirectCompute, en hun fans ten strijde stuurt met beloften voor de toekomst. De underdog is altijd sympathieker zullen we dan maar zeggen ;)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

denheer schreef op zaterdag 10 oktober 2009 @ 17:46:
Beste Cheetah,

Als je de keuze hebt tussen een open source oplossing en een gesloten standaard welke gedicteerd wordt door je grootste concurrent dan ga je dus nooit en te never voor die gesloten standaard kiezen.
Dat is het hem nou, er is nog helemaal geen open source oplossing. Physx is de enige mogelijkheid op dit moment, met dank aan geld en ontwikkeltijd van nVidia. Ik begrijp heel goed dat nVidia Physx in CUDA doet i.p.v. dat ze op AMD's verzoek over zijn gegaan naar OpenCL. nVidia heeft de afgelopen tijd heel veel geld en ontwikkeltijd gestoken in Cuda ( en Physx), dat ga je echt niet even te niet doen door Physx over OpenCL te gaan draaien alleen maar omdat je concurrent dat van je vraagt.

AMD heeft nog een (naar mijn mening) zeer redelijke aanbieding gekregen van nVidia om mee te kunnen doen met CUDA/Physx. Nu zijn ze alleen maar gebakken lucht aan het verkopen.
Uitdragen dat AMD genoeg tijd had om CUDA/Physx te adopteren als in het aannemen van een standaard gedicteerd door hun grootste concurrent dan ben je wel HEEL naief. AMD zou zoiets alleen maar doen als er echt geen andere keuze zou zijn, gelukkig voor AMD zijn er zat andere keuzes en vervalt de optie CUDA/Physx op AMD hardware direct.
Als ze het aanbod van nVidia hadden geaccepteerd had AMD zelf ook nog kunnen optimaliseren voor CUDA i.c.m. Radeon videokaarten. Maarja dan moet je wel wat geld vrijmaken voor een beetje R&D. ;)
Als nV dan stelt dat een bepaald spel sneller is op hun gesloten standaard die nooit en te never door hun concurrent gebruikt gaat worden dan kan nV daarin wel gelijk hebben maar de suggestie van nV dat ze daardoor de snellere kaart in het algemeen hebben slaat natuurlijk als een tang op een varken. Laat dat laatste nou net zijn waarom iedereen hier nV weg zit te honen: nV strooit met propaganda en al hebben ze op bepaalde vlakken gelijk, het totaalbeeld wat ze proberen over te brengen klopt gewoon niet.
nVidia stelt gewoon dat hun mid-end videokaart (GTS250) op dit moment sneller is in bepaalde spellen als er Physx berekeningen aan te pas komen dan AMD's nieuwste High-end videokaart (5870). Dat is namelijk ook de waarheid. Dat ligt niet aan nVidia, maar aan AMD, die op dat vlak gewoon helemaal niks te bieden heeft. Ik zie nergens in dat interview staan dat de nVidia woordvoerder zegt dat hun GTS250 sneller is in alle games of iets dergelijks.

Dat is geen propaganda, maar gewoon marketing, en daar doet AMD net zo goed aan mee. ;)

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 9449 schreef op zaterdag 10 oktober 2009 @ 18:05:
[...]

Typische nVidia praktijk. AMD moet gewoon een chipset-detectie in hun CPU's inbouwen, als het een nV is dan de snelheid een factor 10 verlagen. Dan is het probleem snel opgelost.
Nou, laat ze dat vooral doen. Dan gaat het vast nog veel beter met het bedrijf :D

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

NVIDIA nTeresting - Oct 9, 2009
NVIDIA is Driving OpenCL

Let take a closer look at the OpenCL timeline and see if it indicates who is supporting open standards better:

*
NVIDIA has the only OpenCL driver for the GPU today.
*
NVIDIA's Neal Trevett is the chairman of the Khronos Group that over sees OpenCL.
*
We were first to submit a driver to the Khronos Group.
*
We were first to give a driver to developers.
*
We were first to demo OpenCL on a GPU.
*
NVIDIA is the 1st and only company to provide a Visual profiler for development of OpenCL programs.
*
NVIDIA is the 1st and only company to provide an OpenCL SDK for GPU's.
*
NVIDIA is the 1st and only company to provide a best practices guide for OpenCL Programmers
En nog veel meer....

In dat artikel staat dat AMD maar weinig doet.

[ Voor 177% gewijzigd door Format-C op 10-10-2009 18:31 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Sinester schreef op zaterdag 10 oktober 2009 @ 17:46:
[...]


[...]

Dat is waarschijnlijk de grootste reden, en van het oogpunt van een bedrijf heel begrijpenlijk
Misschien wel ja, maar ga dan als AMD zijnde niet huilen om wat nV-marketing over Physx, als je zelf niks te bieden hebt op dat gebied.

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
RappieRappie schreef op zaterdag 10 oktober 2009 @ 18:20:
NVIDIA nTeresting - Oct 9, 2009

En nog veel meer....

In dat artikel staat dat AMD maar weinig doet.
Hun nieuwe opencl driver is net gecertificeerd voor GPU's en voor CPU's was hij al gecertificeerd (denk ik). AMD had gewoon meer werk dan nvidia, het moet goed op hun CPU's en GPU's draaien.
En jah, wat weten wij van nvidia of amd doet voor OpenCl ... , wat de marketing ons vertelt zeker?

btw, over die Physix crap... ik geloof in CPU physics O-), of misschien mocht er een streaming processor op de CPU geïntegreerd zijn kan je daar ook physics op draaien. GPU physics zijn beperkt tot een aantal fancy effectjes die niets aan de gameplay toevoegen en voor interactieve physics zijn de afstand tussen cpu & gpu te groot.

[ Voor 21% gewijzigd door oeLangOetan op 10-10-2009 18:39 ]


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 30-03 21:55
Er wordt er weer flink op los ge-quote, maar wat vind de nVidia kant van de discussie dan van dit stukje?
ErikRedbeard schreef op zaterdag 10 oktober 2009 @ 17:56:
Ik zelf vind niet dat ze het recht hebben om de gebruikers van een Ageia PPU deze functie te mogen ontnemen als er een ATI kaart wordt gedetecteerd.
Hoe kun je vol houden dat nVidia steevast physics in spellen probeert te promoten als ze zoiets doen?
Het uitzetten van Physx op hun eigen gpu bij Ati in de kast is tot daar aan toe, ook een verkeerde zaak, maar mensen die destijds een PPU hebben gekocht mag je zoiets toch niet aandoen?
Dan schaadt je toch het vertrouwen van diezelfde early adopters die je nodig hebt om van physics een success te maken?

Acties:
  • 0 Henk 'm!

Anoniem: 292676

Cheetah schreef op zaterdag 10 oktober 2009 @ 17:59:
[...]
Als er op dit moment een werkende OpenCL GPU-physics oplossing was, die ook nog eens op de rol staat om geimplementeerd te worden in een stapel games dan zou ik je helemaal gelijk geven. Alleen is die er niet.
Er is op dit moment geen keuze rond GPU-physics namelijk: die keuze is a.t.m. PhysX of niets.

Voordat alternatieven in productie zijn praten we vermoedelijk minimaal halverwege volgend jaar, of zelfs later.
Voor AMD klanten is het geen gebruik kunnen maken van PhysX helemaal geen voordeel. Nu niet, en ook in de toekomst niet. Ga wat beters ondersteunen zodra er wat beters is zou ik zeggen... of ondersteun (tijdelijk) wat er is en ontwikkel in de tussentijd - eventueel i.s.m. Microsoft - zelf wat beters...
ik begrijp je punt niet je zegt dat physx beter is omdat het enigste is?
[...]
Uh... waar stelt nV ook alweer precies dat de GTS250 'in het algemeen' sneller is dan de HD5870 :?
Zij wijzen er alleen op dat zij een voor gamers nuttige pysics feature hebben die ATi niet ondersteund, waardoor ATi klanten iets in hun gaming-experience zullen moeten missen omdat de performance daarvan met ATi kaarten dramatisch is. En dat klopt als een bus.
ik veronderstel dat je niet realiseert dat physx games even snel op ATI kaarten zou draaien als ze gewoon betere multicore cpu geven. Wat ze effectief blokeren (nog te spreken over openCL

Acties:
  • 0 Henk 'm!

Anoniem: 134818

ik veronderstel dat je niet realiseert dat physx games even snel op ATI kaarten zou draaien als ze gewoon betere multicore cpu geven. Wat ze effectief blokeren
Elke keer als ik die PR physx filmpjes zie denk ik, meh, een goeie CPU oplossing zou dit ook kunnen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zaterdag 10 oktober 2009 @ 18:17:
Dat geldt in niet mindere mate voor AMD/ATI, die vooralsnog helemaal niets hebben in te brengen tegen CUDA en Physx, al ver achter liggen bij de OpenCL certificering en backwards compatibility van zowel OpenCL als DirectCompute, en hun fans ten strijde stuurt met beloften voor de toekomst. De underdog is altijd sympathieker zullen we dan maar zeggen ;)
AMD's drivers voor zowel CPU en GPU liggen ter certificering klaar. Het is nu niet aan hen hoe snel het certificaat vergeven wordt.
Daarnaast, wat bedoel je achterliggen met backwards compatibility van DirectCompute? DirectCompute is al in gebruik bij 1 spel, waar het ook een wezenlijk verschil toont. Dit wordt echter alleen ondersteund door 1 merk GPU, namelijk aan AMD-gpu. Het spel? Battleforge.

Verder kan men wel hoog van de toren blazen aangaande PhysX, maar veel verder dan een handje vol spellen die PhysX over GPU ondersteunen kom je niet, ondanks de grote beloftes van nVidia. Zoals ze het brachten, zo zo ongeveer de helft van de grote titels die uitkomen wel met PhysX moeten komen.

@Cheetah:
De statement die men maakt aangaande de GTS250 die sneller is dan een HD5870, zijn in een dermate vage zin geconstrueerd, dat genoeg leken zullen denken dat nVidia's ~130 euro kaartje altijd sneller zal zijn dan een HD5870.

Maar goed, deze discussie zal voort blijven gaan totdat er een physics game met andere engine dan PhysX op de markt komt en dan gaan we weer over naar de flames welke het beter doet of er mooier uitziet :)

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

SneakyNL schreef op zaterdag 10 oktober 2009 @ 18:36:
Er wordt er weer flink op los ge-quote, maar wat vind de nVidia kant van de discussie dan van dit stukje?

[...]


Hoe kun je vol houden dat nVidia steevast physics in spellen probeert te promoten als ze zoiets doen?
Het uitzetten van Physx op hun eigen gpu bij Ati in de kast is tot daar aan toe, ook een verkeerde zaak, maar mensen die destijds een PPU hebben gekocht mag je zoiets toch niet aandoen?
Dan schaadt je toch het vertrouwen van diezelfde early adopters die je nodig hebt om van physics een success te maken?
Ze hebben de legacy klanten met hardware van Ageia 3 jaar lang ondersteund met nieuwe driver releases, het houdt nu gewoon op.

Wat is daar bezwaarlijk aan?

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Anoniem: 134818 schreef op zaterdag 10 oktober 2009 @ 18:42:
[...]

Elke keer als ik die PR physx filmpjes zie denk ik, meh, een goeie CPU oplossing zou dit ook kunnen.
Het lijkt dat er achter physix een extreem trage CPU implementatie zit, wellicht wordt het data-parallellisme niet uitgebuit (dus singlethreaded en geen SSE instructies)
Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.