[Algemeen] nVidia Nieuws & Discussie Topic - Deel 38 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 7 Laatste
Acties:
  • 34.999 views

Acties:
  • 0 Henk 'm!

  • Omnyakom1
  • Registratie: April 2009
  • Laatst online: 09-03-2022
I’m not sure why they named the chip after Enrico Fermi, who is best known for his work with radioactive substances and controlled nuclear reactions and stuff. But as code-names go, physicists are cool, so I’ll let it slide.
:'), moest lachen

[ Voor 3% gewijzigd door Omnyakom1 op 01-10-2009 19:16 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
neliz schreef op donderdag 01 oktober 2009 @ 18:39:
Mooi bewijs dat het bord fake is:

[afbeelding]

Check de aansluitingen van de PCIe power connectoren en het soldeer op het bord.. wat klopt er niet?

edit:
duidelijker shot dat het bord is afgeknipt om bij de koeler te passen:

[afbeelding]

Koeler dekt exhaust af:

[afbeelding]


GPU #7
[afbeelding]
Het is eigenlijk om te huilen dat een dergelijk stuk chemisch afval trots wordt getoond aan de verzamelde pers als zijnde de nieuwe kaart. Het spijt me zeer, maar iets anders kan ik het echt niet noemen. Het is een absoluut dieptepunt voor nVidia om dat te doen. Ik hoop voor hen, voor hun fans en voor de markt in zijn algemeenheid dat ze binnenkort toch een echte kaart kunnen tonen, ongeacht of die snel beschikbaar zal zijn of niet.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

dahakon schreef op donderdag 01 oktober 2009 @ 20:00:
[...]


Het is eigenlijk om te huilen dat een dergelijk stuk chemisch afval trots wordt getoond aan de verzamelde pers als zijnde de nieuwe kaart. Het spijt me zeer, maar iets anders kan ik het echt niet noemen. Het is een absoluut dieptepunt voor nVidia om dat te doen. Ik hoop voor hen, voor hun fans en voor de markt in zijn algemeenheid dat ze binnenkort toch een echte kaart kunnen tonen, ongeacht of die snel beschikbaar zal zijn of niet.
Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Xenomorphh schreef op donderdag 01 oktober 2009 @ 20:03:
[...]


Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..
Ze zullen wel werkende hardware in hun lab hebben, daar twijfel ik niet aan. Die hot lots hebben echt wel wat teruggebracht, maar dat neemt niet weg dat ze op het podium met iets staan te zwaaien wat gewoon niets is dan afval. Ik begrijp ook wel dat het lastig kan zijn een echte kaart te tonen als je erg weinig werkende GPU's hebt (hoeveel werkende chips ze uit die 2 series hot lots hebben kunnen krijgen laat ik maar in het midden), maar ze hadden hun best kunnen doen een echte kaart te tonen, of helemaal niets behalve foto's/slides.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Lack of hardware tessellation unit, this functional will be implemented in software;
Al dus een Russische site.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
Wat een stel zuur pruimen hier zeg. Die kaart is nog een prototype, logisch dat ie er nog niet helemaal 100% uit ziet....

Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.

Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.

Acties:
  • 0 Henk 'm!

Verwijderd

Charlie heeft in het forum iets te melden over de geheugencontroller op GT300:
http://www.semiaccurate.com/forums/showthread.php?t=822&page=5
Sure. I have posted the size, 23.x * 23.x, the NVIO chip, and a few other things like tapeout, first silicon and good dies from first silicon hot lots.
What else? 2:1 SPP ratio, and the number they don't want to tell people is that the numbers are 1.5TF SP and 768GF DP, but that is dependent on their ability to hit clock targets. If you do the math, the 512 shader, 384b memory part would need clocks in the 750MHz +/- a bit to hit that.

The memory is very high clocked, I am hearing 1.5Ghz GDDR5, and this doesn't surprise me given their memory woes. If you notice, the 216/218 are all slated to use GDDR3 even though they have a GDDR5 controller. Why? Because the NV GDDR5 controller is totally hosed, it is so bad that it basically doesn't work, forcing the 216/218 into GDDR3/DDR3. This means half+ bandwidth goes poof, and performance blows. See a problem for pricing?

The GDDR5 controller is very likely the same thing that sunk the 215, basically they couldn't feed it, or couldn't feed it in a way that would make a financially viable chip.

If GT300 uses the same, or a close derivative part, well, it is hosed. I would almost bet that the respin, if real, is due to memory controller problems.

If you think about it, 384b 6GHz (effective) GDDR5 is vastly faster than 512b 1.xGHz GDDR3. NV basically doubled the shader count on GT300, no shock there, and upped the bandwidth by a lot more than that. Much much more. They either decided to piss away a lot of area, power, and board cost on stupidly high frequency memory, or their controller efficiency blows. Some of my sources are saying they have to buy high bin parts to get the tolerances they need to run at much lower speeds.

As a side note, all the stuff about 40nm yields being fine that Fudo et all are saying, there is only one question, where are the parts? If yields are fine, and NV is running more 40nm wafers than anyone else, why can't you find one of the parts at any place other than a few OEMs? Why can't you buy GDDR5 variants? Why are the laptop versions that basically mandate GDDR5 being replaced by ATI parts on most laptops?

If yields are fine, and there is no GDDR5 controller problems, what is the explanation again? I REALLY wish some people would ask questions like that before they posted stories.

-Charlie

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:24:
Wat een stel zuur pruimen hier zeg. Die kaart is nog een prototype, logisch dat ie er nog niet helemaal 100% uit ziet....

Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.

Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.
Cuda heeft momenteel 1 werkelijke functie voor gaming, namelijk de GPU-support voor PhysX. AMD heeft zijn eigen ideeen daarover ook al lang kenbaar gemaakt. In plaats van vast te houden aan een propietry stukje software, gooit AMD het over de OpenCL boeg, waar ook nVidia straks dankbaar gebruik van kan maken. Havok heeft al wat zaken die via OpenCL kunnen draaien, waardoor het gebruik kan maken van CPU en GPU. Daarnaast werkt AMD zeer nauw samen met Bullet om Bullets physics engine ook via OpenCL te laten lopen. Wederom iets waar ook nVidia gebruik van kan maken.

Met andere woorden, Cuda is leuk, maar is gesloten. Voor wetenschappelijke projecten maakt dat niet zoveel uit, maar voor gamedevelopment is het een doodsteek (aangezien het maar op een deel van de hardware gebruikt kan worden).

Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
Tja dat is een keuze die nvidia nu maakt. Ze stoppen veel geld in de R&D en het zou een beetje lullig zijn als de concurrent er dan zonder veel kosten mee vandoor zou kunnen gaan. Het is op dit moment nog een beetje een nichemarkt waarmee nvidia haar investering er uit wil halen, dat is heel normaal. Daarna heeft nvidia er wel baat bij om er een soort marktstandaard van te maken. Het zal (hopelijk) niet alleen bij physics blijven en tegen de tijd dat er meer ontwikkelaars wat mee gaan doen komt ati ook wel. En wanneer ati het ook kan hoeft nvidia cuda ook niet meer zo gesloten te houden. Het begin is er in elk geval nu.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:58:
Ze stoppen veel geld in de R&D en het zou een beetje lullig zijn als de concurrent er dan zonder veel kosten mee vandoor zou kunnen gaan.
Ehhh, DX10.1 en DX11?
nVidia kraakt DX10.1 af ATi steekt er geld in en kijk eens aan nVidia komt met DX10.1 kaarten.
En nu helpt ATi toch ook met de ontwikkeling van DX11 games.

Ik bedoel je kunt als fabrikant niet alles hebben.

Maar vindt wel dat nVidia zich beter kan richten op gamen dan op CUDA, ontwikkel anders gewoon Quadro kaarten die niet op de GeForce serie zijn gebasseerd maar speciaal voor CUDA.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:58:
Daarna heeft nvidia er wel baat bij om er een soort marktstandaard van te maken. Het zal (hopelijk) niet alleen bij physics blijven en tegen de tijd dat er meer ontwikkelaars wat mee gaan doen komt ati ook wel. En wanneer ati het ook kan hoeft nvidia cuda ook niet meer zo gesloten te houden. Het begin is er in elk geval nu.
Dat is het punt dus, AMD doet het al, alleen dan met OpenCL, wat wel een standaard is, die ook nog eens door iedereen te gebruiken is. Als een ontwikkelaar moet kiezen tussen Cuda, waarmee ze slechts een deel van de games-markt kunnen bereiken, of OpenCL, waarmee ze de hele games-markt kunnen bereiken, welke keuze denk je dan dat het meest logisch is?

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 21:33
Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:24:
Wat een stel zuur pruimen hier zeg. Die kaart is nog een prototype, logisch dat ie er nog niet helemaal 100% uit ziet....
Díe kaart is geen prototype, maar gewoon iets om mee te zwaaien voor het klappende publiek.
Hoe kan hij het doen als de powerconnector niet aangesloten is op de PCB??? :?

Wat dat betreft ben ik het volledig met Dahakon eens, triest dat ze dit doen/ moeten doen?
Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.

Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.
@ underlined:
Wat was er eerder (brook-) GPGPU of CUDA?
Wat is beter voor de community, open/industry standards zoals OpenCL, Openphysics en DirectCompute of een gesloten standard van én geoptimaliseerd door en voor 1 hardware vendor?

Ja, tuurlijk zegt Nv dat ATi (en eenander)best een licentie voor CUDA mag nemen, maar aangezien zij bepalen wat goed op CUDA loopt, loopt ATi (en eenander) dan altijd achter de feiten aan...

Dat is voor nV alleen maar de ideale situatie: performance leader zonder er moeite voor te hoeven doen!
:X :z

Verder niks ten nadele van de GT300, zal zeer waarschijnlijk een goede GFX-kaart worden die sneller is dan de HD5870. ;)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Dat verhaal van Charlie heb ik ook eerder gehoord (en niet via hem ;) )
De geheugencontroller schijnt DDR5 alleen te happen als het memory extreem hoog geklokt is.
Een raar verhaal.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Moshe85 schreef op donderdag 01 oktober 2009 @ 17:49:
[...]


uhhm, van Larrabee is al aardig wat geshowed hoor. Vrij recent nog zelfs op het IDF ;)
Zoek maar ff op de Frontpage klik. Draaide laatst een raytraced scene uit ET:QW en al eerder lieten ze CS:S al draaiend zien op een Larrabee. Echter echte performance cijfertjes zijn er niet. Mijn aandacht heeft het in ieder geval wel :9
Daarnaast Larrabee is een GPU geen CPU ;) Dus waarom je die CPU bottleneck erbij haalt :?
CS:S is geen zware game. Wolfenstein (geen ET:QW afaik) werd wel gerenderd maar het ging allemaal niet soepel en na de presentatie waren de heren uitleggers amper aanspreekbaar mbt de demo.
Xenomorphh schreef op donderdag 01 oktober 2009 @ 20:03:
[...]


Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..
Ergens pikte ik op dat de beelden niet van een ''Fermi'' afkomstig waren maar van een GT200. Oftewel: Fermi not working.

[ Voor 52% gewijzigd door Jejking op 02-10-2009 00:59 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Jejking schreef op vrijdag 02 oktober 2009 @ 00:56:
Ergens pikte ik op dat de beelden niet van een ''Fermi'' afkomstig waren maar van een GT200. Oftewel: Fermi not working.
nvidia heeft aangegeven (meerdere malen) dat alles op "current gen" hardware draaide. de raytracing demo van vandaag draaide schijnbaar met 4 tesla S1070 systemen.
15 Kaarten van de 16 zouden de berekeningen daarvoor hebben moeten doen om een Furby systeem te emuleren.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Huppie
  • Registratie: Mei 2003
  • Laatst online: 02-09 09:59
Mogen we even lachen met Charlie? (Zo te zien is ie nog niet voorbij gekomen...)

http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/

Proud member of TCF - D2OL is zooooo 2005


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Huppie schreef op vrijdag 02 oktober 2009 @ 10:08:
Mogen we even lachen met Charlie? (Zo te zien is ie nog niet voorbij gekomen...)

http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/
Je kunt zeggen wat je wilt maar hij heeft wel gelijk. Ik had er nog niet zo veel gevonden trouwens :D Had wel wat dingen gezien die niet klopte maar dit is helemaal te gek voor woorden :D

[ Voor 10% gewijzigd door Astennu op 02-10-2009 10:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ehm... zolang er onboard of budget chips zijn van nVidia met CUDA mogen ze het van mij blijven bouwen !! Zat HTPC users die het met CoreAVC gebruiken :P

* nero355 wordt er binnenkort 1 van :*)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
nero355 schreef op vrijdag 02 oktober 2009 @ 12:00:
Ehm... zolang er onboard of budget chips zijn van nVidia met CUDA mogen ze het van mij blijven bouwen !! Zat HTPC users die het met CoreAVC gebruiken :P

* nero355 wordt er binnenkort 1 van :*)
Tja het grappige vind ik daar van dat het niet perse op CUDA gemaakt hoeft te zijn. Het kan gewoon n OpenCL mja dan werkt het op alle kaarten en dat wil nVidia natuurlijk niet ;). Het zou me niets verbazen als dat CUDA over een tijdje niet meer zo belangrijk is als nu.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 03-09 15:36
Astennu schreef op vrijdag 02 oktober 2009 @ 10:45:
[...]


Je kunt zeggen wat je wilt maar hij heeft wel gelijk. Ik had er nog niet zo veel gevonden trouwens :D Had wel wat dingen gezien die niet klopte maar dit is helemaal te gek voor woorden :D
Ik denk dat we wel kunnen stellen nu dat er voorlopig nog geen concurrentie komt van nvidia tegenover de nieuwe ati kaarten. Zelfs een beetje goed faken is niet gelukt 8)

p.s. Eerste artikel van die Charlie waar ik me niet aan ergerde.....

[ Voor 6% gewijzigd door luckyjan op 02-10-2009 12:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
Omdat wij geen klap vee zijn, en dus critisch kijken wat er gebeurd, zijn we fanboys? 8)7

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
Sorry hoor maar dit is geen bashen. Als je wil kan ik wel laten zien hoe dat gaat. Dit is gewoon kritisch kijken. Dit werd ook gedaan bij ATi's HD2900 XT serie. Moest je toen het commentaar lezen van de nVidia aanhangers. En daar hadden ze toen ook gelijk in. Toen heb ik soortgelijke dingen in het ATi topic genoemd terwijl ik eerlijk moet toegeven dat ik wel pro ATi ben. Echter wat ze met de HD2900 XT gedaan hebben kon niet. En daar waren ze zelf ook wel achter dat dat niet gegaan is zoals ze verwacht hadden.

Wat nVidia de laatste tijd doet is niet netjes. Ze rebranden alles. Gewoon dezelfde kaarten voor meer geld met een andere stikker er op. En nu gaat het behoorlijk mis met de GT300. Wel van alles roepen maar niets waar kunnen maken. Als AMD dit had gedaan zeg ik dat ook. Sterker nog ik heb al het nodige commentaar op de HD5870 gegeven. Heb namelijk het idee dat er meer performance in moet zitten dan we nu zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • fikkie_84
  • Registratie: Januari 2004
  • Laatst online: 14-09 09:47
Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:57:
[...]

Omdat wij geen klap vee zijn, en dus critisch kijken wat er gebeurd, zijn we fanboys? 8)7
Kritisch kijken noem ik niet meer wat er in deze thread te lezen is...
Ik lurk al zeer lang rond op dit forum en lees regelmatig de ati en nvidia thread maar tegenwoordig blijf ik er toch eerder weg.
In de ati thread komen leuke/interessante dingen voor maar zit het vol met mensen die het niet kunnen laten om telkens steken onder water naar nvidia te geven en in de nvidia thread komen enkele mensen systematisch enkele steken geven/gal spuwen over nvidia.
Iemand wie daar iets over zegt is direct een nvidiot of fanboy....

Kritisch kijken houdt in dat je bij een bedrijf zowel hun sterke punten als hun zwakke punten kunt beoordelen.
En ik heb al langer het gevoel dat sommige mensen die hier posten geen sterke punten bij nvidia kunnen opnoemen maar enkel komen om negatief te zijn, een reactie uit te lokken en dan onschuldig spelen wanneer iemand in de tegenaanval gaat.

ps
Niet rechtstreeks op jou bedoeld, is in het algemeen

Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk dat het te maken heeft wat voor nieuws er voorbij komt. In de ATI thread komt CJ geregeld met kleine nieuwtjes van software, tests en initiatieven. Dat zie je hier niet echt voorbij komen. Het gaat hier vooral over releases van kaarten. Dat gaat op dit moment bij nVidia gewoon minder, en omdat het daar vooral gaat, zie je dat de berichtgeving negatief blijft.

Acties:
  • 0 Henk 'm!

  • fikkie_84
  • Registratie: Januari 2004
  • Laatst online: 14-09 09:47
Astennu schreef op vrijdag 02 oktober 2009 @ 12:38:
[...]


Tja het grappige vind ik daar van dat het niet perse op CUDA gemaakt hoeft te zijn. Het kan gewoon n OpenCL mja dan werkt het op alle kaarten en dat wil nVidia natuurlijk niet ;). Het zou me niets verbazen als dat CUDA over een tijdje niet meer zo belangrijk is als nu.
Je weet toch dat coreAVC niet ontwikkeld is door nvidia?
Dus nvidia heeft er absoluut geen "schuld" aan dat dit niet in opencl ontwikkeld is, daarvoor moet je bij het bedrijf zijn dat coreAVC ontwikkeld ;)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
* nero355 zeikt het volgende af :

- nVidia High End
- ATI Low End (HTPC class)

* nero355 vindt het volgende helemaal geweldig :

- nVidia Low End (HTPC class)
- ATI High End

Wat ben ik dan volgens jou :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Ik gok iemand die in de toekomst ook ATi in het HTPC segment helemaal geweldig gaat vinden. :P

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

spNk schreef op vrijdag 02 oktober 2009 @ 15:34:
Ik gok iemand die in de toekomst ook ATi in het HTPC segment helemaal geweldig gaat vinden. :P
Zolang ATI geen L5.1 doet = Nee :P nVidia doet dat wel _O_ Vooral als alle kaarten straks PureVideo 3 ondersteunen !!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 22:04

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

mja, de negativiteit m.b.t. Nvidia kan ik mij heel goed voorstellen. De bedrijfsvoering van Nvidia is de laatste paar jaar nu niet echt lekker geweest, als ik het zo mag noemen. Kwa techniek komen ze op het moment niet helemaal mee zie DirectX10.1 ondersteuning en hun commetaar op DirectX11. Al-hoe-wel hun nieuw aangekondigde GPU's ook best interessant zijn op bepaalde gebieden.

Alleen het onophoudelijk hernoemen van oude technologie en deze weer verkopen onder als "nieuw" dat voelt niet goed. Daarnaast he hele G84, G86 en G92 debakel. Het moedwillig blijven produceren van GPU's waarvan zij weten dat deze een productie fout bevatten. Reeds in 2006 heeft HP Nvidia namelijk al gewezen op deze productie fouten, alleen heeft Nvidia tot Juni 2008 glashard ontkend. In Juni/Juli 2008 heeft men toch toegegeven, maar vervolgens de consument en oem fabrikanten weer in de kou laten staan door geen oplossng te bieden. De enige oplossing welke Nvidia bied is een klein (kosten van de chip) terug betalen aan de oem fabrikanten en het advies gebruik te gaan maken van de nieuwe generatie GPU's. Dit is natuurlik geen oplossing, omdat het over het algemeen om mobile GPU's gaat welke op het moederbord zijn gesoldeerd. De vervangskosten zijn de velemalen hoger dan alleen de kosten van de GPU zelf.

Het resultaat is dat je uiteindelijk hooguit een jaar extra garantie krijgt als consument zijnde (zie de regeling van Dell). Alleen HP heeft het netjes gedaan met een aantal laptop series, hier hebben zij een nieuw moederbord met vergelijkbare ATi GPU voor ontworpen.

Al met al zijn dit heel negatieve berichten en beslissingen voor en door Nvida. Negatieve berichten blijven daarbij ook veel langer "hangen", maar deze zijn wel zo negatief dat veel mensen echt elders gaan kijken en ook negatief advies zullen blijven geven over Nvidia produkten. Persoonlijk advisieer ik dan ook op het moment geen Nvidia produkten aan klanten, kennissen of vrienden. Puur en alleen door de slechte bedrijfsvoering van Nvidia, daarbij bied ATi nu eenmaal heel goede alternatieven.
nero355 schreef op vrijdag 02 oktober 2009 @ 15:37:
[...]
Zolang ATI geen L5.1 doet = Nee :P nVidia doet dat wel _O_ Vooral als alle kaarten straks PureVideo 3 ondersteunen !!
Waarom is L5.1 zo belangrijk, komt dit in officiele media terug? Ik heb namelijk ook een op ATi gebasseerde HTPC en ik speel werkelijk alles moeiteloos af met een 780G chipset en AMD Athlon X2 5050e CPU. (dit is een serieuse vraag)

[ Voor 10% gewijzigd door _Dune_ op 02-10-2009 17:30 ]

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia fakes Fermi boards at GPU Technology Conference

http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/

Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 26-07 00:33
ja idd, Ati is goed en goeikoop en degelijk

ma ik heb nu eenmaal een nvidia bord, en een sli, en een nvidia koeler en een nvidia case
en green fans

:'(

Acties:
  • 0 Henk 'm!

Verwijderd

Note 5: Thanks to Nvidia for providing such great source material for articles.
LOL, Charlie laat zich weer eens lekker gaan, maar hij heeft IMO wel gelijk, wat Nvidia heeft gedaan is toch gewoon de pers bedriegen... niet?

Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 22:04

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Verwijderd schreef op vrijdag 02 oktober 2009 @ 17:20:
[...]
LOL, Charlie laat zich weer eens lekker gaan, maar hij heeft IMO wel gelijk, wat Nvidia heeft gedaan is toch gewoon de pers bedriegen... niet?
Dit past in iedergeval helemaal in de bedrijfsvoering van Nvidia, zoals ik deze hier een stuk boven ook reeds schetste. Dit geeft absoluut geen vertrouwen in de produkten.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

_Dune_ schreef op vrijdag 02 oktober 2009 @ 16:38:
Waarom is L5.1 zo belangrijk, komt dit in officiele media terug? Ik heb namelijk ook een op ATi gebasseerde HTPC en ik speel werkelijk alles moeiteloos af met een 780G chipset en AMD Athlon X2 5050e CPU. (dit is een serieuse vraag)
Sommige niet-officiële content (met name animaties) kunnen flink profiteren van het grotere aantal B-frame references wat L5.1 toelaat. Bij L4.1 zit je op 1080p met nog maar 4 frames (9 op 720p), L5.1 specificeert een maximum van 16 frames op 1080p.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29

ORNL to Use NVIDIA Fermi to Build Next Gen Super Computer


Fermi supercomptuer will be ten times more powerful than today's fastest supercomptuer

NVIDIA was at the forefront of the push to move high-performance computing from CPUs to GPUs in scientific and other areas of research. As it turns out, the GPU is a very effective tool for running calculations historically run on the CPU.

NVIDIA announced its new Fermi architecture at its GPU Technology Conference recently. The new architecture was designed from the ground up to enable a new level of supercomputing using GPUs rather than CPUs. At the conference, Oak Ridge National Laboratory (ORNL) associate lab director for Computing and Computational Sciences, Jeff Nichols, announced that ORNL would be building a next generation supercomputer using the Fermi architecture.

The new supercomputer is expected to be ten times faster than today's fastest supercomputer. Nichols said that Fermi would enable substantial scientific breakthroughs that would have been impossible without the technology.

Nichols said, "This would be the first co-processing architecture that Oak Ridge has deployed for open science, and we are extremely excited about the opportunities it creates to solve huge scientific challenges. With the help of NVIDIA technology, Oak Ridge proposes to create a computing platform that will deliver exascale computing within ten years."

ORNL also announced at the conference that it would create a Hybrid Multicore Consortium with the goal of working with developers of major scientific codes to prepare the applications for the next generation of supercomputers using GPUs.

“The first two generations of the CUDA GPU architecture enabled NVIDIA to make real in-roads into the scientific computing space, delivering dramatic performance increases across a broad spectrum of applications,” said Bill Dally, chief scientist at NVIDIA. “The ‘Fermi’ architecture is a true engine of science and with the support of national research facilities such as ORNL, the possibilities are endless.”
bron: http://www.dailytech.com/...Computer/article16401.htm

offtopic:
Als ze dan wel maar niet de kaart gebruiken die Jen-Hsun Huang in de handen had..... :')

Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 15-09 09:31
_Dune_ schreef op vrijdag 02 oktober 2009 @ 17:28:
[...]


Dit past in iedergeval helemaal in de bedrijfsvoering van Nvidia, zoals ik deze hier een stuk boven ook reeds schetste. Dit geeft absoluut geen vertrouwen in de produkten.
Was dit een officiele prestentatie ?

Als het dan echt een fake is geweest, en de 'uit in 2009' mededeling op basis van ati-feestje-verpesten is gedaan door de CEO, kan je dan als aandeelhouder geen dikke claim neerleggen als die kaart in 2009 niet in de winkel ligt ?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
whiteguy schreef op vrijdag 02 oktober 2009 @ 18:46:
[...]

Was dit een officiele prestentatie ?

Als het dan echt een fake is geweest, en de 'uit in 2009' mededeling op basis van ati-feestje-verpesten is gedaan door de CEO, kan je dan als aandeelhouder geen dikke claim neerleggen als die kaart in 2009 niet in de winkel ligt ?
Ze zullen er echt wel alles aan doen om in ieder geval een paar kaarten te hebben dit jaar. Dat het gros hiervan naar reviewers gaat en een paar misschien de markt betreden voor onnoemelijke prijzen doet er op zo'n moment niet toe, want de 'release' was dan alsnog in 2009.

Dat de doorsnee consument hem waarschijnlijk niet voor 2010 zal kunnen kopen, is natuurlijk een ander verhaal, maar ik vrees dat nVidia daar op dit moment weinig aan zal kunnen doen.

(dit alles natuurlijk mits het niet een groot toneelstuk is en er opeens ladingen GT300's bij de leveranciers liggen)

[ Voor 7% gewijzigd door dahakon op 02-10-2009 18:54 ]


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 02 oktober 2009 @ 18:52:
[...]

Ze zullen er echt wel alles aan doen om in ieder geval een paar kaarten te hebben dit jaar. Dat het gros hiervan naar reviewers gaat en een paar misschien de markt betreden voor onnoemelijke prijzen doet er op zo'n moment niet toe, want de 'release' was dan alsnog in 2009.

Dat de doorsnee consument hem waarschijnlijk niet voor 2010 zal kunnen kopen, is natuurlijk een ander verhaal, maar ik vrees dat nVidia daar op dit moment weinig aan zal kunnen doen.

(dit alles natuurlijk mits het niet een groot toneelstuk is en er opeens ladingen GT300's bij de leveranciers liggen)
is alleen maar goed voor de consument, als het nog gebeurd in 2009 _/-\o_

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29

Nvidia confirms Fermi Tesla board is a mock-up


Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.

The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.

Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample. Some key people at Nvidia have promised to show us the picture of the real one. Stay tuned.
bron:
http://www.fudzilla.com/content/view/15798/34/

[ Voor 3% gewijzigd door Paprika op 02-10-2009 22:05 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

The saga continues....... :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op vrijdag 02 oktober 2009 @ 22:03:

Nvidia confirms Fermi Tesla board is a mock-up


Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.

The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.

Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample. Some key people at Nvidia have promised to show us the picture of the real one. Stay tuned.
bron:
http://www.fudzilla.com/content/view/15798/34/
Ik las het net ja. Toen moest ik toch wel lachen :D Ik ben wel benieuwd naar die werkende kaart. Lijkt me juist leuker om te zien dan een final version :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Toch snap ik het niet... waarom niet gewoon een beetje geld uitgeven om een videokaart te maken die tenminste wel echt kan lijken... Als je de plaatjes even bekijkt, dan zie je toch ook dat 't gewoon nergens op slaat. Een SLI connector die niet eens gebruikt kan worden....Als je het niet goed kan doen, doe het dan ook niet zo extréém slecht als dit en maak gewoon even IETS wat op een videokaart lijkt (en dan ook nog als chief executive officer zeggen dat dit er echt een is...).

@ Astennu,
Afbeeldingslocatie: http://koo.corpus.cam.ac.uk/chaos/video16x80.jpg

[ Voor 10% gewijzigd door Paprika op 02-10-2009 22:22 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op vrijdag 02 oktober 2009 @ 22:03:

Nvidia confirms Fermi Tesla board is a mock-up

Als niemand het was op gevallen of als het minder duidelijk was, hadden ze waarschijnlijk gewoon blijven volhouden dat het wel Fermi was. :')

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
^
Met hen :)

Trouwens, zat net het Fermi artikel van Anand te lezen en moet zeggen dat die chip behoorlijk impressive is.
De koers die nVidia inslaat is vanuit hun perspectief best te begrijpen, alleen ben ik bang dat het net wat te vroeg is.
Ook interessant is dat twee nVidia VP's openlijk toegeven dat ze fouten hebben gemaakt qua prijsstelling van de GT200 en op het gebied van de overstap naar een kleiner procede.
nVidia die toegeeft dat ze fouten maken, zou een betere wereld dan toch mogelijk zijn..... :P

Stel dat GPGPU met fermi echt een succes wordt dan zou het best kunnen dat ATI een achterstand oploopt op dit gebied. Ben benieuwd.

Overigens het is idd wel verschrikkelijk sneu dat de CEO zegt dat het een echt board is terwijl het gewoon fake is....... tsssssk

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Nu moeten ze wel met de stroom mee, tegen beter weten in volhouden heeft toch geen zin.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024

High end, dual and performance

Dit lijkt me een interessanter bericht.

Ze willen in 1 keer 3 verschillende kaarten lanceren. Twee ervan lijken logisch, de high end (GTX380?) en de performance (GTX360?). Opvallend is dat de performancekaart gepositioneerd wordt tegenover de HD5850, als we Fuad zouden mogen geloven. In dat geval zetten ze dus laag in.

De derde kaart is de Dual Fermi, waar sommige mensen erg wild van zijn. Maar gezien de vertraging van de chip en de verwachte TDP van de high end (doel is om onder de 225Watt te blijven, of dit lukt moet nog gezien worden). Als de high end al meer dan 225Watt kan verbruiken, dan moeten ze wel heel erg gaan snijden in de GX2 versie, willen ze die onder de 300 Watt kunnen houden.

Het artikel spreekt al van minder dan 512 shader cores, wat logisch klinkt. Maar hoeveel minder zullen dat worden en op wat voor snelheid zal dit zijn. De vraag die dan ook over blijft is de volgende: Als ze flink moeten snijden in dergelijke zaken, zal de kaart dan uiteindelijk nog wel sneller kunnen zijn dan een HD5870X2?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29

Nvidia faces overall shortage of GT200 products that could last for more than a month, if not even two


Nvidia has been suffering from an overall shortage of GT200-based products. Partners are complaining and the fact that ATI has just launched the first 40nm DirectX 11 card doesn’t help Nvidia partners at all.

The good thing for Nvidia partners is that ATI is still far from being able to deliver enough cards due to huge demand and this doesn’t look to be solved in the next few weeks. Nvidia is also waiting for a positive market reaction after it spilled the beans of its 'GT300' Fermi-based chip and its possible market dominance. Again, the chip is not out and 5870 and 5850 are the only two DirectX 11 cards on the market. The HD 5870 is faster than any other single chip solution and it also has a future proof stamp with DirectX 11 support.

The GT200 shortage might continue to last and could simply be replaced by the shortage of Fermi, once it launches, as the demand for Fermi is expected to be unlike anything you’ve seen before. Fermi is great, but the demand from both server guys for Tesla computing and gamers due its great performance might be outstanding.

The question remains how many GPUs can Nvidia pump out and can they supply enough on time to satisfy the market.
Bron: http://www.fudzilla.com/content/view/15796/34/

Tja.... best veel "aparte" berichten op fudzilla vandaag....

offtopic:
@ The_Mask
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen (ook als ATi dit had gedaan!)..... :')

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jejking schreef op vrijdag 02 oktober 2009 @ 22:29:
Nu moeten ze wel met de stroom mee, tegen beter weten in volhouden heeft toch geen zin.
Typische nVidia om eerst ook nog te zeggen dat het om Fermi gaat. :/

:w Jejking. :>
Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen
Waarom zou ik een bevestiging nodig hebben is toch vrij duidelijk er was van te voren al aangekondigd dat ze Fermi zouden laten zien. En tja als je het niet hebt tja dan kun je natuurlijk net doen of je het wel hebt met een fake kaart. Wat niet weet wat niet deert immers, alleen zijn de problemen nog groter als ze het juist wel weten.
Maar ja was er niemand achter gekomen en hadden ze het dus wat beter gefaked, had nVidia echt niet gezegd dat het maar een fake kaart was hoor. :P

[ Voor 54% gewijzigd door -The_Mask- op 02-10-2009 22:41 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
dahakon schreef op vrijdag 02 oktober 2009 @ 22:30:

Het artikel spreekt al van minder dan 512 shader cores, wat logisch klinkt. Maar hoeveel minder zullen dat worden en op wat voor snelheid zal dit zijn. De vraag die dan ook over blijft is de volgende: Als ze flink moeten snijden in dergelijke zaken, zal de kaart dan uiteindelijk nog wel sneller kunnen zijn dan een HD5870X2?
De GTX 280 had er 240, GTX 295 480.... Dus weer 480 zou best eens kunnen, als ze erg snel zijn.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:

Nvidia faces overall shortage of GT200 products that could last for more than a month, if not even two


Nvidia has been suffering from an overall shortage of GT200-based products. Partners are complaining and the fact that ATI has just launched the first 40nm DirectX 11 card doesn’t help Nvidia partners at all.

The good thing for Nvidia partners is that ATI is still far from being able to deliver enough cards due to huge demand and this doesn’t look to be solved in the next few weeks. Nvidia is also waiting for a positive market reaction after it spilled the beans of its 'GT300' Fermi-based chip and its possible market dominance. Again, the chip is not out and 5870 and 5850 are the only two DirectX 11 cards on the market. The HD 5870 is faster than any other single chip solution and it also has a future proof stamp with DirectX 11 support.

The GT200 shortage might continue to last and could simply be replaced by the shortage of Fermi, once it launches, as the demand for Fermi is expected to be unlike anything you’ve seen before. Fermi is great, but the demand from both server guys for Tesla computing and gamers due its great performance might be outstanding.

The question remains how many GPUs can Nvidia pump out and can they supply enough on time to satisfy the market.
Bron: http://www.fudzilla.com/content/view/15796/34/

Tja.... best veel "aparte" berichten op fudzilla vandaag....

offtopic:
@ The_Mask
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen (ook als ATi dit had gedaan!)..... :')
Ja ik heb die berichten ook gezien, ze kunnen net zo goed in hun site neerzeten: FudZilla Your Pro-Nvidia new site! :\

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:

Tja.... best veel "aparte" berichten op fudzilla vandaag....
Charme offensief om er voor te zorgen dat mensen nVidia niet geheel terzijde schuiven. Het is wel opvallend dat men eerst doodleuk verklaart dat het een echte fermi is, om vervolgens te zeggen dat het een mockup was (no shit sherlock). Wat dat aangaat moet ik het toch eens zijn met The_Mask, dat het er verdacht veel op lijkt dat nVidia er mee probeerde weg te komen.

Andere artikels op Fudzilla lijken ook aardig gericht op het creeeren van goodwill richting nVidia, aangaande het Batman AA verhaal, waarbij nog eens een steek naar AMD/ATI wordt gegeven voor het niet in licensie nemen van PhysX en een beetje gejammer over het pushen van DX11 bij nieuwe games.
Daarnaast is er het artikel waarin men stelt dat nVidia alleen het PC-gamen in leven heeft gehouden (ondanks dat ze DX10.1 stelselmatig hebben lopen ondermijnen en ook DX11 niet geheel en onvoorwaardelijk steunen, tot ze hun eigen DX11 kaarten hebben).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
M4gick schreef op vrijdag 02 oktober 2009 @ 22:37:
[...]
Ja ik heb die berichten ook gezien, ze kunnen net zo goed in hun site neerzeten: FudZilla Your Pro-Nvidia new site! :\
Ach beide "fronten" hebben dit soort websites.
Fudzilla voor de nVidia berichten, Charlie om die berichten te bashen (;)). De nieuwtjes van dit soort websites zijn altijd wel leuk om te lezen, omdat wanneer je beide fronten aandacht geeft, ze elkaar erg humoristisch maken en dat maakt het het lezen helemaal waard. :D

Toch hoop (verwachting is iets geheel anders) ik dat nVidia snel iets klaar heeft zodat de prijzen omlaag gaan. Welke dan de beste prijs/performance heeft komt er gegarandeerd bij mij in.... :)

@ dahakon

Paprika in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Leuk leesvoer als je daar meer over wilt ;).

[ Voor 8% gewijzigd door Paprika op 02-10-2009 22:43 ]


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Paprika schreef op vrijdag 02 oktober 2009 @ 22:42:
[...]

Ach beide "fronten" hebben dit soort websites.
Fudzilla voor de nVidia berichten, Charlie om die berichten te bashen (;)). De nieuwtjes van dit soort websites zijn altijd wel leuk om tel ezen, omdat wanneer je beide fronten aandacht geeft, ze elkaar erg humoristisch maken en dat maakt het het lezen helemaal waard. :D

Toch hoop (verwachting is iets geheel anders) ik dat nVidia snel iets klaar heeft zodat de prijzen omlaag gaan. Welke dan de beste prijs/performance heeft komt er gegarandeerd bij mij in.... :)
Ja, ik lees fudzilla ook gewoon, gewoon om te kijken wat Nvidia ons wil laten weten. En idd, het zal leuk zijn als die kaarten snel komen, voor de prijzen, alleen ik ben bang van niet eigenlijk, wat fudzilla ook beweerd. En als ze komen zal dat december zijn, ik zie ze nu niet met een fake sample morgen de kaart uitbrengen..

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op vrijdag 02 oktober 2009 @ 22:35:
[...]

De GTX 280 had er 240, GTX 295 480.... Dus weer 480 zou best eens kunnen, als ze erg snel zijn.
Maar de GTX295 liep, ondanks het kleinere procede dan dat van de GTX280, op lagere snelheden en met een kleinere geheugenbus. Aangezien de 'GTX380' en de 'GTX395' (namen even als logische mogelijkheden, geen zekerheden natuurlijk) allebei van dezelfde chip gemaakt worden, zal men wel wat meer moeten doen dan het lichtelijk verlagen van de kloksnelheid.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Klopt absoluut. Misschien klopt het artikel m.b.t. de streamprocessors helemaal niet en zijn het er wel meer, wie weet... Ook zei hebben het met nVidia nieuws echt niet altijd aan het rechte eind.

Speculatie blijft dan wel weer erg leuk en nVidia zal er echt alles eraan doen om niet een product op de markt brengen dat slechter presteert dan de nieuwe ATI kaarten die er al een paar maanden eerder waren.

Hoe ze het gaan doen, voor welke prijs & of ze het echt lukt blijft natuurlijk maar de vraag.... maar er zullen de komende tijd zeker veel leuke artikelen te vinden zijn op het internet m.b.t. die vragen. :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op vrijdag 02 oktober 2009 @ 22:47:
Hoe ze het gaan doen, voor welke prijs & of ze het echt lukt blijft natuurlijk maar de vraag.... maar er zullen de komende tijd zeker veel leuke artikelen te vinden zijn op het internet m.b.t. die vragen. :)
Ze zullen zeker hun best gaan doen om een dual-gpu kaart op de markt te zetten die de HD5870X2 kan verslaan. Het blijft interessant om te zien of ze het kunnen doen binnen bepaalde gestelde 'eisen', daar ik betwijfel dat ze graag een 'Asus Mars GTX285X2' type straalkachel met hoge kans op uitval product willen.

Wat nog interessanter is, is dat nVidia nu zeker is dat een single-chip oplossing zeker niet snel genoeg zal zijn om de HD5870X2 bij te houden, waardoor ze gelijk vanaf het begin ook een dual-gpu kaart in de planning hebben staan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Het zou een geweldige stunt zijn als ze meteen met een dual GT300 board kunnen komen. Dan krijgt de HD5870 X2 het ook moeilijk. Ik vermoed dat AMD die in een week of 4-8 uitbrengt.

nVidia probeert met GPGPU een markt aan te boren waar AMD niet zo actief is. Dat is ook minder nodig omdat hun ook nog een CPU tak hebben.

En nVidia gaat er tussen in zitten. Een GPU die ook nog goed kan rekenen :) Al zou de HD5870 ook niet slecht in GPGPU moeten zijn. Echter licht daar de focus niet bij AMD. Het is echt een Game kaart.

AMD heeft geen dedicated DP units. Die combineert 5 alu's om een DP bewerking te kunnen doen. Dus dan kun je er 320 doen ipv 1600 SP.

[ Voor 11% gewijzigd door Astennu op 02-10-2009 23:48 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Echte game kaart? Dat is ook niet helemaal waar, want om volledig DX11 compliant te zijn moeten GFX-kaarten hardwarematig Direct Compute (wat immers eveneens een vorm van GPGPU is) ondersteunen. ;)

[ Voor 12% gewijzigd door warp op 02-10-2009 23:52 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

warp schreef op vrijdag 02 oktober 2009 @ 23:51:
Echte game kaart? Dat is ook niet helemaal waar, want om volledig DX11 compliant te zijn moeten GFX-kaarten hardwarematig Direct Compute (wat immers eveneens een vorm van GPGPU is) ondersteunen. ;)
Cypress heft toch dx11 ingebakken zitten?.. dus het is hardware matig aanwezig?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Xenomorphh schreef op vrijdag 02 oktober 2009 @ 23:59:
Cypress heft toch dx11 ingebakken zitten?.. dus het is hardware matig aanwezig?
Dat klopt. Vandaar ook dat nVidia DX11 een beetje downplayed, want dat vist in hun CUDA vijver.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Paprika schreef op vrijdag 02 oktober 2009 @ 22:03:
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
En hoe kunnen ze dat dan garanderen? :S Als ze nou echt eens iets laten zien (en dan gewoon niet half of een vaag plaatje of een stukje).

Nvidia: Ja, hier is ie dan!
Charlie: Huh? Die is nep.
Nvidia: Oke, hij is nep. Maar die in de kast zat is wel echt hoor!

Zo heb je ook niet veel aan persconferenties en demo's natuurlijk...

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • roedie
  • Registratie: Juni 2001
  • Laatst online: 28-08 14:03
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires a....
Zo'n high end kaart waarvan een pcb zo'n 8 lagen is kan je echt niet opbouwen uit modules met draaidjes, ieder lijntje naar dat geheugen moet tegenwoordig differentieel zijn om de snelheid te behalen. dus dat klinkt ook redelijk onzin. Of je pcb is goed, of niet, en dan maak je een nieuw pcb. Misschien wat voeding knutselen maar dan zijn de mogelijkheden weg. en die 6 lagen aan de binnenkant doe je ook niets meer aan....

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
AMD is sure going after Batman and the fact that anti-aliasing integrated in the game doesn’t work on ATI cards. Nvida was happy to talk about it and we’ve learned a lot about "The way Its Meant to be played" ways.

First of all let's say that the latest Batman title is a 'The way its meant to be played' game and that Nvidia did get some cool looking PhysX in this game. This is the first important title that got PhysX right in the game and made the experience much better than without it. This hurts ATI as they don’t have PhysX.

When it comes to anti-aliasing in the game, this is not a feature you turn on and Nvidia had to program and make it work on this title. They did it for their cards and due to the time they didn’t test if it works on ATI cards. This was ATI’s job as ATI also have a smaller developer relations team that was supposed to get AA in this game. They didn’t do it and we can only speculate on the reasons. This communication was supposed to take place between game developers and ATI, and Nvidia claims that they would not and didn’t ever prevent a developer to talk to another graphics card vendor.

So getting anti-aliasing in that game was a feature that was done by Nvidia and the company actually made the game look better. This is not something you need to apologize for and the good thing that comes from TWIMTBP is that games do look better than on consoles and this is a really important for the overall future of gaming.

ATI certainly won't apologize for getting DirectX 11 in Dirt 2, STALKER and Alien vs Predator, as they do have DirectX 11 hardware and Nvidia doesn’t. Nvidia will have it, but not in the next few weeks. We simply believe that ATI has to confront Nvidia and its TWIMTBP as these guys make a difference that hurts ATI in the long run. The more games TWIMTBP touches and more PhysX they get inside of the important titles, will generally make ATI's hardware less competitive as it can't support it.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Je kunt zeggen wat je wilt, maar nV heeft wel een punt. Ze helpen bij het ontwikkelen van de game, stoppen daar tijd en geld in, ze hebben een eigen visie over AA en het resultaat mag er zijn. Het is de eerste marvel/dc-comics-superhelden-game ever die het spelen waard is, en hoe!

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Meer uitleg:

If it weren’t for them, PC games will look like console games

The way its meant to be played is Nvidia’s program for working with developers and its been criticized more then once, but this time Nvidia Vice President Toni Tamassi and Director of this program Ashu Rege talked about it.

They explained that some 50 developers involved in the program are working around the clock to make games look better. The big problem of computer gaming as a whole is that games are being developed for consoles and simply ported on the PC.

If they leave them like that, any given game will look like a console version of it, and since consoles are a cheaper gaming environment, gamers might just forget about a PC and migrate to console gaming. Since you have teams such as one at The way its meant to be played and since ATI has something similar but just with lesser manpower, these teams are trying to implement some fancy effects such as DirectX 10, 11 support, post processing, PhysX and many other things you can only get on DirectX 10 and 11 hardware, simply to make PC games look better.

Xbox 360 has ATI’s R500 chip inside, while Playstation 3 has RSX aka Nvidia's G70-class GPU inside and both these are stuck with DirectX 9 and cannot do anything better than that.

So if you want DirectX 10, 11, Anti-aliasing, Shader model 4 or 5 effects, hardware tessellation, PhysX effects, the work of at least 50 engineers at Nvidia makes things look better. You should not criticized them and we should actually thank them for it, and if Nvidia would not do this, the PC games could become an endangered species.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Maar dan nog... een VendorID check inbouwen die ervoor zorgt dat, zodra er een ATi-kaart gezien wordt, jouw CPU op 1 core de physics uit gaat rekenen waardoor de performance instort (3FPS, etc)... dat is gewoon kinderachtig en bedrijfonwaardig.

Veel dubieuze praktijken bij nVidia, het rebrandingverhaal neem ik ze zeer kwalijk omdat de gemiddelde (achterlijke) consument zich dezelfde tech aan laat smeren (of de nieuwe HybridPower erin stopt en daarna er weer snel uithaalt) onder het motto dat het het nieuwste lijkt. Sja... bedrijfstechnisch misschien een geniale oplossing alleen: je naamgeving wordt een zooitje en je dupeert klanten.

Edit: oh ja... TWIMTBP is de reddende engel van de pc-gamewereld, zo lust ik er nog wel een paar :z

Dat programma zorgt er enkel voor dat enkele codemensen van nV inzage hebben in de engine en daar aan mogen sleutelen, gevolg: reclame voor nVidia en de kans is groot dat het beter loopt op nV hardware. Nou, woehoe. Ze schetsen een lichtelijk rooskleurig beeld van de situatie.

[ Voor 23% gewijzigd door Jejking op 03-10-2009 01:58 ]


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Sorry maar dat is onzinnig. Als er een game ontwikkeld wordt wil ik juist als toekomstige koper dat het goed loopt op mijn hardware. Dus als de hardware fabrikanten daar een actieve rol in spelen komt dat de game alleen ten goede. Dus ja, sleutel maar raak denk ik: maak het sneller, mooier, beter. Sinds wanneer is dat een zonde?? Dat het niet even goed loopt op ALLE hardware, dat is een gegeven voor alle hardware en software combinaties. Lees het stuk van van nV over Batman goed: LoL: verwacht je echt dat nV een game moet testen op ATI kaarten? "This was ATI's job". Indeed it was. Straks ga je me nog vertellen dat Intel software moet helpen testen voor AMD.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Hey guys. I'm a graphics programmer. This is how hard it is to enable 4x multi-sample anti-aliasing in Direct3D 9, assuming the hardware supports it and has enough VRAM for the extra memory required for the depth buffer samples:

D3DPRESENT_PARAMETER parameters;
ZeroMemory(&parameters, sizeof(parameters));
parameters.Windowed = FALSE;
parameters.SwapEffect = D3DSWAPEFFECT_DISCARD;
parameters.MultiSampleType = D3DMULTISAMPLE_4_SAMPLES;
pD3D->CreateDevice(D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL, hWnd, D3DCREATE_HARDWARE_VERTEXPROCESSING, &parameters, &d3dDevice);

The key here is using a full screen mode (non-windowed), with the back buffers set to discard on present (so it doesn't eat up a ton of memory), and the multi-sample type being set the desired number of samples or D3DMULTISAMPLE_NONE to disable MSAA.

There are no nVidia specific flags involved here at all. You do want to make sure the GPU has enough VRAM though and enough memory bandwidth, depending on what you're using the rest of the GPU's resources for, otherwise performance will suffer.

And it's pretty much the same process for Direct3D 10, Direct3D 11, and there's some similarities here too with OpenGL's GL_ARB_multisample extension. It's not hard to do.

This is a simplified example, there's a lot more that goes into configuring a graphics device for rendering in game engines, but the actual act of enabling MSAA is relatively simple. It should also be noted that MSAA doesn't work well with multiple render targets (MRTs) in Direct3D 9. So if you're doing deferred shading/lighting, you may have to turn off MSAA and do some gaussian blurs in the pixel shader to fake anti-aliasing. Direct3D 10 and Direct3D 11 don't have this limitation, you can use MSAA and MRTs in tandem.
zelfs als ze een AA algoritme gebruikten die alleen op nvidia kaarten werkt zou het niet veel moeite kosten om standaard directx 9 AA te laten werken

[ Voor 3% gewijzigd door Verwijderd op 03-10-2009 02:29 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Illidan schreef op zaterdag 03 oktober 2009 @ 02:27:
Sorry maar dat is onzinnig. Als er een game ontwikkeld wordt wil ik juist als toekomstige koper dat het goed loopt op mijn hardware. Dus als de hardware fabrikanten daar een actieve rol in spelen komt dat de game alleen ten goede. Dus ja, sleutel maar raak denk ik: maak het sneller, mooier, beter. Sinds wanneer is dat een zonde?? Dat het niet even goed loopt op ALLE hardware, dat is een gegeven voor alle hardware en software combinaties. Lees het stuk van van nV over Batman goed: LoL: verwacht je echt dat nV een game moet testen op ATI kaarten? "This was ATI's job". Indeed it was. Straks ga je me nog vertellen dat Intel software moet helpen testen voor AMD.
Nee, maar dan zo gaan sleutelen dat als jij ATI hardware hebt, dat de prestatie bewust gedrukt wordt(PhysX op 1 core) vind ik dan wel zonde, en een schande. Blijkbaar moet Nvidia dan zo maar winnen, in plaats van met goede hardware te komen :+ . Zeker ATI moet ook werken aan hun drivers voor games, en hier support bij geven. Maar de "support" van Nividia vind ik maar dubbel. Ja het wordt mooier/sneller en better, maar als jij geen Nvidia kaart hebt, wordt je prestatie gewoon verneukt, en dan niet omdat dat ATI niet een game getest heeft.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Darkasantion schreef op zaterdag 03 oktober 2009 @ 09:15:
[...]

Nee, maar dan zo gaan sleutelen dat als jij ATI hardware hebt, dat de prestatie bewust gedrukt wordt(PhysX op 1 core) vind ik dan wel zonde, en een schande. Blijkbaar moet Nvidia dan zo maar winnen, in plaats van met goede hardware te komen :+ . Zeker ATI moet ook werken aan hun drivers voor games, en hier support bij geven. Maar de "support" van Nividia vind ik maar dubbel. Ja het wordt mooier/sneller en better, maar als jij geen Nvidia kaart hebt, wordt je prestatie gewoon verneukt, en dan niet omdat dat ATI niet een game getest heeft.
Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub :)

[ Voor 13% gewijzigd door Xenomorphh op 03-10-2009 09:30 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op zaterdag 03 oktober 2009 @ 02:27:
Sorry maar dat is onzinnig. Als er een game ontwikkeld wordt wil ik juist als toekomstige koper dat het goed loopt op mijn hardware. Dus als de hardware fabrikanten daar een actieve rol in spelen komt dat de game alleen ten goede. Dus ja, sleutel maar raak denk ik: maak het sneller, mooier, beter. Sinds wanneer is dat een zonde?? Dat het niet even goed loopt op ALLE hardware, dat is een gegeven voor alle hardware en software combinaties. Lees het stuk van van nV over Batman goed: LoL: verwacht je echt dat nV een game moet testen op ATI kaarten? "This was ATI's job". Indeed it was. Straks ga je me nog vertellen dat Intel software moet helpen testen voor AMD.
Dat is dus het hele punt. NVidia heeft veel geld gepompt in de de development, wat op zich goed kan zijn. Alleen hebben ze te vaak hun eisen erbij doorheengedrukt, die vaak niets te doen hadden met het verbeteren van de gamesmarkt voor de PC.
Batman's PhysX blijkt bv ook goed via de CPU te draaien (net als de meeste PhysX dat doet), als je het spel daarvoor patched met een hack. De keuze van nVidia was dus niet de gamer of de markt, maar eigen hardware.
DX10.1 werkte prima in Assassins Creed, maar werd verwijderd, omdat er schijnbaar ergens wat bugs waren. Of gewoon omdat AMD's hardware er teveel profijt van had. Wederom een keuze niet voor de markt, maar voor eigen hardware.
In zijn algemeenheid geen DX10.1 ondersteunen totdat DX11 eigenlijk al een feit is, is niet vooruitstrevend of denken aan de markt.

Het is hardstikke goed dat nVidia ontwikkelaars ondersteunt, maar ze hebben de laatste jaren veel te weinig gedaan in hardware-opzicht om te kunnen stellen dat PC-gaming door hen overleeft heeft. Na het succes van de G80 heeft het hardware-gedeelte amper nog aandacht gekregen.
Wat dat aangaat denk ik dat AMD het iets beter doet door juist open platformen te steunen en de hardwareconcurent niet stelselmatig 'uit te sluiten'.
Xenomorphh schreef op zaterdag 03 oktober 2009 @ 09:29:
Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub :)
De GT200 is geen slechte hardware, maar dat heeft met name te maken met het feit dat het eigenlijk gewoon een schaalvergroting is van de G80. De GTX280 is inderdaad in de meeste games behoorlijk sneller dan de HD4870, maar als je kijkt naar de refreshes, dan is de GTX285 amper sneller dan de HD4890 (zeker wanneer de prijs erbij komt), feitenlijk niets sneller dan de HD4890 1GHz en gaan de HD4870X2 en GTX295 (waar we een half jaar en een dieshrink op hebben moeten wachten) vrijwel gelijk op in de hoge resoluties (waar je zo'n kaart voor koopt) wanneer er geen scaling-problemen zijn. Als een game dan ook nog eens DX10.1 ondersteunt, werkt dit in het voordeel van AMD.

[ Voor 19% gewijzigd door dahakon op 03-10-2009 09:52 ]


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Eerst: "Ati is gemeen omdat ze DX 11 pushen";
Illidan schreef op zaterdag 03 oktober 2009 @ 01:40:
ATI certainly won't apologize for getting DirectX 11 in Dirt 2, STALKER and Alien vs Predator, as they do have DirectX 11 hardware and Nvidia doesn’t.
Dan: "nVidia is fantastisch omdat ze DX 11 pushen";
Illidan schreef op zaterdag 03 oktober 2009 @ 01:54:
So if you want DirectX 10, 11, Anti-aliasing, Shader model 4 or 5 effects, hardware tessellation, PhysX effects, the work of at least 50 engineers at Nvidia makes things look better. You should not criticized them and we should actually thank them for it, and if Nvidia would not do this, the PC games could become an endangered species.
En dan vergeten we even het Assassin's Creed DX 10.1 debakel.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Xenomorphh schreef op zaterdag 03 oktober 2009 @ 09:29:
[...]


Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub :)
Was meer een kleine knipoog naar hef feit dat Nvidia heel veel rebrands heeft. De hardware is zeker goed, laat daar geen twijfel over zijn, bepaalde chips gaan al 3 jaar mee en doen het nog steeds goed, hoewel met steeds andere namen ;) , wat gewoon een compliment is aan de engineers van Nvidia. Maar de bedrijfsvoering die Nvidia heeft is gewoon bagger, en jammer, er zit namelijk veel meer in :) . Daarom ben ik misschien beetje pro ATI, omdat Nvidia gewoon dingen flikt die ik gewoon echt schandalig en onbeschoft vindt. ATI zal ook niet 100% clean zijn, zeker niet, maar Nvidia is op dit moment gewoon vies bezig, en daar hou ik niet van, ook al mag de GT300 super zijn qua specs en prestaties, het gevoel bij het bedrijf erbij is gewoon slecht :(

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
dahakon schreef op zaterdag 03 oktober 2009 @ 09:36:
[...]

Dat is dus het hele punt. NVidia heeft veel geld gepompt in de de development, wat op zich goed kan zijn. Alleen hebben ze te vaak hun eisen erbij doorheengedrukt, die vaak niets te doen hadden met het verbeteren van de gamesmarkt voor de PC.
Batman's PhysX blijkt bv ook goed via de CPU te draaien (net als de meeste PhysX dat doet), als je het spel daarvoor patched met een hack. De keuze van nVidia was dus niet de gamer of de markt, maar eigen hardware.
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt. Zoals gezegd is, als ATI niet test en nV wel, kun je moeilijk nV hiervan de schuld geven. Zij doen hun huiswerk tenminste. En als PhysX beter draait op gpu dan op cpu, dan lijkt het me een makkelijke keuze voor de game dev. En dan achteraf dat gemiep uiteraard waarom het niet door de cpu wordt opgepakt. Waarom wel? Daar heb je de (juiste) gpu voor (of juist niet, in dat geval pech gehad. Waar de ene game geoptimaliseerd is voor hardware A zal dat bij andere games precies andersom zijn). Voor de duidelijkheid: bij het ontwikkelen van een game hoeft het uitgangspunt helemaal niet te zijn dat het op ALLE hardware even goed draait. Het lijkt erop dat sommigen daarvan uit gaan, maar dat is gelukkig niet zo, dat zou een strop betekenen voor hardware en software vernieuwing omdat je met alles en iedereen rekening moet houden.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Darkasantion schreef op zaterdag 03 oktober 2009 @ 10:14:
De hardware is zeker goed, laat daar geen twijfel over zijn, bepaalde chips gaan al 3 jaar mee
*kuch* G80
Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.

[ Voor 50% gewijzigd door -The_Mask- op 03-10-2009 10:47 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:

Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt.
Als nVidia er een heel groot bedrag inpompt zal het voor een game developer lastig/moeilijker zijn nee te zeggen.

Dus een game developer heeft wel een keuze, maar als bijvoorbeeld 50% van de totale kosten die gemaakt worden betaald worden door nV, dan zegt "niemand" nee/ kan het heel verleidelijk zijn voor een gamedeveloper. Edit; en dat zou het wat mij betreft gerechtvaardigd zijn, als nV zijnde, te eisen dat er "restricties" komen voor andere hardware. Als een gamedev daarmee accoord is, wie zijn wij dan om ons daar druk om te maken? Het is net zo goed de gamedev die hieraan meewerkt.

Batman is natuurlijk een uitgelezen mogelijkheid voor nV om PhysX "op te hypen/pushen". En dat lukt ze bij sommige mensen aardig. Edit; ik speel het zonder PhysX, en ik vind de game vermakelijk genoeg. Die PhysX zullen mij een worst zijn. :)

Ik vind er op zich ook niks mis mee.

ATi heeft geen PhysX. Jammer dan. nV heeft geen DX10.1. Ook jammer. Voor mensen met een nV kaart. Die hebben minder performance in een paar games, en ATi gamers hebben geen PhysX in een paar games.

Ik lig er niet wakker van.

:)

[ Voor 20% gewijzigd door Format-C op 03-10-2009 11:05 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Zo simpel is het helaas niet Illidan. Als NV zegt van 'hier is een zak geld' dan komt dat over het algemeen wel met een aantal voorwaarden. Als AMD aangeeft geen toegang te krijgen tot de game totdat deze al uit is, ligt dat dan aan de gamedeveloper (het lijkt mij persoonlijk dat een developer het liefst ziet dat het op alle hardware goed draait), of ligt dat aan voorwaarden in nVidia-hulp? De vraag is dus hoezeer een ontwikkelaar het laatste woord heeft, nadat het al hulp heeft geaccepteerd. Waarom werd de DX10.1 support uit Assassin's Creed weggepatched met de belofte dat het ooit wel weer een keertje terug zou komen? Mensen met DX10.1 hardware hadden over het algemeen geen problemen met het spel.

Of PhysX beter draait op GPU dan CPU, wel, dat hangt waarschijnlijk vooral af van de hoeveelheid PhysX toegepast. Maar als je CPU slechts uit zijn neus loopt te eten tijdens een spel en je kunt er blijkbaar wel de PhysX over laten draaien zonder dat de CPU volledig belast wordt, dan kun je je afvragen wat de preciese bedoeling is geweest.

Verder is PhysX natuurlijk bij lange na niet de enige physics-engine beschikbaar. Maar goed, AMD heeft zijn huiswerk ook gedaan, dit door de nieuwste standaarden te ondersteunen, door open engines te pushen en doordat hun DX11 hardware al langere tijd beschikbaar is voor ontwikkelaars. Verder hoeft een spel natuurlijk niet even goed te draaien op alle hardware, is nooit zo geweest en zal waarschijnlijk ook nooit zo zijn.

In ieder geval hoop ik persoonlijk dat developers overstappen op meer open physics in de toekomst, die via OpenCL over de GPU aanspreekbaar zijn. Dat is namelijk actief dingen verbeteren voor PC-gaming.

Acties:
  • 0 Henk 'm!

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:
[...]


Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt. Zoals gezegd is, als ATI niet test en nV wel, kun je moeilijk nV hiervan de schuld geven. Zij doen hun huiswerk tenminste. En als PhysX beter draait op gpu dan op cpu, dan lijkt het me een makkelijke keuze voor de game dev. En dan achteraf dat gemiep uiteraard waarom het niet door de cpu wordt opgepakt. Waarom wel? Daar heb je de (juiste) gpu voor (of juist niet, in dat geval pech gehad. Waar de ene game geoptimaliseerd is voor hardware A zal dat bij andere games precies andersom zijn). Voor de duidelijkheid: bij het ontwikkelen van een game hoeft het uitgangspunt helemaal niet te zijn dat het op ALLE hardware even goed draait. Het lijkt erop dat sommigen daarvan uit gaan, maar dat is gelukkig niet zo, dat zou een strop betekenen voor hardware en software vernieuwing omdat je met alles en iedereen rekening moet houden.
Het is ook niet zo dat je met alle hardware rekening moet houden, en ook niet persee met hardware van je overburen. Maar wat hij zegt is dat als ze Physx zo graag overal in willen implanteren doe dat dan niet alleen op je nvidia kaarten maar geef die optie ook gewoon aan ati kaarten, al is het op de processor. Maar wat ik lees is het zo dat ze Physx maar op 1 core activeren, waarom niet gewoon multitreaded maken als ze dan zo vooruitstrevend willen zijn.

Ik ben nieuw in dit topic en zal gelijk mijn standpunt even duidelijk maken.
Ik ben altijd al voor ati geweest, ik kan niet echt zeggen waarom. Ik kan echter wel gewoon buiten mijn ati standpunt om beoordelen (denk ik 8)7). In dat standpunt zie ik nu gewoon dat ati nogsteeds vol blijft houden om open standaarden te gebruiken als OpenCL, en dat ze dingen als dx10.1 en dx11 blijven pushen. Als ik dan naar nvidia ga kijken dan kraken zij het allemaal af, omdat zij het zelf niet hebben. En ze blijven bij hun "Almachtige" nVidia standaarden die op andere hardware niet draaien.

Daarbij komt dat de SLI licenties gewoon onzin waren en dat het gewoon een stukje geprogrammeerde code was. (ik weet niet of ati iets vergelijkbaars heeft of niet maar toch)

Dan kom ik bij de rebranding, Tuurlijk het blijven over het algemeen goede kaarten, vooral high-end. Maar als je moet gaan rebranden zonder met iets nieuws te komen dan zit dat toch niet helemaal goed of wel soms??

Laat staan die stunt van donderdag met die fake kaart. Dan kan je nog beter gewoon toegeven dat je nog niet klaar bent. Je weet toch dat er mensen zijn die niet gelijk geloven dat dat een werkende kaart was. En die beter gaan kijken, waarna blijkt dat het wel een fake moet zijn. Tevens hun reactie. Buiten dat je nooit een printplaat van tegenwoordig na kan maken met draadjes. Hoe wil je in gods naam dat ding gaan koelen als hij helemaal onder de draadjes zit.


Ja, ati heeft ook niet alles koek en ei. De kaart zou in eerste instantie beter moeten presteren als dat uit de benchmarks kwam, maar daar tegen over staat dat er veel meer in de kaart zit als wat we nu zien, en de drivers voor de oude kaarten geoptimaliseerd zijn, en ze aan deze drivers nog maar net begonnen zijn.

Daarbij zijn de levertijden ruk, maar die komt binnenkort wel op gang.


Al met al is nvidia gewoon heel erg bezig om alleen maar zichzelf boven ati te werken, en dan niet door hardware, maar door allemaal lastige trucjes. Waar ati probeert om open standaarden door te voeren, en die ook toegankelijk maakt voor nvidia.

Ik blijf bij ati voorlopig _/-\o_

(dit is trouwens niet een post om een ati/nvidia-boy discussie te beginnen.)

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
Dan nog ligt de fout bij de developer en publisher die het spel als gelijkwaardig op alle hardware verkopen en niet bij nVidia. Het is best dat Batman:AA een nVidia techdemo is geworden op de pc, maar dan heb je dat als publisher duidelijk te maken en niet de eerst de volle mep voor het spel vangen waarna achteraf blijkt dat de volledige ervaring alleen op bepaalde hardware te beleven is.

TWIMTBP is een keuze voor developers tussen onafhankelijk een spel ontwerpen of een zak centjes ontvangen en de optimalisaties slechts voor èèn bepaald merk doen en misschien zelfs logische optimalisaties die voor het andere merk voordelig zouden uitpakken achterwege te laten.

Je kan het nVidia niet kwalijk nemen dat ze proberen om de softwarekant te beïnvloeden in hun voordeel.
Je kan het de developers and publishers wel kwalijk nemen dat ze erin meegaan.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
[...]

*kuch* G80

[...]

Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
1. dat is speculatie.
2. als dat zo is ligt de bal nu bij ATI en bij niemand anders: die moeten in dat geval zowel game dev's als nV voor de rechter slepen vanwege ongeoorloofde afspraken. Ik vermoed dat ATI dat niet doet omdat het een onzinnige stelling is. Wat nV doet is ervoor zorgen dat de game op hun hardware zo goed mogelijk draait. Hoe het op andere hardware draait is nV's zaak niet.
3. dit alles neemt niet weg dat ATI beter moet testen. En zelfs dan:
4. ATI en anderen moeten niet op de stoel van de game dev gaan zitten. Want dat zie je vaak gebeuren, dat mensen maar roepen hoe een game wel of niet ontwikkeld moet worden. Amehoela. Als software ontwikkelaar bepaal je dat gelukkig zelf.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wat is speculatie? Van de G80? Denk het niet he. :p
Wat betreft de andere punten lees de berichten boven die van jouw nog maar eens.
Marce schreef op zaterdag 03 oktober 2009 @ 11:00:
Daarbij komt dat de SLI licenties gewoon onzin waren en dat het gewoon een stukje geprogrammeerde code was. (ik weet niet of ati iets vergelijkbaars heeft of niet maar toch)
Voor mobo fabrikanten die SLi op hun X58 chipset willen hebben met $5 worden betaald, voor CrossFireX hoeft niks te worden betaald.

[ Voor 61% gewijzigd door -The_Mask- op 03-10-2009 11:11 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op zaterdag 03 oktober 2009 @ 11:01:
4. ATI en anderen moeten niet op de stoel van de game dev gaan zitten. Want dat zie je vaak gebeuren, dat mensen maar roepen hoe een game wel of niet ontwikkeld moet worden. Amehoela. Als software ontwikkelaar bepaal je dat gelukkig zelf.
Dat nVidia op de stoel van de gamedevs gaat zitten om te vertellen hoe het moet werd daarstraks nog bejubeld (en ook in het verhaaltje van Fudzilla).

Dat is uiteindelijk ook waar het om draait. NVidia laat door middel van Fudzilla weten hoe belangrijk zij zijn geweest voor het voortleven van PC-gaming. Nu de bal echter bij AMD ligt, gezien de voorsprong met DX11 hardware, is het opeens fout dat AMD DX11 bij de ontwikkelaars 'doordrukt', omdat nVidia nog geen DX11 hardware kan leveren. Waarom geldt dat punt dan niet met betrekking tot PhysX?

Het is eigenlijk nog gekker, daar het nVidia vrij staat om een DX11 kaart te maken, maar AMD niet zomaar een PhysX-ondersteunende videokaart/driver kan maken, zonder ervoor te betalen en vervolgens hopende dat CUDA een beetje mee wil werken met AMD-hardware.

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
[...]

*kuch* G80

[...]

Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
Waarbij even goed presteren zonder enige hulp vaak betekent: presteert bagger op Nvidia én ATI kaarten. Saints Row 2 anyone? Als ATI wil dat games goed presteren op hun hardware, dan kunnen ook zij meer ondersteuning bieden aan developers. Het is echt niet zo dat een game developer expres het slechter laat draaien op ATI kaarten. Als je echter een deadline hebt om je spel te verschepen, en je krijgt geen hulp van AMD, tsja, dan kan je iets minder optimalisaties doen specifiek voor ATI kaarten.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Waarom is het kwalijk als dev's en publishers meedoen aan TWIMTBP (of soortgelijke tegenhangers)? LoL.

Wordt de game sneller? check.
Krijg ik als game dev extra testers erbij? check.
Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Wordt de game dus beter? check
Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check

Het is een keuze van de game dev, die ze gelukkig zelf mogen maken. Dit is volledig legitieme bedrijfsvoering die er ook nog eens in resulteert dat de kwaliteit van het product potentieel omhoog gaat. Marktwerking doet de rest.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Mr.Chinchilla schreef op zaterdag 03 oktober 2009 @ 11:13:
[...]

Waarbij even goed presteren zonder enige hulp vaak betekent: presteert bagger op Nvidia én ATI kaarten. Saints Row 2 anyone?
SR2 was een halfhartige port, dat die zo slecht draaide was enkel omdat het budget en de tijd genomen voor de port totaal niet toereikend waren. Wil je beweren dat pc hardware fabrikanten nu centjes richting developers moeten gooien om zelfs maar een fatsoenlijke port te krijgen?

Van programma's als TWIMTBP verwacht ik dat spellen die al fatsoenlijk draaien dankzij speciale optimalisaties opeens dingen doen die je op de hardware niet voor mogelijk had gehouden. Niet dat een baggerport met plijsters behangen wordt om het speelbaar te maken.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

O? Volgens mij valt dat soms best tegen hoor. Logo erin plempen en klaar. Er waren geloof ik zelfs spellen met TWIMTBP die niet goed werkten op NVidia (kan iemand me vertellen welk spel dat ook alweer was? Of heb ik dat gedroomd? :)). Niet altijd natuurlijk maar geen garantie...
Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Als DX10.1 per sè eruit gesloopt moet worden? Nee. Het is NVidia toch te doen om de reclame hoor.
Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check
Zie bovenstaand punt. :)

[ Voor 5% gewijzigd door bwerg op 03-10-2009 11:32 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Illidan schreef op zaterdag 03 oktober 2009 @ 11:21:
Waarom is het kwalijk als dev's en publishers meedoen aan TWIMTBP (of soortgelijke tegenhangers)? LoL.
TWIMTBP is misschien begonnen als een initiatief om het voor developers mogelijk te maken efficiëntere code voor nVidia hardware te schrijven dan zonder TWIMTBP mogelijk was geweest, maar het lijkt de laatste tijd meer "steentjes in de radertjes gooien als een systeem Ati draait" te zijn geworden.
Marktwerking doet de rest.
Daar heb je gelijk in en omdat Ati nu flink marktaandeel aan het veroveren is zal een developer meer geneigd zijn om hun software voor Ati EN nVidia kaarten te optimaliseren.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op zaterdag 03 oktober 2009 @ 11:21:
Waarom is het kwalijk als dev's en publishers meedoen aan TWIMTBP (of soortgelijke tegenhangers)? LoL.

Wordt de game sneller? check.
Krijg ik als game dev extra testers erbij? check.
Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Wordt de game dus beter? check
Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check
Uitgaande van de TWIMTBP titels:
Punt 1: geen DX10.1, dus had sneller gekunt.
Punt 2: zeer zeker mogelijk, al zal het afhangen van de deal
Punt 3: wederom geen DX10.1, dus had mooier gekunt.
Punt 4: de game had dus weldegelijk nog beter gekunt.
Punt 5: wanneer je volgens de DirectX guidelines je spel maakt en de hardware-fabrikanten optijd driver-optimalisaties laat maken, dan draait het bij launch fatsoenlijk op elke hardware (uitgaande dat ze niet een totaal brakke engine gebruiken of een extreem slechte port neerzetten).

Maar goed, ik ben benieuwd of deze steun aan TWIMTBP achtige zaken ook blijft staan wanneer sommige GITG titels niet zo heel erg goed draaien op nVidia-hardware (door bv het ontbreken van DX10.1 ondersteuning).

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
bwerg schreef op zaterdag 03 oktober 2009 @ 11:30:
[...]

O? Volgens mij valt dat soms best tegen hoor. Logo erin plempen en klaar. Er waren geloof ik zelfs spellen met TWIMTBP die niet goed werkten op NVidia (kan iemand me vertellen welk spel dat ook alweer was? Of heb ik dat gedroomd? :))

[...]

Als DX10.1 per sè eruit gesloopt moet worden? Nee. Het is NVidia toch te doen om de reclame hoor.

[...]

Zie bovenstaand punt. :)
Uhhh? Lees het laatste: marktwerking doet de rest. Ik geef alleen wat voorbeelden van enkele overwegingen die game dev's kunnen en mogen maken om mee te doen aan het programma. Als eea niet uitpakt, en dat kan natuurlijk altijd, doet de markt de rest: game wordt slecht ontvangen, nog slechter verkocht, er komt geen vervolg op die game. En als er wel een vervolg komt, moet het niveau van dit vervolg omhoog. En dit soort missers, het mag niet te vaak gebeuren want dan vind er een soort inflatie plaats m.b.t. tot TWIMTBP, m.a.g. nog minder vertrouwen in dit soort games, nog minder game dev's die hiervoor zullen kiezen, ga zo maar door. Normale marktwerking dus.

En het gebrek aan DX10.1 doet niks af van de keuze die een game dev maakt, als ze moeten kiezen tussen een game bouwen in hun uppie, of met behulp van nV maar dan zonder DX10.1, tja makkelijke keuze volgens mij. ;)

[ Voor 8% gewijzigd door Illidan op 03-10-2009 11:49 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Illidan schreef op zaterdag 03 oktober 2009 @ 11:40:
En het gebrek aan DX10.1 doet niks af van de keuze die een game dev maakt, als ze moeten kiezen tussen een game bouwen in hun uppie, of met behulp van nV maar dan zonder DX10.1, tja makkelijke keuze volgens mij. ;)
Eerst zou de hulp betere games brengt, maar vervolgens stel je nu dat ze liever hulp krijgen dan dat ze 'een betere game' kunnen maken, terwijl DX10.1 juist zoveel gemakkelijker ontwikkelt dan DX10.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Games worden ook beter met TWIMTBP, dat is het bestaansrecht van dit programma. Als dat niet zo was, dan was het nu wel weer opgedoekt, dat is de marktwerking. Zelfs zonder DX10.1, dat is nu wel bewezen de gezien de vele TWIMTBP games. Of wil je beweren dat discutabele DX10.1 de enige mogelijkheid is om een game naar een hoger niveau te tillen..? 8)7

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het punt is dat veel TWITBP-titels gewoon marketing en geen marktwerking zijn. DX10.1 alleen zal niet per definitie betere games leveren, maar het dwarsbomen van DX10.1 dmv TWIMTBP maakt wel dat het allemaal beter had kunnen zijn dan het nu is, als het dwarsbomen werd ingewisseld voor omarming. Of wil je beweren dat de cijfers van de bestaande DX10.1 titels allemaal fakes zijn?

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Illidan schreef op zaterdag 03 oktober 2009 @ 12:02:
Games worden ook beter met TWIMTBP, dat is het bestaansrecht van dit programma. Als dat niet zo was, dan was het nu wel weer opgedoekt, dat is de marktwerking.
Niet als ze de game-ontwikkelaar ermee sponsorren :) Feyenoord gaat ook niet beter spelen doordat ze een sponsor op hun shirt hebben staan. Niet helemaal vergelijkbaar, maar als het puur om het logo gaat wel (en er geen extra optimalisaties achter zitten, waarvan we niet weten of dit zo is). Zo werkt de reclamewereld, dat is ook marktwerking.

[ Voor 9% gewijzigd door bwerg op 03-10-2009 12:16 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Het doet er toch allemaal niet toe? Als jij Batman speelt en voornamelijk dat game dan koop je gewoon een nVidia kaart. Eenvoudig toch?

Als als jouw favoriete games TWIMTBP titels zijn koop je een nVidia kaart. Ik zie daar het probleem niet van in?

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Volgens mij heb ik niets gezegd over 10.1 cijfers, alleen maar dat TWIMTBP haar bestaansrecht zelf verdiend en waarmaakt. Batman met PhsyX van het kleine relatief onbekende Rocksteady Studios is een mooi voorbeeld.


First of all let's say that the latest Batman title is a 'The way its meant to be played' game and that Nvidia did get some cool looking PhysX in this game. This is the first important title that got PhysX right in the game and made the experience much better than without it.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
En die quote van Fudzilla is dus het marketing-gedeelte van TWIMTBP. De PhysX geeft een extra element aan het spel, dat is zeker. Het zal een persoonlijke mening zijn of het ook daadwerkelijk een betere ervaring is voor de speler. Punt blijft echter dat nVidia de PhysX via de GPU laat draaien, terwijl ondertussen is gebleken dat het ook prima over een moderne CPU kan draaien, zonder echt met prestatieverlies te zitten.

Want als een groep modders het voor elkaar kunnen krijgen, dan kan het slechts betekenen dat of de ontwikkelaars van de studio inclusief de ontwikkelaars van nVidia samen erg belabberde ontwikkelaars zijn, of dat ze er bewust voor hebben gekozen om, ondankst dat het prima over de CPU kan draaien, het over de GPU te laten draaien.

Op zo'n moment denk je niet aan de PC-gaming markt, maar aan de afzet van je eigen product.

(daarbij zal ik niet zeggen dat nVidia dit niet mag doen, maar het zet het Fud-artikel dat nVidia de reddende engel is van PC-gaming wel in een wat vreemd daglicht)

[ Voor 9% gewijzigd door dahakon op 03-10-2009 12:39 ]


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Ik heb meer vertrouwen in de dev´s van Rocksteady Studios dan in modders. Dus dat voordeel van de twijfel gun ik ze meteen. PhysX behoort juist over de gpu te gaan, de hele visie van nV is juist dat de gpu meer en meer moet kunnen en taken vd cpu moet overnemen, en dat wordt hun nu kwalijk genomen? Beetje omgekeerde wereld. Ik weet niet of nV de reddende engel is van PC gaming, dat is een veel te abstracte stelling, maar het feit dat er niet zonder meer een kloon Console naar PC plaatsvind maar dat men de PC game ook daadwerkelijk beter maakt met PhysX kun je moeilijk afkraken. Of nou ja, dat afkraken gebeurd natuurlijk wel maar helaas zonder legitieme en overtuigende argumenten.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802

Pagina: 1 ... 5 ... 7 Laatste

Dit topic is gesloten.