[Algemeen] nVidia Nieuws & Discussie Topic - Deel 38 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 7 Laatste
Acties:
  • 34.996 views

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Xenomorphh schreef op zaterdag 03 oktober 2009 @ 09:29:
[...]
Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub :)
offtopic:
Ik heb waarschijnlijk meer nVidia kaarten gehad dan jou dus de pro-ati comment hoef je niet in je reply te zetten ;)...


Laten we eens een beetje terug in de tijd gaan:

november 2006
-8800GTX De topper van de afgelopen jaren (grote performance winst t.o.v. de andere kaarten van die tijd, DX 10 etc)
Sneller & maar ontzettend duur (650 euro, daar koop je nu de beste tri-SLI of een heftige X-fire (tri-fire, maybe even quad-fire)) voor.
-8800GTS
Snel, minder duur, maar voor het performance model nog altijd een absurd bedrag (450 euro, dat is nu extreem high-end)

mei 2007
-8800 Ultra
Sneller, maar nóg duurder

Toen gebeurde er iets wat voor de consument heel erg interessant was...
oktober 2007
-8800GT, de eerste G92 kaart (welke eigenlijk bedoeld was voor de 9-series en waarvan de verwachtingen erg hoog waren:
nieuws: 'Specificaties GeForce 8800-opvolger bekend' De GeForce 9800 moet volgens de forumpost ruim dubbel zoveel rekenkracht als de GeForce 8800 Ultra gaan leveren. Daarmee zou de videochipfabrikant wel eens heel dicht bij een rekencapaciteit van één teraflop kunnen komen, een grens die het bedrijf al langer claimt 'binnenkort' te zullen overschrijden. De nieuwe videocore mag naar verluidt in november verwacht worden en moet in een GTX-versie tussen 549 dollar en 649 dollar gaan opbrengen; de GTS-variant zal naar verluidt tussen de 399 en 449 dollar gaan kosten. De G92 zal op 65nm gebakken worden en opgebouwd zijn met meer dan een miljard transistoren.)
Deze was erg snel voor het bedrag dat je ervoor betaalde, sneller dan de rest van de line-up als je ze in SLI draaide & ook nog eens goedkoper.
Het nadeel?
De G92 was dus helemaal niet 2x zo snel als een 8800 Ultra.... De vraag is dan ook, zijn alle berichten in die tijd nep geweest, of zullen ze misschien de GTX 260, 280 etc al lang klaar hebben gehad, maar hebben zitten wachten om eerst nog extra moneys te leechen met de G80 (en G92...)

Toen kwam er in November de 8800GTS 512MB. Deze was eigenlijk een 8800GT met een hogere kloksnelheid (en betere koeling). Hier begon het spelletje van TheWayIt'sMeantToBeRenamed.

We schuiven weer door naar 2008, maart om precies te zijn.... (eigenlijk April, maar met behulp van Nederlandse webshops kon je ze al kopen vóór de reviews & launch date, waaronder ik zelf dan ook... SPIJTIG!)....
De 9800GTX.
Wauw, de 8800GTX was nog altijd een koning en nu kwam er de 9800GTX... gebaseerd op de G92 waarvan de geruchten een dubbele 8800GTX voorspelde, die moest toch wel geweldig zijn... *O*

Nou... niet dus... -O- Het was weer een overgeklokte 8800GT (net als de 8800GTS 512MB) en met een voltmod op mijn 8800GT presteerde die kaart zelfs precies gelijk aan de 9800GTX... Dit was dus de nieuwe serie en de performance crown ervan... een kaart die in bepaalde games 2 fps meer had dan een 8800GTX en anders 20 fps minder i.v.m. geheugen (zeker met AA/AF-filters was de 8800GTX vele malen beter).

Van de G92 welke zo goed zou presteren is dus nooit iets van gezien (hier begon ik me dan ook echt af te vragen of nVidia de "echte" G92 niet gewoon had achtergehouden voor wanneer ATi iets liet zien, wat gelukkig dan ook (eindelijk) gebeurde met de RV770), daarvoor in de plaats kregen we 3 kaarten welke allemaal erg gelijk aan elkaar presteren en voor de overclockers tussen ons was er zelfs vaak geen verschil. Tevens ondersteunde zelfs de G92 nog altijd geen DX10.1.

Sinds die tijd zijn er een behoorlijk aantal kaarten uitgebracht waar je de 8800GT gewoon in kunt vinden en nabootsen:
8800GT -> 8800GTS 512MB, 8800GS, 9600GSO 9600GT, 9800GTX, 9800GTX+, GT130, GTS250

Tja... en dan wanneer je een beetje hoop begint te geven (op prijs verlagingen, gelukkig is nVidia niet de eerste met een DX11, want dan was het weer pay-time), laat je een fake-videokaart zien waarvan zelfs je CEO zegt dat ie echt is.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Paprika schreef op zaterdag 03 oktober 2009 @ 13:20:
[...]

offtopic:
Ik heb waarschijnlijk meer nVidia kaarten gehad dan jou dus de pro-ati comment hoef je niet in je reply te zetten ;)...


Laten we eens een beetje terug in de tijd gaan:

november 2006
-8800GTX De topper van de afgelopen jaren (grote performance winst t.o.v. de andere kaarten van die tijd, DX 10 etc)
Sneller & maar ontzettend duur (650 euro, daar koop je nu de beste tri-SLI of een heftige X-fire (tri-fire, maybe even quad-fire)) voor.
-8800GTS
Snel, minder duur, maar voor het performance model nog altijd een absurd bedrag (450 euro, dat is nu extreem high-end)

mei 2007
-8800 Ultra
Sneller, maar nóg duurder

Toen gebeurde er iets wat voor de consument heel erg interessant was...
oktober 2007
-8800GT, de eerste G92 kaart (welke eigenlijk bedoeld was voor de 9-series en waarvan de verwachtingen erg hoog waren:
nieuws: 'Specificaties GeForce 8800-opvolger bekend' De GeForce 9800 moet volgens de forumpost ruim dubbel zoveel rekenkracht als de GeForce 8800 Ultra gaan leveren. Daarmee zou de videochipfabrikant wel eens heel dicht bij een rekencapaciteit van één teraflop kunnen komen, een grens die het bedrijf al langer claimt 'binnenkort' te zullen overschrijden. De nieuwe videocore mag naar verluidt in november verwacht worden en moet in een GTX-versie tussen 549 dollar en 649 dollar gaan opbrengen; de GTS-variant zal naar verluidt tussen de 399 en 449 dollar gaan kosten. De G92 zal op 65nm gebakken worden en opgebouwd zijn met meer dan een miljard transistoren.)
Deze was erg snel voor het bedrag dat je ervoor betaalde, sneller dan de rest van de line-up als je ze in SLI draaide & ook nog eens goedkoper.
Het nadeel?
De G92 was dus helemaal niet 2x zo snel als een 8800 Ultra.... De vraag is dan ook, zijn alle berichten in die tijd nep geweest, of zullen ze misschien de GTX 260, 280 etc al lang klaar hebben gehad, maar hebben zitten wachten om eerst nog extra moneys te leechen met de G80 (en G92...)

Toen kwam er in November de 8800GTS 512MB. Deze was eigenlijk een 8800GT met een hogere kloksnelheid (en betere koeling). Hier begon het spelletje van TheWayIt'sMeantToBeRenamed.

We schuiven weer door naar 2008, maart om precies te zijn.... (eigenlijk April, maar met behulp van Nederlandse webshops kon je ze al kopen vóór de reviews & launch date, waaronder ik zelf dan ook... SPIJTIG!)....
De 9800GTX.
Wauw, de 8800GTX was nog altijd een koning en nu kwam er de 9800GTX... gebaseerd op de G92 waarvan de geruchten een dubbele 8800GTX voorspelde, die moest toch wel geweldig zijn... *O*

Nou... niet dus... -O- Het was weer een overgeklokte 8800GT (net als de 8800GTS 512MB) en met een voltmod op mijn 8800GT presteerde die kaart zelfs precies gelijk aan de 9800GTX... Dit was dus de nieuwe serie en de performance crown ervan... een kaart die in bepaalde games 2 fps meer had dan een 8800GTX en anders 20 fps minder i.v.m. geheugen (zeker met AA/AF-filters was de 8800GTX vele malen beter).

Van de G92 welke zo goed zou presteren is dus nooit iets van gezien (hier begon ik me dan ook echt af te vragen of nVidia de "echte" G92 niet gewoon had achtergehouden voor wanneer ATi iets liet zien, wat gelukkig dan ook (eindelijk) gebeurde met de RV770), daarvoor in de plaats kregen we 3 kaarten welke allemaal erg gelijk aan elkaar presteren en voor de overclockers tussen ons was er zelfs vaak geen verschil. Tevens ondersteunde zelfs de G92 nog altijd geen DX10.1.

Sinds die tijd zijn er een behoorlijk aantal kaarten uitgebracht waar je de 8800GT gewoon in kunt vinden en nabootsen:
8800GT -> 8800GTS 512MB, 8800GS, 9600GSO 9600GT, 9800GTX, 9800GTX+, GT130, GTS250

Tja... en dan wanneer je een beetje hoop begint te geven (op prijs verlagingen, gelukkig is nVidia niet de eerste met een DX11, want dan was het weer pay-time), laat je een fake-videokaart zien waarvan zelfs je CEO zegt dat ie echt is.
Mooi verhaal, en ik denk dat iedereen het er mee eens is, dat de G80s echt geniaal waren qua preformance. Maar ik vraag me af, waarom renamen ze alles? En GT200(b) is dat ook gebaseerd op G80/92?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Hij was eigenlijk veel langer, maar ik wilde geen post maken die langer is dan de topic start dus ik heb er maar veel uitgehaald... :+
Maar ik vraag me af, waarom renamen ze alles?
Omdat vooral de anti-tech consumenten gewoon voor die rename-marketing vallen....

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Paprika schreef op zaterdag 03 oktober 2009 @ 13:20:
Toen kwam er in November de 8800GTS 512MB. Deze was eigenlijk een 8800GT met een hogere kloksnelheid (en betere koeling). Hier begon het spelletje van TheWayIt'sMeantToBeRenamed.
[...]
Nou... niet dus... -O- Het was weer een overgeklokte 8800GT (net als de 8800GTS 512MB) en met een voltmod op mijn 8800GT presteerde die kaart zelfs precies gelijk aan de 9800GTX... Dit was dus de nieuwe serie en de performance crown ervan... een kaart die in bepaalde games 2 fps meer had dan een 8800GTX en anders 20 fps minder i.v.m. geheugen (zeker met AA/AF-filters was de 8800GTX vele malen beter).
[...]
Sinds die tijd zijn er een behoorlijk aantal kaarten uitgebracht waar je de 8800GT gewoon in kunt vinden en nabootsen:
8800GT -> 8800GTS 512MB, 8800GS, 9600GSO 9600GT, 9800GTX, 9800GTX+, GT130, GTS250
De 8800GT had maar 112 SP's enabled, de 8800GTS512, 9800GTX, 9800GTX+ en GTS250 allemaal 128 SP's (net als de 8800GTX en 8800GTX Ultra). Klein detail :P.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
M4gick schreef op zaterdag 03 oktober 2009 @ 13:26:
[...]


En GT200(b) is dat ook gebaseerd op G80/92?
Qua architectuur wel. Maar met vrijwel dubbele specificaties, dus daar was niks mee. (behalve de hoge introductieprijs, maar daar hebben we gelukkig concurrentie voor).

Renamen is voor de gek houden van de onwetende consument, maar persoonlijk heeft het me nooit veel geboeid. Gewoon een G92/G80 kaart kopen en die pas upgraden bij een echt nieuwe generatie (dat was dus HD48xx/GT200).

anathema


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
TGEN schreef op zaterdag 03 oktober 2009 @ 13:35:
De 8800GT had maar 112 SP's enabled, de 8800GTS512, 9800GTX, 9800GTX+ en GTS250 allemaal 128 SP's (net als de 8800GTX en 8800GTX Ultra). Klein detail :P.
Klopt, echter had de "originele" 8800GT al 128 shaderprocessors kunnen hebben, er waren er namelijk altijd 16 uitgeschakeld, verbetering van de yields?

Tevens hebben die kaarten wel regelmatig kleine aanpassingen/technische features erbij zitten, maar om de 8800GT een 9800 kaart te noemen mocht ie op z'n minst toch wel DX10.1 hebben gehad (laat staan de performance winst die er niet was).

[ Voor 22% gewijzigd door Paprika op 03-10-2009 13:45 ]


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
Dat lag toch meer aan het gebrek aan concurrentie van ati. Waarom zou nvidia toen der tijd de gt200 uitbrengen terwijl ati er nog niks tegen over had staan. De g92 is veel goedkoper te producren dan de de gt200 door het grote verschil in die size. Dus nvidia kon zo gewoon meer verdienen, ja het blijft natuurlijk een commercieel bedrijf. Ze hadden natuurlijk ook voor meer marktaandeel kunnen kiezen door wel snel met iets nieuws te komen, maar waarschijnlijk is het marktaandeel nvidia toch al redelijk groot.

Verder dat gezeur over dx10.1, de developpers gaan echt geen games uitgeven die bugs of veel minder presteren op nvidia hardware (of ati). Ze willen wel van twee walletjes blijven eten en niet zich in de vingers snijden door hun doelgroep te verkleinen. De physics van nvidia zijn op dit moment een soort extratje en niet een core onderdeel van de games, daardoor heeft dit niet direct invloed op de ati hardware en dus de devs doelgroep.

Voor de ontwikkeling van goede games zou het wel mooi zijn als een developper gewoon durfde te kiezen voor dx11, physics etc en niet altijd maar rekening houden met wat de gemiddelde consument kan draaien, maar dit gaat nooit gebeuren. Dx11, physics etc worden pas echt gemeengoed wanneer het merendeel van de markt daar de hardware voor heeft. Dus dat duurt nog een paar generaties hardware.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Paprika schreef op zaterdag 03 oktober 2009 @ 13:20:
[...]

offtopic:
Ik heb waarschijnlijk meer nVidia kaarten gehad dan jou dus de pro-ati comment hoef je niet in je reply te zetten ;)...
ik heb t toch niet over jou of wel dan dus voel je ook niet aangesproken.. En wat t aantal nvidia kaarten er mee te maken heeft is mij een raadsel. En ja nu kan ik ook lkkr flamen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Illidan schreef op zaterdag 03 oktober 2009 @ 11:01:
Hoe het op andere hardware draait is nV's zaak niet.
Blijkbaar wel, want ze boycotten het bewust (1 cpu core voor PhysX, terwijl het evengoed op meerdere cores kan en zo speelbaar wordt voor de concurrent), en dat is 1) niet goed voor de markt en 2) niet goed voor de bezitters van gpu's van de concurrentie, en is dus enkel goed voor nVidia zelf, en zelfs dat valt te betwisten, omdat ze zo de markt indrukken en mogelijks hun eigen voordeel onderuithalen, zij het dat zoiets minder transparant is dan het voordeel dat ze uit het boycotten van de concurrentie halen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Rutger Mulder schreef op zaterdag 03 oktober 2009 @ 14:45:
Verder dat gezeur over dx10.1, de developpers gaan echt geen games uitgeven die bugs of veel minder presteren op nvidia hardware (of ati). Ze willen wel van twee walletjes blijven eten en niet zich in de vingers snijden door hun doelgroep te verkleinen. De physics van nvidia zijn op dit moment een soort extratje en niet een core onderdeel van de games, daardoor heeft dit niet direct invloed op de ati hardware en dus de devs doelgroep.

Voor de ontwikkeling van goede games zou het wel mooi zijn als een developper gewoon durfde te kiezen voor dx11, physics etc en niet altijd maar rekening houden met wat de gemiddelde consument kan draaien, maar dit gaat nooit gebeuren. Dx11, physics etc worden pas echt gemeengoed wanneer het merendeel van de markt daar de hardware voor heeft. Dus dat duurt nog een paar generaties hardware.
Met DX10.1 verkleinen ze de doelgroep niet, ze maken dan gebruik van geoptimaliseerde DirecX mogelijkheden, terwijl andere kaarten rustig in DX10 kunnen blijven draaien. Waarom zou je niet willen dat je spel lekkerder wegspeelt op hardware als dat eignelijk niet echt extra moeite kost?
Juist PhysX over de GPU verklein je je doelgroep mee. In het ergste geval had je kunnen zeggen dat DX10.1 een extratje is voor AMD-hardware, aangezien het ook geen core onderdeel van de game is (ze moeten namelijk nog altijd ook DX10 ondersteunen) en heeft dus geen directe invloed op nVidia hardware. Het is dus niet zo dat een nVidia-kaart minder gaat functioneren omdat een game DX10.1 ondersteunt, het kan gewoon beter draaien dan DX10 doet op hardware die wel DX10.1 ondersteunt.

DX11 wordt vanzelf meer en meer gebruikt (al was het alleen al omdat het een logische doorontwikkeling is van DX10). Physics kan ook snel gemeengoed worden, als ontwikkelaars OpenCL-geoptimaliseerde physics gaan toepassen. Daarmee kan het namelijk overal op draaien, ipv de hardware van 1 fabrikant.

Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
Ja maar zoals geclaimed gaf dx10.1 in de game bugs voor de dx10 hardware dus werd 10.1 er uit gehaald. Dan moet je niet nvidia de schuld geven, maar de developper of ati omdat die niet genoeg ondersteuning bood. De devs zullen het waarschijnlijk niet z'n prioriteit hebben gegeven omdat het merendeel van de consumenten toch niet dx10.1 hardware hebben.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Rutger Mulder schreef op zaterdag 03 oktober 2009 @ 15:42:
Ja maar zoals geclaimed gaf dx10.1 in de game bugs voor de dx10 hardware dus werd 10.1 er uit gehaald. Dan moet je niet nvidia de schuld geven, maar de developper of ati omdat die niet genoeg ondersteuning bood. De devs zullen het waarschijnlijk niet z'n prioriteit hebben gegeven omdat het merendeel van de consumenten toch niet dx10.1 hardware hebben.
Volgens mij was de claim bij Assassin's Creed dat het DX10.1 path bugs veroorzaakte op DX10.1 hardware, niet op DX10 hardware, aangezien die namelijk gewoon het DX10 path wat ook aanwezig was gebruiken. De heisa was dus ook over het actief weghalen van dat path, omdat de gebruikers ervan geen werkelijke problemen ondervonden.

edit: Nog even teruggezocht en inderdaad, omdat er 'glitches' zouden zijn in de DX10.1 versie met DX10.1 kaarten. Glitches waar niemand echt een 'loss of gaming-experience' van ondervond (en anders konden ze toch gewoon het DX10 patch gebruiken?)

http://techreport.com/discussions.x/14707

Natuurlijk zullen de ontwikkelaars van Assassin's Creed en de mensen van nVidia nooit toegeven dat er een andere reden was voor het weghalen van DX10.1

[ Voor 21% gewijzigd door dahakon op 03-10-2009 16:28 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Rutger Mulder schreef op zaterdag 03 oktober 2009 @ 15:42:
Ja maar zoals geclaimed gaf dx10.1 in de game bugs voor de dx10 hardware dus werd 10.1 er uit gehaald. Dan moet je niet nvidia de schuld geven, maar de developper of ati omdat die niet genoeg ondersteuning bood. De devs zullen het waarschijnlijk niet z'n prioriteit hebben gegeven omdat het merendeel van de consumenten toch niet dx10.1 hardware hebben.
Dan zie je het toch verkeerd. Er zijn genoeg tech-sites geweest die destijds hierover een artikel hebben gewijd.
Bij de introductie van Vista SP1, werd de DX10.1 ge-enabled. Assassins Creed had van meet af aan ook een DX10.1 path in de game zitten. Deze werd toen automatisch geactiveerd bij installeren van Vista SP1.
DX10.1 gaf toen 20% meer performance dan DX10, ingeval van inschakeling van AA in de game AC.

Dat was natuurlijk een doorn in het oog van het verwende kleine kindje, nVidia. Een TWIMBP game die vet gesponsord was door nVidia, maar die aantoonbaar harder liep op ATi hardware is.

En ra,ra opeens komt er een patch die zogenaamde glitches die door DX10.1 zouden zijn veroorzaakt, eruit sloopt. Diverse tech-sites hebben die zogenaamde glitches proberen te vinden.
Conclusie: er waren geen glitches in AC die zouden zijn veroorzaakt door DX10.1.

10 maal raden wie achter die patch zat? ;(

[ Voor 11% gewijzigd door Indy91 op 03-10-2009 16:41 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Indy91 schreef op zaterdag 03 oktober 2009 @ 16:32:
[...]
10 maal raden wie achter die patch zat? ;(
En het gare is dus ... ik krijg nu mensen wel eens in de winkel die iets meer op de hoogte zijn - maar in een klok/klepel situatie zijn beland. Die zeggen dan dat nVidia spellen moest patchen omdat ATi zijn drivers slecht waren (ja, zo ver uit zijn verband). Of die willen de nieuwste GTS250, want hun 8800GT doet het niet meer zo snel.

Ofwel: het werkt en het werkt keer op keer. Met de G80 was ik groot fan en heb tot nu toe nog een 8800, maar ik zei het een jaar geleden al. Ik ga eens bij rood kijken.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Verwijderd

Ik krijg de indruk dat er nu twee dingen door elkaar gaan lopen.

Dat nvidia met TWIMTBP gamedevelopers stimuleert om hun game lekker op nvidia hardware te laten draaien is prima, de klanten van nvidia hebben er baat bij zonder dat de klanten van ati er last van hebben. Met of zonder TWIMTBP zou de game er op hun ati kaart immers niet mooier of lelijker uitzien. Enige jaloezie over de graphics op nvidia hardware zie je soms natuurlijk wel. ;)

Waar het echter een probleem wordt is op het moment dat nvidia actief bezig is om games op hardware van ati slechter te laten draaien zonder dat daar een technische noodzaak voor is. Als we er even vanuit gaan dat het DX10.1 pad in Assasins Creed daadwerkelijk bugs had, dan is de enige reden om dat niet te patchen maar dat er compleet uit te slopen om er voor te zorgen dat de ati kaarten geen voordeel hebben ten opzichte van nvidia kaarten: oftewel het actief verlagen van de kwaliteit voor mensen met ati hardware. Recent kwam daar ook weer de wijziging in de driver bij, waarbij physx op een tweede kaart wordt uitgeschakeld als er een ati kaart in het systeem aanwezig is. Opnieuw worden mensen met ati hardware benadeeld zonder technische noodzaak, immers: voorheen werkte het prima, en zo niet dan zou dat gepatched moeten worden en niet verwijderd.

Kortom, mensen met ati hardware worden regelmatig doelbewust genaaid door nvidia, dat ze daar niet blij van worden vind ik niet gek.



Daarnaast is het zo dat je als gamedeveloper je game aan zo veel mogelijk mensen wilt verkopen, je hebt er geen enkel belang bij een deel van je klanten in de kou te laten staan. Je zult je game er dus altijd zo goed mogelijk uit willen laten zien op alle hardware, voor zo ver technisch mogelijk. Dat is de reden dat een schaalbare engine zo handig is, je game ziet er dan niet alleen goed uit op een high-end kaart, maar ook op de mainstream en low-end kaarten waar er veel meer van verkocht worden. De enige reden om hier vanaf te wijken is als je er flink voor betaald wordt, en dan hebben we het niet over een paar grijpstuivers, dan gaat het over miljoenen euro's. Als wat nvidia engineers je gratis komen helpen om je hardware voor hun platform te optimaliseren is dat prima, daar profiteren je klanten immers van. Maar wil je moedwillig je game kortwieken op ati hardware dan moet daar een flinke zak geld tegenover staan. Persoonlijk zou ik er niet snel voor kiezen, maar niet iedereen heeft daar even veel moeite mee als ik. ;)

Daarnaast blijft het natuurlijk zo dat we hier praten over een wereld vol standaarden en api's, het is niet zo dat een gameontwikkelaar de hulp van een gpu ontwerper nodig heeft om z'n games goed te laten draaien op de hardware van die fabrikant. Claimen dat het normaal is dat batman een standaard feature als AA niet op ati hardware ondersteunt omdat ati dat niet voor ze getest heeft is volkomen belachelijk. Eerder in het topic werd al geciteerd hoe simpel AA aan te zetten is in directx, dat is gestandaardiseerd en met api's aan te roepen, daar heb je als gamedev de hulp van ati of nvidia niet voor nodig.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op zaterdag 03 oktober 2009 @ 19:13:
Kortom, mensen met ati hardware worden regelmatig doelbewust genaaid door nvidia, dat ze daar niet blij van worden vind ik niet gek.
En dat is dus het rare, want wat schiet nVidia ermee op. Die mensen die 'genaaid' worden door nVidia kopen natuurlijk veel minder snel nVidia hardware lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 19:17:
[...]

En dat is dus het rare, want wat schiet nVidia ermee op. Die mensen die 'genaaid' worden door nVidia kopen natuurlijk veel minder snel nVidia hardware lijkt mij.
Zolang je marketing-machine het allemaal mooi kan brengen en verwoorden en de tegenargumenten terzijde worden geschoven omdat nVidia iets heel mooi zegt, kun je natuurlijk een heel eind komen.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 19:17:
[...]

En dat is dus het rare, want wat schiet nVidia ermee op. Die mensen die 'genaaid' worden door nVidia kopen natuurlijk veel minder snel nVidia hardware lijkt mij.
Veel publiciteit want op elk The way its meant to be played staat een dik logo met nvidia erbij.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

En toen was de cirkel weer rond. Crime pays sometimes... ok, crime is misschien wat heftig maar netjes is het zéker niet.

Goed: ik ben subjectief, ik heb een ATi-kaart. Wat dan nog?

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
Ik vind dat Wezz6400 het mooit heeft gezegd.
Enig puntje: de engine die Batman gebruikt heeft standaard geen AA erin zitten. De developer heeft samen met NVidia het aan deze engine toegevoegd, dus het was in dit geval geen standaardoptie. ATI-gebruikers kunnen het gebruik van AA forceren in hun driver control panel, zoveel moeite is dat nu ook weer niet voor een niet officieel ondersteunde optie.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Het gaat inderdaad om de Unreal Engine 3 waarbij AA altijd al een lastig punt is geweest. Tuurlijk, forceren is een mogelijkheid (wat ik dus ook doe) maar de performancehit is met brute force-MSAA groter dan ingame. Zo'n workaround zorgt dus voor verlaagde speelbaarheid, afhankelijk van de kaart. Als je een HD5870 in Crossfire hebt, dan heb je uiteraard weinig te zeuren :+

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Mr.Chinchilla schreef op zaterdag 03 oktober 2009 @ 21:34:
Ik vind dat Wezz6400 het mooit heeft gezegd.
Enig puntje: de engine die Batman gebruikt heeft standaard geen AA erin zitten. De developer heeft samen met NVidia het aan deze engine toegevoegd, dus het was in dit geval geen standaardoptie. ATI-gebruikers kunnen het gebruik van AA forceren in hun driver control panel, zoveel moeite is dat nu ook weer niet voor een niet officieel ondersteunde optie.
Als nvidia dat dan hardop blijft zeggen, is het dan waar? nou?

Rainbow Six: Vegas 2 heeft *OOK* een AA optie en is DX9 en draait op UE3. Is *GEEN* twimtbp game. Als ik één van de programmeurs mag geloven is deze informatie ook op het UE3 developers forum gezet en in principe openbaar voor UE3 licentiehouders.
tevens:
UE3 ondersteund AA in DX10 render mode, was het zo moeilijk om een DX10 vinkje er bij te zetten?

Ik zie nog steeds niet in dat nvidia hangend aan gigantische witte vleugels en glijdend op een glijbaan van goud naar Rocksteady is afgedaald en hun gods wonderen der AA heeft getoond.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
UE3 ondersteunt inderdaad van huis uit prima AA wanneer er gebruik wordt gemaakt van het DX10 renderingpath. Een van de leuke dingen in DX10 was dat er betere support voor AA werd toegevoegd bij engines die gebruik maken van deferred shading. UE3 maakt gebruik van deferred shading om dynamic lighting en schaduwen te en Epic heeft dus native AA support ingebakken in het DX10 path. AA werkt niet standaard op het DX9 path omdat multisampling door deferred shading een diepere controle nodig heeft en dit niet kan geven in tegenstelling tot DX10.

Wil je wel AA toepassen op het DX9 path dan moet je dus samenwerken met de developer zodat je weet naar welke buffers er AA samples geschreven worden, zodat je in je drivers een profiel kan aanmaken die gebruikt wordt zodra de game geactiveerd wordt. Een titel die onder het TWIMTBP programma valt, daar heeft NV waarschijnlijk een groter voordeel bij... ik kan me voorstellen dat NV daardoor sneller AA aan de gang heeft dan AMD. In het ergste geval zal je bij AMD AA kunnen forceren met als gevolg een hele zooi aan artifacts omdat er niet met de juiste buffers gewerkt wordt.

Wiens schuld is het dan voornamelijk als er een engine gebruikt wordt waar AA kan worden toegepast, maar dit niet van huis uit geactiveerd wordt? Is het NV, AMD of de developer?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Retorische vraag +2.

HWI komt nú pas met de Fake Fermi-gate. Doen ze goed daar.
Verwijderd schreef op zaterdag 03 oktober 2009 @ 22:30:
Vrijdag stond er ook al een artikel op HWI over die dummy : http://www.hardware.info/...mi_videokaart_op_de_foto/ (gepost door Frank K.)
Edit: je hebt gelijk. Ik ging af op HWI@Twitter , daar staat het pas net op ;)

Afgezien daarvan... ik ben benieuwd hoeveel kwaad bloed nVidia nog moet doen voordat er echt oogkleppen afgaan en ze goodwill verliezen.

[ Voor 52% gewijzigd door Jejking op 03-10-2009 22:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Vrijdag stond er ook al een artikel op HWI over die dummy : http://www.hardware.info/...mi_videokaart_op_de_foto/ (gepost door Frank K.)

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Verwijderd schreef op zaterdag 03 oktober 2009 @ 19:13:


Kortom, mensen met ati hardware worden regelmatig doelbewust genaaid door nvidia, dat ze daar niet blij van worden vind ik niet gek.
Speculatie! Niks meer en niks minder. Roddelpraat. Als je het maar hard genoeg blijft roepen, en dat wordt het hier, wil nog niet zeggen dat het ook zo is. Het is heel erg simpel: als ATi zich benadeelt voelt moeten ze naar de rechter stappen. En zolang dat niet gebeurt en de rechter bewezen acht dat er juridische grenzen zijn overschreden zijn dit soort stellingen pure stemming makerij.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
En eraan toevoegend: ja het is kwalijk dat hier niet objectief over bediscussieerd kan worden.

[ Voor 80% gewijzigd door Illidan op 03-10-2009 22:44 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dat bepaald gedrag niet netjes is, betekent nog niet automatisch dat het strafbaar is. Zelfs als het strafbaar mocht zijn, is het vaak nog moeilijk om dit aan te tonen in een strafzaak en een strafzaak begin je niet zomaar, aangezien die kostbaar kunnen zijn en je wel met degelijke bewijzen moet kunnen komen.

Aangezien in een geval als Batman de verdediging heel gemakkelijk zou kunnen zijn door te stellen dat de ontwikkelaars niet al te behendig zijn met de UE3 engine en daardoor niet alles is zoals had gekunt, is een rechtzaak om zoiets lastig.

Ik raad je echte wel aan het stukje van CJ nog eens te lezen, om zo te kunnen begrijpen dat AA in DX10 niet zo'n probleem zou hebben hoeven zijn om ook op AMD-hardware te laten draaien, zonder dat AMD daarbij had moeten hoeven helpen.

En dat is een heel erg objectief gezichtspunt.

[ Voor 3% gewijzigd door dahakon op 03-10-2009 22:49 ]


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Het is niet relevant hoe moeilijk iets is toe te voegen: het is de keuze van de game dev om dat wel of niet te doen. Het is de keuze van de game def om toe te treden tot TWIMTBP. Het is verleidelijk (en lekker makkelijk) om op de stoel van de game dev te gaan zitten en vanaf te zijlijn te roepen welke keuzes hij/zij wel of niet moet maken; daar bedank ik voor.. Rocksteady heeft een uitstekende PhysX game op de markt gebracht, achteraf gezien hebben ze dus de juiste keuzes gemaakt. Ik denk dat het gezellige bedrijfsborrels waren na de release en na de vele positieve reviews.
Dat een rechtszaak lastig is geen reden om het gevecht niet aan te gaan als je zo zeker van je zaak bent. Maar wat pas echt verwerpelijk is, is dat die rechtszaak natuurlijk nooit komt omdat dit soort stellingen pure onzin zijn en nooit bewezen kunnen worden, maar intussen wel geroepen mogen worden. Heeft ATi op z'n minst een formele klacht ingediend? Of is zelfs daarvoor onvoldoende grond? Ik snap het wel: het is natuurlijk wel makkelijker en veiliger om informeel te miepen of het grote onrecht dat je aangedaan wordt. Die slachtoffer rol trekt natuurlijk extra veel sympathie bij een toch al vrij loyale aanhang. Loyaliteit is opzich niet erg, mensen mogen merk-voorkeuren op na houden, maar een totaal gebrek aan zelfs maar iets wat lijkt op objectiviteit maakt discussies zinloos.

[ Voor 6% gewijzigd door Illidan op 03-10-2009 23:23 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Objectief gezien maakt Batman gebruik van UE3. Objectief gezien kun je AA in UE3 gebruiken in DX10-modus. Objectief gezien is het niet toepasbaar op AMD-hardware in DX10-modus. Wat klopt er in dit verhaal objectief gezien niet?

Het is slechts een voorbeeld waar er meerdere zijn. Objectiviteit is moeilijk, zeker als je voorkeur uitgaat naar een bepaald merk (zonder direct een fanboy te zijn), maar dat geldt voor alle kanten in welk verhaal dan ook.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Dit ontbreekt in je verhaal: Objectief gezien HOEFT het niet toepasbaar te zijn op AMD hardware, of SIS, of Matrox.


En ten tweede, objectiviteit is beslist niet zo moeilijk... die onzinnige puberale drang om 1 merk op te hemelen en de ander af te keuren (en welke merken dat zijn is dus niet relevant) hoort hier niet thuis op een volwassen discussie forum. (en voor de duidelijkheid: dit is een algemene noot over mijn indruk op een groot aantal reacties hier).

[ Voor 12% gewijzigd door Illidan op 03-10-2009 23:52 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Illidan schreef op zaterdag 03 oktober 2009 @ 23:46:
Dit ontbreekt in je verhaal: Objectief gezien HOEFT het niet toepasbaar te zijn op AMD hardware, of SIS, of Matrox.


En ten tweede, objectiviteit is beslist niet zo moeilijk... die onzinnige puberale drang om 1 merk op te hemelen en de ander af te keuren (en welke merken dat zijn is dus niet relevant) hoort hier niet thuis op een volwassen discussie forum.
Okay, maar jouw stelling was dus dat TWMTBP de game verbeterd. AA is een verbetering, die gebruikt maakt van de DX10 Path en API(aka standaard ingebaken in DirectX 10 code) Niks mis mee.

Maar waarom kan dan iets wat STANDAARD al bij DirectX10 nou alleen bij Nivida werken, terwijl het bij ATI niet werkt...? Tenzij jij de game op het verkeerde been zet en dan kun je ineens wel AA draaien met ATi hardware? Of Nvidia heeft andere DX10 dan ATI, of er iets iets fout in de game waardoor ATI AA niet kan draaien....

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Omdat het toch niet zo standaard is in de praktijk, omdat het en bug is die niet eerder is gevonden omdat ATi niet kwam opdagen tijdens de test-sessies, omdat de ATi drivers het verknallen, misschien is het in een volgende patch wel gefixed als er al iets te fixen valt, omdat de game gretiger gebruik maakt van nV hardware die meer berekingen voor hun rekening nemen, wat dat levert de beste prestaties, ik roep nu maar wat (naar goed forum gebruik) ;) , omdat de simpele waarheid is dat die vraag niet hier gesteld moet worden, omdat het ook nooit hier beantwoord kan worden. (alhoewel, die vraag wordt natuurlijk maar al te graag beantwoord door de complot-theorie groep)

De interessantere vraag is: waarom wordt jou vraag niet formeel gesteld door ATi aan de gamestudio en uitgever? En wat heeft nV in hemelsnaam hiermee te maken, moesten zij ook ATi kaarten testen?

[ Voor 13% gewijzigd door Illidan op 04-10-2009 00:23 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Illidan schreef op zondag 04 oktober 2009 @ 00:14:
Omdat het toch niet zo standaard is in de praktijk, omdat het en bug is die niet eerder is gevonden omdat ATi niet kwam opdagen tijdens de test-sessies, omdat de ATi drivers het verknallen, misschien is het in een volgende patch wel gefixed als er al iets te fixen valt, ik roep nu maar wat (naar goed forum gebruik) ;) , omdat de simpele waarheid is dat die vraag niet hier gesteld moet worden, omdat het ook nooit hier beantwoord kan worden. (alhoewel, die vraag wordt natuurlijk maar al te graag beantwoord door de complot-theorie groep)

De interessantere vraag is: waarom wordt jou vraag niet formeel gesteld door ATi aan de gamestudio en uitgever? En wat heeft nV in hemelsnaam hiermee te maken, moesten zij ook ATi kaarten testen?
goh je klinkt belachelijk sinds wanneer is het de verantwoordelijkheid van de chipmaker om alle games uit te testen.

realiseer je wel hoe makkelijk het is om AA te enablen voor beide kaarten?

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Verwijderd schreef op zondag 04 oktober 2009 @ 00:24:
[...]

goh je klinkt belachelijk sinds wanneer is het de verantwoordelijkheid van de chipmaker om alle games uit te testen.

realiseer je wel hoe makkelijk het is om AA te enablen voor beide kaarten?
Ah oke, het is dus nV's verantwoordelijkheid om games te testen voor ATi? 8)7

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Illidan schreef op zondag 04 oktober 2009 @ 00:32:
[...]


Ah oke, het is dus nV's verantwoordelijkheid om, games te testen voor ATi? 8)7
je realiseert je toch dat de nv niet de game developer is?

trouwens ze moesten niet eens ATI testen. Sinds ze de AA functies van directx 10 gebruikt hebben moeten ze gwn deze pseudo code ff verwijderen.

if (ATI_kaart != Detected)
{
enable AA
}

Acties:
  • 0 Henk 'm!

  • prOnorama2
  • Registratie: April 2005
  • Laatst online: 13-09 23:35
Wat een stelletje losers daar bij nVidia met hun mockup kaart. 8)7

Zie je al voor je dat bijv. Intel dit zou doen met een CPU? Echt niet.

Ik heb een GTS250 (de tweede, de eerste ging na een maand kapot, moest terug naar de PC shop, not amused :( ) maar mooi dat hij eruit gaat als de ATI midrange 57xx kaarten op de markt komen. :w

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Maareh.. wat is de nieuwswaarde van al dit geroep?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
Het lijkt hier wel nvidia whine topic te worden. Net een stel hippies die alles beter weten en overal een complot achter zien. Nvidia is net als ati gewoon een bedrijf dat geld wil verdienen voor z'n aandeelhouders en die interesseren het niet of iets nou goed voor de ander is of niet. Maar dat betekent nog niet dat nvidia moedwillig ati aan het saboteren is. Als je problemen hebt met een game moet je de devs aanspreken want die zijn eindverantwoordelijk en niet nvidia. En zij zullen er echt wel over nadenken hoe iets gedaan moet worden. Want wie weet er nou beter hoe je een game moet maken, de devs of jullie hier.....

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Rutger Mulder schreef op zondag 04 oktober 2009 @ 01:36:
Het lijkt hier wel nvidia whine topic te worden. Net een stel hippies die alles beter weten en overal een complot achter zien. Nvidia is net als ati gewoon een bedrijf dat geld wil verdienen voor z'n aandeelhouders en die interesseren het niet of iets nou goed voor de ander is of niet. Maar dat betekent nog niet dat nvidia moedwillig ati aan het saboteren is. Als je problemen hebt met een game moet je de devs aanspreken want die zijn eindverantwoordelijk en niet nvidia. En zij zullen er echt wel over nadenken hoe iets gedaan moet worden. Want wie weet er nou beter hoe je een game moet maken, de devs of jullie hier.....
Ik ben wat interessants op het spoor. Will keep in touch zodra ik meer weet ;)

Als we in alle redelijkheid hierover proberen te discussiëren, zonder op de man te spelen etc, dan loopt het wel los.

Acties:
  • 0 Henk 'm!

Verwijderd

Jejking schreef op zondag 04 oktober 2009 @ 01:55:
[...]
Als we in alle redelijkheid hierover proberen te discussiëren, zonder op de man te spelen etc, dan loopt het wel los.
Mag ik iedereen hier nog aan herrineren?!?(inclusief mij :)). Anders gaan er idd gele kaarten vallen.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Niet alleen niet op de man spelen, maar liefst ook objectief naar de zaak kijken ;)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
neliz schreef op zondag 04 oktober 2009 @ 01:13:
Maareh.. wat is de nieuwswaarde van al dit geroep?
In basis is dit het gevolg/vervolg op een artikel van Fudzilla waarin gesteld wordt dat nVidia de reddende engel is geweest van PC-gaming.

In mijn optiek is het echter eerder dat PC-games eerder op console-games zijn gaan lijken, doordat ze teveel geoptimaliseerd zijn voor 1 hardwarefabrikant (waarbij in sommige gevallen op discutabele wijze).

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Het is eerder zo dat een multiplatform release te verleidelijk is voor publishers, immers heb je dan veel meer potentiële klanten. Dan heb je weinig keuze dan de graphics en gameplay wat terug te schroeven om de veelal zwakkere consoles tegemoet te komen.

Dat is al redelijk lang zo. Kijk maar naar de release van Oblivion op de pc en xbox. Daags na release was er al een community patch die de graphics op de pc flink opschroefde.

@Illidan: 5 posts lang op objectiviteit hameren is niet alleen redelijk ironisch maar ook nog onzin in dit geval, objectiviteit gaat tot een bepaald punt en daarna is het meer je kop in het zand steken.
Er is dan (natuurlijk) geen hard bewijs, maar als ik geld zou moeten wedden dan zou ik op 10 tegen 1 inzetten dat nVidia wel degelijk een verkeerd pad is ingeslagen de laatste jaren.
Wat hier allemaal genoemd wordt is niet zomaar uit de lucht gegrepen.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Illidan schreef op zondag 04 oktober 2009 @ 00:14:
Omdat het toch niet zo standaard is in de praktijk, omdat het en bug is die niet eerder is gevonden omdat ATi niet kwam opdagen tijdens de test-sessies, omdat de ATi drivers het verknallen, misschien is het in een volgende patch wel gefixed als er al iets te fixen valt, omdat de game gretiger gebruik maakt van nV hardware die meer berekingen voor hun rekening nemen, wat dat levert de beste prestaties, ik roep nu maar wat (naar goed forum gebruik) ;) , omdat de simpele waarheid is dat die vraag niet hier gesteld moet worden, omdat het ook nooit hier beantwoord kan worden. (alhoewel, die vraag wordt natuurlijk maar al te graag beantwoord door de complot-theorie groep)

De interessantere vraag is: waarom wordt jou vraag niet formeel gesteld door ATi aan de gamestudio en uitgever? En wat heeft nV in hemelsnaam hiermee te maken, moesten zij ook ATi kaarten testen?
Ooit gehoord van de DirectX API? De gamedevver maakt AA conform de DX-API regels, en gpu-bouwers maken drivers die omkunnen met die API-calls, en voilà, niemand heeft moeten testen en zien of het werkt. Dit is al jaren het geval, trouwens.

In jouw post negeer je blijkbaar de hele uniforme aanpak van DirectX.

Nu zal ik even vervallen in retoriek die je eigen is: Waarom (c) zou een gamedevver zichzelf in de voet schieten door GEEN gebruik te maken van de standaard DirectX API? Aha!

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Aha? Objectief gezien mogen ze hun eigen keuzes maken.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Verwijderd

Illidan schreef op zondag 04 oktober 2009 @ 10:43:
Aha? Objectief gezien mogen ze hun eigen keuzes maken.
En wat motiveerd die keuze? Geld van nvidia. Terwijl ze makkelijk dus FSAA voor ATI er bij hadden kunnen doen.

[ Voor 13% gewijzigd door Verwijderd op 04-10-2009 10:58 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Illidan schreef op zaterdag 03 oktober 2009 @ 22:41:
Het is kwalijk dat hier niet objectief over bediscussieerd kan worden.
Even ter informatie: Een discussie komt voort uit meningsverschil en kan dus eigenlijk niet objectief gebeuren ;)

De manier waarop je nieuws interpreteert is al genoeg voor subjectiviteit.

Even je vanuit eigen linkje naar wiki:
Een feit is objectief als het onafhankelijk is van de mening van mensen, als er geen interpretatie bij nodig is.
Discussie hoort toch ook met verschillende meningen te gebeuren, anders wordt het een saaie boel hier :)


Dan ontopic:
Illidan schreef op zondag 04 oktober 2009 @ 10:43:
Aha? Objectief gezien mogen ze hun eigen keuzes maken.
Ja, en ze mogen ook kaarten met self-destruct bouwen. Dat is hun eigen keuze en als ze het in de handleiding vermelden mag het wettelijk gezien ook. Dat betekent niet dat het netjes is. Moedwillig hardware van anderen tegenwerken is dat ook. Het mag, maar mensen vinden het niet leuk. Of dat het geval is: ik denk het wel, op basis van argumenten die hierboven al zijn aangegeven. Het verwijderen van code als het in het voordeel van Ati werkt, zonder dat er bugs oid. door worden veroorzaakt.

[ Voor 71% gewijzigd door bwerg op 04-10-2009 11:15 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 22:04

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

bwerg schreef op zondag 04 oktober 2009 @ 11:07:
[...]
Ja, en ze mogen ook kaarten met self-destruct bouwen. Dat is hun eigen keuze en als ze het in de handleiding vermelden mag het wettelijk gezien ook. Dat betekent niet dat het netjes is. Moedwillig hardware van anderen tegenwerken is dat ook. Het mag, maar mensen vinden het niet leuk. Of dat het geval is: ik denk het wel, op basis van argumenten die hierboven al zijn aangegeven. Het verwijderen van code als het in het voordeel van Ati werkt, zonder dat er bugs oid. door worden veroorzaakt.
Ik kon een grijns even niet onderdrukken toen ik dit stukje las. Dit heeft Nvidia dus reeds gedaan met de G84, G86 en G92 (mobile) serie. Een ingebouwde self-destruct, waardoor ze na een jaar tot anderhalf bij bosjes de geest geven. Dit zijn ze alleen wel vergeten te melden bij de specificaties. O en dit is gewoon objectief bekeken, want het is gewoon een feit. (een debakel welke eigenlijk al 3 jaar voortduurt, aangezien dezelfde GPU's nogaltijd worden verkocht zonder dat er aanpassingen zijn geweest in het productieproces)

[ Voor 5% gewijzigd door _Dune_ op 04-10-2009 13:15 ]

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
_Dune_ schreef op zondag 04 oktober 2009 @ 12:48:
[...]


Ik kon een grijns even niet onderdrukken toen ik dit stukje las. Dit heeft Nvidia dus reeds gedaan met de G84, G86 en G92 (mobile) serie. Een ingebouwde self-destruct, waardoor ze na een jaar tot anderhalf bij bosjes de geest geven. Dit zijn ze alleen wel vergeten te melden bi e specificaties. O en dit is gewoon objectief bekeken, want het is gewoon een feit. (een debakel welke eigenlijk al 3 jaar voortduurt)
Helaas stond dat niet in de beschrijving van het product :+

Ik moest eerst je hele reactie lezen :X

[ Voor 4% gewijzigd door EdwardvGelder op 04-10-2009 12:51 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 23:13
_Dune_ schreef op zondag 04 oktober 2009 @ 12:48:
[...]


Ik kon een grijns even niet onderdrukken toen ik dit stukje las. Dit heeft Nvidia dus reeds gedaan met de G84, G86 en G92 (mobile) serie. Een ingebouwde self-destruct, waardoor ze na een jaar tot anderhalf bij bosjes de geest geven. Dit zijn ze alleen wel vergeten te melden bi e specificaties. O en dit is gewoon objectief bekeken, want het is gewoon een feit. (een debakel welke eigenlijk al 3 jaar voortduurt)
Je vergeet 7900GT :P

Acties:
  • 0 Henk 'm!

Verwijderd

Die doen het gewoon nog teminste wel in de pc hier naast. Ik geloof dat hij al wel ouder is dan 3 jaar.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Illidan schreef op zaterdag 03 oktober 2009 @ 13:17:
PhysX behoort juist over de gpu te gaan
Euh, àls het over CPU kan, waarom gebeurt het dan niet? Omdat het, volgens NV, "behoort" over een nVidia gpu te gaan?

Een gamedevver zou eigenlijk zoveel mogelijk moeten doen om zijn game zo speelbaar mogelijk te maken op elk platform, zonder concessies te doen. En dat kan, aangezien PhysX werkt op een deftige multicore cpu, maar de gamedevver fnuikt die mogelijkheid bewust. Waarom? Er zijn toch enkel maar voordelen en geen nadelen aan verbonden door het enablen van PhysX op meerdere cpu-cores ... voor gamers met een non-NV gpu? Of mogen zulke gamers geen voordelen genieten? Tiens, bestond TWIMTBP niet enkel uit voordelen? Of geldt dat enkel voor nVidia-gpu bezitters?

[ Voor 4% gewijzigd door RuddyMysterious op 04-10-2009 12:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Een GPU heeft veel meer rekenkracht dan een CPU en kan theoretisch veel meer physics effecten uitvoeren. Dat is de gedachte van nVidia en heeft weinig met TWIMTBP te maken. Dat in de praktijk nog niemand zoveel physics in een game heeft willen stoppen wil niet zeggen dat het idee slecht is. De physics effecten die nVidia eind september had laten zien doe je onmogelijk op een CPU.

AMD moet het gewoon ook eens gaan doen, dan zijn we allemaal tevreden.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Verwijderd schreef op zondag 04 oktober 2009 @ 13:33:
Een GPU heeft veel meer rekenkracht dan een CPU en kan theoretisch veel meer physics effecten uitvoeren. Dat is de gedachte van nVidia en heeft weinig met TWIMTBP te maken. Dat in de praktijk nog niemand zoveel physics in een game heeft willen stoppen wil niet zeggen dat het idee slecht is. De physics effecten die nVidia eind september had laten zien doe je onmogelijk op een CPU.

AMD moet het gewoon ook eens gaan doen, dan zijn we allemaal tevreden.
*Kuch* Havoc? *Kuch*

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Verwijderd schreef op zondag 04 oktober 2009 @ 13:33:
Een GPU heeft veel meer rekenkracht dan een CPU en kan theoretisch veel meer physics effecten uitvoeren. Dat is de gedachte van nVidia en heeft weinig met TWIMTBP te maken. Dat in de praktijk nog niemand zoveel physics in een game heeft willen stoppen wil niet zeggen dat het idee slecht is. De physics effecten die nVidia eind september had laten zien doe je onmogelijk op een CPU.

AMD moet het gewoon ook eens gaan doen, dan zijn we allemaal tevreden.
Zijn ze niet laatst gestart met het Open Physics project?

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op zondag 04 oktober 2009 @ 13:33:
Een GPU heeft veel meer rekenkracht dan een CPU en kan theoretisch veel meer physics effecten uitvoeren. Dat is de gedachte van nVidia en heeft weinig met TWIMTBP te maken. Dat in de praktijk nog niemand zoveel physics in een game heeft willen stoppen wil niet zeggen dat het idee slecht is. De physics effecten die nVidia eind september had laten zien doe je onmogelijk op een CPU.

AMD moet het gewoon ook eens gaan doen, dan zijn we allemaal tevreden.
Het gaat hier over de PhysX van de Batman game, en die draaien - of zo wijzen tests door de community toch uit - weldegelijk deftig op een multicore cpu. Het feit dat PhysX via cpu moedwillig wordt gefnuikt (beperken tot 1 core) terwijl het toch zou kunnen (op meerdere cores) bewijst dat NV wil genieten van een exclusiviteitsdeal, wat aggro uitlokt bij de gamers, die bij niet bezitten van een nVidia gpu onnodig benadeeld worden, enkel omdat NV zijn zin wou doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Havok is met een k ;) En wat hebben we daarvan al gezien (in de praktijk) ?

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Verwijderd schreef op zondag 04 oktober 2009 @ 13:48:
[...]


Havok is met een k ;) En wat hebben we daarvan al gezien (in de praktijk) ?
Niet veel, dat klopt, maar het is niet zo dat AMD helemaal niks doet op dit gebied....

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Verwijderd

DevilsProphet schreef op zondag 04 oktober 2009 @ 13:47:
[...]

Het gaat hier over de PhysX van de Batman game, en die draaien - of zo wijzen tests door de community toch uit - weldegelijk deftig op een multicore cpu. Het feit dat PhysX via cpu moedwillig wordt gefnuikt (beperken tot 1 core) terwijl het toch zou kunnen (op meerdere cores) bewijst dat NV wil genieten van een exclusiviteitsdeal, wat aggro uitlokt bij de gamers, die bij niet bezitten van een nVidia gpu onnodig benadeeld worden, enkel omdat NV zijn zin wou doen.
Batman bevat ook amper physics effecten, uiteraard kunnen deze vloeiend over de CPU. Maar dat is niet wat nVidia wil, hun willen tonnen physics effecten in games en dat gaat een CPU echt niet trekken. En dat is nu het hele punt: dan moet het wel over de GPU. De stap naar tonnen physics effecten is echter een moeizaam pad en zal stap voor stap gebeuren. Als je het als developer echter wil aanleren van nVidia moet je het van in het begin al over de GPU doen, ook al zijn het maar een handvol physics effecten.

Acties:
  • 0 Henk 'm!

Verwijderd

Darkasantion schreef op zondag 04 oktober 2009 @ 13:55:
[...]

Niet veel, dat klopt, maar het is niet zo dat AMD helemaal niks doet op dit gebied....
Ik mag hopen dat ze niet niks doen. Het punt is dat ik AMD al jaren over Havok bezig hoor maar dat eigenlijk nog niet echt van de grond gekomen is. En dat is jammer.

Acties:
  • 0 Henk 'm!

  • Mathieu_Hinder
  • Registratie: November 2008
  • Laatst online: 03-03 12:59
De Physics op de Xbox 360 werken geregeld op Havok, het is enkel een zaak om deze ook op het PC-platform te krijgen, maar een universele standaard (Dx11) is volgens de meesten denk ik wel de beste oplossing om Physics tevoorschijn te toveren ...

Acties:
  • 0 Henk 'm!

  • cpt.skydiver
  • Registratie: Mei 2009
  • Laatst online: 21:05
PC games werken ook geregeld op havok hoor. Maar dan over de CPU.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 04 oktober 2009 @ 13:48:
[...]


Havok is met een k ;) En wat hebben we daarvan al gezien (in de praktijk) ?
Er zijn games aanstaande met Havok, zoals Star Craft II en (helaas nog een jaartje langer (of meer) wachten) Diablo III. Geen kleine titels.
cpt.skydiver schreef op zondag 04 oktober 2009 @ 14:20:
PC games werken ook geregeld op havok hoor. Maar dan over de CPU.
De meeste PhysX titels werken ook puur over de CPU. Havok is ondertussen in een nieuwe ontwikkelingsfase waarmee dingen via OpenCL kunnen worden gedaan, waardoor de balans van CPU en GPU physics kan worden berijkt. Dit mede op initiatief van AMD. De vraag zal straks dan ook zijn of er een wezenlijk verschil is tussen de verschillende merk videokaarten wanneer het op Havok-physics aan komt.

[ Voor 46% gewijzigd door dahakon op 04-10-2009 14:29 ]


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 16-08 17:58

SECURITEH

Man of legend.

M4gick schreef op zondag 04 oktober 2009 @ 13:42:
[...]


Zijn ze niet laatst gestart met het Open Physics project?
Ja zeker.

Acties:
  • 0 Henk 'm!

Verwijderd

Darkasantion schreef op zaterdag 03 oktober 2009 @ 23:52:
[...]

Okay, maar jouw stelling was dus dat TWMTBP de game verbeterd. AA is een verbetering, die gebruikt maakt van de DX10 Path en API(aka standaard ingebaken in DirectX 10 code) Niks mis mee.

Maar waarom kan dan iets wat STANDAARD al bij DirectX10 nou alleen bij Nivida werken, terwijl het bij ATI niet werkt...? Tenzij jij de game op het verkeerde been zet en dan kun je ineens wel AA draaien met ATi hardware? Of Nvidia heeft andere DX10 dan ATI, of er iets iets fout in de game waardoor ATI AA niet kan draaien....
Het verwijderen van AA of DirectX 10.1 wordt op vraag van een andere marketing afdeling bij nVidia gedaan en heeft weinig met TWMTBP te maken. Het is dus niet zo dat een nVidia developer stukjes code uit games gaat slopen of aanpassen.

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Verwijderd schreef op zondag 04 oktober 2009 @ 14:38:
[...]


Het verwijderen van AA of DirectX 10.1 wordt op vraag van een andere marketing afdeling bij nVidia gedaan en heeft weinig met TWMTBP te maken. Het is dus niet zo dat een nVidia developer stukjes code uit games gaat slopen of aanpassen.
Maar het is ook niet zo dat nVidia het zo maar aan elke developer vraagt en het is zeker niet zo dat zo maar elke developer erop ingaat. Als je dan, zij het via andere kanalen, een zak geld hebt toegeschoven gekregen van het groene team, dan zal je minder geneigd zijn om een middelvinger op te steken bij een vraag van nVidia om je software even opzettelijk minder efficient te maken of om logische verbeteringen afwezig te laten.

En zelfs al had Nvidia het nobele doel voor ogen om physics sneller naar de markt te brengen met Batman:AA, waarom dan Physx gesloten houden en niet open maken? Waarom dan Physx nota bene uitschakelen als er Ati in je systeem zit. Dat zijn gewoon dingen die je doet als je de markt volledig voor jezelf wil hebben, zelfs ten koste van diezelfde markt.

Het is niet illegaal, het is gewoon business, maar je kweekt er niet bepaald goodwill mee bij de community.

[ Voor 4% gewijzigd door SneakyNL op 04-10-2009 15:13 ]


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
SneakyNL schreef op zondag 04 oktober 2009 @ 15:11:
[...]

Het is niet illegaal, het is gewoon business, maar je kweekt er niet bepaald goodwill mee bij de community.
Valt reuze mee, die goodwill bij de community, hangt alleen van af welke community je bedoelt.
Ik verdedig het recht van een bedrijf om eigen keuzes te maken over het uitbrengen van een product. Ieder bedrijf, niet alleen nV. Ik heb zo het gevoel dat mensen hier veel te veel op de bestuurdersstoel willen zitten en beslissingen voor bedrijven wil afdwingen.

Hypothetisch.... (en misschien wel helemaal niet hypothetisch) (en heeft verder niets met Batman of nV te maken, dit is een algemene stelling).

Voor Gof of War heb je een PlaySatation nodig, mee eens?
Uitgever/Dev/Sony bepaalt het platform, wat de rest van de wereld daarvan denkt is voor hun niet relevant, want het is een legitieme keuze.

Waarom zou bij PC games geen onderscheid gemaakt mogen worden? Bepalen jullie of dat wel of niet mag?
Volgens mij mag een Studio beslissen of ze een nV, ATi of Matrox- only game op de markt mogen zetten. Of dat verstandig is, of je dat wel of niet leuk vind, dat is niet relevant. Dat polder-model-idee dat iedereen erbij betrokken moet worden is achterhaald, als een game zoveel beter kan zijn omdat als je het optimaliseert voor 1 soort gpu, welke dat is, is niet relevant, dan heb ik liever dat ipv dat uit commerciële overwegingen wordt besloten dat het maar "overal op moet draaien, want dan verdienen we meer" . Dit soort gedachten houd de vooruitgang tegen. Door meer je eigen weg op te gaan kun je ook meer out-of-the-box oplossingen implementeren. Daarom vind ik het niet interessant waarom een keuze wordt gemaakt. Enige wat telt is of die keuze gemaakt mag worden of niet. Zo ja, niks aan de hand. Zo nee, dan heb je een makkelijke case voor de rechter, en moet je vooral niet schromen als benadeelde, wie dat ook moge zijn, die weg te bewandelen.

[ Voor 3% gewijzigd door Illidan op 05-10-2009 08:23 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 27-08 20:38
Wat een geblaat allemaal...
Als een bedrijf een ander bedrijf dwars kan zitten ( lees meer geld kan verdienen ) doen ze dat maar al te graag.
Deze wereld is niet gebaseerd op technology maar puur uit geld en macht.
Als iedereen braaf ging samenwerken hadden we al 10x snellere GPU's gehad.
Helaas werkt het niet zo, iedereen wil zoveel mogelijk geld binnen halen en als dat makkelijker gaat door een ander te "saboteren" gebeurt dat gewoon, dat gebeurt namelijk overal...

Daarnaast who really cares ?

Acties:
  • 0 Henk 'm!

Verwijderd

Illidan schreef op maandag 05 oktober 2009 @ 08:21:
als een game zoveel beter kan zijn omdat als je het optimaliseert voor 1 soort gpu, welke dat is, is niet relevant, dan heb ik liever dat
Dat is het juist niet. Hij is niet geoptimaliseerd, hij is expres gekreupeld voor de niet met geldzakken schuivende partij.
biggydeen2 schreef op maandag 05 oktober 2009 @ 09:00:
Wat een geblaat allemaal...
Als een bedrijf een ander bedrijf dwars kan zitten ( lees meer geld kan verdienen ) doen ze dat maar al te graag.
Deze wereld is niet gebaseerd op technology maar puur uit geld en macht.
Als iedereen braaf ging samenwerken hadden we al 10x snellere GPU's gehad.
Helaas werkt het niet zo, iedereen wil zoveel mogelijk geld binnen halen en als dat makkelijker gaat door een ander te "saboteren" gebeurt dat gewoon, dat gebeurt namelijk overal...

Daarnaast who really cares ?
I care. Ik laat mij niet naaien door een of andere bedrijf als ik daar wat aan kan doen. Ik ga batman dus ook niet kopen, ondanks dat het een hele goeie game zou zijn.

[ Voor 51% gewijzigd door Verwijderd op 05-10-2009 09:08 ]


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Je hoeft mij niet te overtuigen, ik zei al dat het gewoon business is.

Wat de playstation betreft, die kost in totaal net zoveel als èèn enkel highend pc onderdeel, dus dan is het voor de consument een kwestie van èènmaal €400 en je bent klaar wat hardware betreft.
Als je nou zulke taferelen als "speciale hardware moeten kopen voor verschillende spellen" op de pc zou krijgen dan kan alleen de allerrijkste zich nog een beetje fatsoenlijke framerates veroorloven in alle spellen.
En dan zou je ook nog moeten gaan puzzelen met je pc onderdelen om de optimale configuratie te krijgen.

"Geil sponsort dit spel dus Kingston geheugen vervangen", "Oh maar Ati heeft hier geinvesteerd dus GeForce eruit en Radeon erin", "Wacht, was dit spel nou voor Amd of Intel gemaakt?"

Zulke bedrijfsvoering zou de doodsteek zijn voor de pc games markt. De ziel van de pc games markt is universeel geacepteerde standaarden. Als hardware fabrikant mag je vervolgens die standaarden zoals je wilt ontwerpen en je mag er ook dingen bijdoen die niet standaard zijn , zoals tessilation voor Ati destijds. Maar daar houdt het op wat hardware fabrikant betreft.

Als je dan een spel als Batman:AA als het ware opkoopt om als techdemo voor jouw hardware dienst te doen is het ook allemaal gewoon business, niks mis mee.
MAAR...als de publisher vervolgens het spel aan de man brengt als zijnde een volwaardig pc spel en dezelfde prijs vraagt aan zowel consumenten met hardware waarvoor het spel ontworpen is als aan consumenten met hardware waarvoor het spel is gesaboteerd, dan wordt er een grens van fantsoen overschreden en als er dan vrolijk "THE WAY ITS MEANT TO BE PLAYED" op de doos prijkt dan kun je verwachten dat er kwaad bloed wordt gezet.

Wie zit er fout? De developers en publishers van Batman:AA.
Wie heeft ze ertoe aangezet? Nvidia.
Wie krijgt het er in fora dus van langs? Nvidia (en ook de uitgevers een beetje, maar dat zijn maar klein grut).

Door deze en andere zaken die al genoemd zijn in dit topic heeft nVidia zich als een "big bad" geprofileert. Ati grijpt de kans dankbaar aan om zich (Google style) als eerlijk hardwerkend bedrijf te profileren, daar waar ze enkele jaren geleden ook vrolijk voor 3dmark geoptimaliseerde drivers hadden.
Kijk ook even naar de release van de 48xx vorig jaar. Ati wachtte met opzet tot nadat nVidia hun dure kaart hadden gelanceerd om vervolgens de marktprijs te doen inzakken met hun 48xx release. Ze hebben de early adopters die een gtx280 kochten opgeofferd om nVidia in een kwaad daglicht te stellen. En wie kreeg er toen van langs? nVidia natuurlijk, want die hadden de consument beduveld met veel te hoge prijzen.

DAT is hoe je een markt bespeelt, niet door te proberen om een vierkant blokje (Physx) in een rond gaatje (de consument) te duwen. Maar het lijkt allemaal er toch niet meer toe te doen, want nVidia lijkt de games markt aan Ati te schenken met hun nieuwe focus op gp gpu. Ik mag hopen dat ze dit èèn generatie doen en daarna weer een killer kaart voor games op de markt brengen, want met èèn enkele grote speler op de markt heeft de consument slechte ervaringen.

Acties:
  • 0 Henk 'm!

Verwijderd

Illidan schreef op maandag 05 oktober 2009 @ 08:21:
[...]


Valt reuze mee, die goodwill bij de community, hangt alleen van af welke community je bedoelt.
Ik verdedig het recht van een bedrijf om eigen keuzes te maken over het uitbrengen van een product. Ieder bedrijf, niet alleen nV. Ik heb zo het gevoel dat mensen hier veel te veel op de bestuurdersstoel willen zitten en beslissingen voor bedrijven wil afdwingen.

Hypothetisch.... (en misschien wel helemaal niet hypothetisch) (en heeft verder niets met Batman of nV te maken, dit is een algemene stelling).

Voor Gof of War heb je een PlaySatation nodig, mee eens?
Uitgever/Dev/Sony bepaalt het platform, wat de rest van de wereld daarvan denkt is voor hun niet relevant, want het is een legitieme keuze.

Waarom zou bij PC games geen onderscheid gemaakt mogen worden? Bepalen jullie of dat wel of niet mag?
Volgens mij mag een Studio beslissen of ze een nV, ATi of Matrox- only game op de markt mogen zetten. Of dat verstandig is, of je dat wel of niet leuk vind, dat is niet relevant. Dat polder-model-idee dat iedereen erbij betrokken moet worden is achterhaald, als een game zoveel beter kan zijn omdat als je het optimaliseert voor 1 soort gpu, welke dat is, is niet relevant, dan heb ik liever dat ipv dat uit commerciële overwegingen wordt besloten dat het maar "overal op moet draaien, want dan verdienen we meer" . Dit soort gedachten houd de vooruitgang tegen. Door meer je eigen weg op te gaan kun je ook meer out-of-the-box oplossingen implementeren. Daarom vind ik het niet interessant waarom een keuze wordt gemaakt. Enige wat telt is of die keuze gemaakt mag worden of niet. Zo ja, niks aan de hand. Zo nee, dan heb je een makkelijke case voor de rechter, en moet je vooral niet schromen als benadeelde, wie dat ook moge zijn, die weg te bewandelen.
Dat physX niet in een spel beschikbaar zijn voor ati kaarten begrijp ik. En dat hij beter zou draaien op Nvidia kaarten snap ik ook. Maar Nvidia heeft de game niet alleen ontwikkelt. Er zijn genoeg games die wel up Unreal engine 3 draaien die wel aa hebben. Zoals Bioshock. En dat is ook een Nvidia game.

Dit soort dingen zijn zeker weten niet 100% toegestaan. Intel en Microsoft hebben hier ook al vaak boetes voor gekregen en Nvidia mag wel uitkijken. Het is gewoon echt een detectie die zorgt dat als er een ati-kaart beschikbaar is aa gewoon uitgezeten wordt. Met een mod kan dit verholpen worden.

En het mooiste van alles is dat ze je gewoon voor lopen te liegen ook. Ze liegen gewoon tegen sites en denken dat niemand ze door heeft met deze praktijken. Fermi was nep, ati-kaarten boycotten en dan achteraf het nog goedpraten met leugens (ik vertrouw die lui al lang niet meer 8)7 ). Dit zijn echt dingen die niet allemaal meer mogen van de wet hoor.

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Verwijderd schreef op maandag 05 oktober 2009 @ 09:29:
[...]Dit zijn echt dingen die niet allemaal meer mogen van de wet hoor.
De wet kan er pas worden bijgeroepen als de partij die zulke praktijken gebruikt een overgroot deel van de markt bezit, zoals het geval was bij Intel en Microsoft.
Ati/Nvidia is redelijk 50/50 en in de nabije toekomst verwacht ik zelfs dat Ati het gros van de nieuwe kaarten verkoopt.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15-09 14:56

Darkasantion

Just keep swimming!

Illidan schreef op maandag 05 oktober 2009 @ 08:21:
.......
Waarom zou bij PC games geen onderscheid gemaakt mogen worden? Bepalen jullie of dat wel of niet mag?
.......
JA, dat bepalen wij uitendelijk wel. Door dit soort praktijken krijgt Nvidia slechte plubliciteit en raakt klanten kwijt, en hoe langer ze hiermee doorgaan, hoe meer klanten zij kwijtraken. Oftewel ze raken ons en ons geld kwijt, en zo bepalen wij wat er gebeurt. Simpele marktwerking, ya know ;)

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 27-08 20:38
Verwijderd schreef op maandag 05 oktober 2009 @ 09:07:
I care. Ik laat mij niet naaien door een of andere bedrijf als ik daar wat aan kan doen. Ik ga batman dus ook niet kopen, ondanks dat het een hele goeie game zou zijn.
Je kan er niks aan doen, het enige wat je doet is een goeie game niet kopen.
Daar heb je zelf meer last van dan Nvidia.

Dan kun je ook netzo goed geen benzine meer kopen voor je auto daar wordt je ook verneukt waar je bij staat.
Kan je wel niet gaan tanken, maar dat lost het probleem niet op.

Acties:
  • 0 Henk 'm!

Verwijderd

biggydeen2 schreef op maandag 05 oktober 2009 @ 11:20:
[...]


Je kan er niks aan doen, het enige wat je doet is een goeie game niet kopen.
Daar heb je zelf meer last van dan Nvidia.
En de uitgever krijgt geen/minder geld. Die gaat failliet, i dont care, hadden ze dat maar niet moeten doen. Nu zal dit niet zo snel gebeuren, maar tis idelisch. Dat hoeft niet altijd te werken. Dat gaat om je eigen gevoel.
Dan kun je ook netzo goed geen benzine meer kopen voor je auto daar wordt je ook verneukt waar je bij staat.
Kan je wel niet gaan tanken, maar dat lost het probleem niet op.
Dat is wel vaker zo met idelische dingen, dat hoeft ook niet te werken, dat is voor jezelf. Je weet ook dat als iedereen in eens niet meer met de auto gingen, de petrolium industrie keihard om valt.

Dus omdat jij vind dat je er niets aan kan doen, moet je het ook maar niet doen? Die kindertjes in afrika gaan toch wel dood, laat ik mijn geld maar niet sturen. 8)7

[ Voor 10% gewijzigd door Verwijderd op 05-10-2009 11:33 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
biggydeen2 schreef op maandag 05 oktober 2009 @ 11:20:
[...]


Je kan er niks aan doen, het enige wat je doet is een goeie game niet kopen.
Daar heb je zelf meer last van dan Nvidia.

Dan kun je ook netzo goed geen benzine meer kopen voor je auto daar wordt je ook verneukt waar je bij staat.
Kan je wel niet gaan tanken, maar dat lost het probleem niet op.
Heb je daar zelf meer last van als je een goede game niet koopt? Ik betwijfel het. Er zijn nog genoeg andere goede titels op de markt waar je je geld wel aan kan besteden. En volgens mij denkt het gros van de mensen er ook zo over. Dat zijn dan gemiste inkomsten voor de developer van de NV-titel.

De vergelijking met benzine gaat in mijn ogen dan ook niet helemaal op, omdat je op games-gebied de keuze hebt om naar andere games uit te wijken. Die flexibiliteit mist in jou voorbeeld. Ik zou het eerder vergelijken met auto's (AMD/NV) en de gebruikte soorten benzine. Als Shell (developer) besluit om voortaan alleen maar diesel (games met PhysX) te verkopen, dan wijken automobilisten die in het merk AMD rijden uit naar de Esso of BP (andere developers) om daar wel Euro 95/98/gas/super te tanken. En uiteindelijk heeft Shell zich er alleen maar mee. Als developer wil je toch eigenlijk dat er zo veel mogelijk mensen van je game kunnen genieten? En dat gebeurt nu niet. Dat zie je ook aan de reacties hier, maar ook op vele internationale fora. En dat is zonde van een goede titel als Batman.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 16-08 20:29
Phew, leuk om te lezen deze klaagzangen allemaal, maar veel nV nieuws tref ik al lang tijd niet meer aan in dit topic. Nu is er misschien ook niet veel nieuws te melden en is dat de reden dat iedereen maar klaagt.

Misschien tijd voor en nV-klaagtopic? :+

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Er is ook weinig écht nieuws te melden. Het belangrijkste was PhysX en de nVidia demo van Fermi maar het laatste was dat het geshowde model fake was. Vind je het gek dat er dan een bepaalde sfeer ontstaat? ;)

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 21:33
Het grootste punt in de batman AA "discussie" is uiteraard dat wanneer de Vendor_ID check omzeilt wordt, AA gewoon mogelijk is op een ATi kaart en het spel beter loopt...

Dat geeft dus aan dat er niks mis is met de AA van het spel én hoe ATi kaarten ermee overweg kunnen.
Voor blokkeren van deze functie lijkt er dus geen logische technische reden te zijn?

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 13-09 08:50
Puppetmaster schreef op maandag 05 oktober 2009 @ 12:38:
Dat geeft dus aan dat er niks mis is met de AA van het spel én hoe ATi kaarten ermee overweg kunnen.
Voor blokkeren van deze functie lijkt er dus geen logische technische reden te zijn?
Volgens mij ook niet, in de demo was het ook mogelijk om AA te aan te zetten op ATI kaarten via een hack. Toen draaide het ook gewoon goed... Dat is juist ook het punt, als het nu gewoon slecht draaide... Oke, dan heeft AMD werk aan de winkel.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

dirkjesdirk schreef op maandag 05 oktober 2009 @ 11:52:
Phew, leuk om te lezen deze klaagzangen allemaal, maar veel nV nieuws tref ik al lang tijd niet meer aan in dit topic. Nu is er misschien ook niet veel nieuws te melden en is dat de reden dat iedereen maar klaagt.

Misschien tijd voor en nV-klaagtopic? :+
nVidia Nieuws & Discussie Topic

Ik zie het probleem niet. :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Verwijderd schreef op maandag 05 oktober 2009 @ 09:29:
[...]
Dat physX niet in een spel beschikbaar zijn voor ati kaarten begrijp ik. En dat hij beter zou draaien op Nvidia kaarten snap ik ook.
Met een (Asus, BFG, etc) Ageia PhysX PPU-kaart ben je net zo hard de lul als je geen Nvidia videokaart heb. Die kan je sinds kort dus mooi weggooien, terwijl er geen gegronde reden voor die onzin is.

Vendor Lock In :r :r

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Cin-
  • Registratie: September 2009
  • Laatst online: 23-07 21:05
Fermi, GT300 to launch in late November

Nvidia's CEO first said that Fermi, GT300 product will launch on Tuesday and didn't want comment whether it can launch in 2009 or 2010. After a while we found out from chaps from top management that this new 40nm chip should launch in 2009.

After digging a bit more, we found out that you can expect to see Fermi officially in late November. This date can easily slip as the engineers work around the clock to make it happen. The first sample is out and Nvidia did show it to some important investors and analysts. Nvidia is adamant that the physics demo is real and not a fake thing.

ATI will enjoy availability and exclusivity on market as it has two month lead but we hope ATI can get more cards out and serve them to early DirectX 11 adopters. Nvidia also told us that GT300 was never really a codename but we don't really care as GT300 definitely sounds better than Fermi.

Despite the fact that this chap was in part responsible for the creation of the first atomic weapon, he doesn't really have what we would call a cool name. Frankly, Fermi just reminds us on an average brand for cereal, but don't worry Nvidia will replace this name with Geforce, Tesla and Quadro, when the time comes.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dit komt van Fudzilla dus ik hecht daar even niet veel waarden aan. Fud is de laatste tijd een nVidia propaganda site |:(

[ Voor 3% gewijzigd door Astennu op 05-10-2009 14:22 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Überhaupt ga ik pas wat geloven van nieuws over een releasedatum zodra NVidia een echte GT300 laat zien. Ze slingeren zoveel met geruchten nu, waarvan ze soms al moeten toegeven dat het niet klopt. Er is totaal geen reden meer om bepaalde geruchten te geloven totdat ze gewoon zeggen dat hun Fermi klaar is en als ze hem kunnen laten zien. Het enige wat zo ongeveer bekend is is de informatie die NVidia zelf gegeven heeft...

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
bwerg schreef op maandag 05 oktober 2009 @ 15:00:
Überhaupt ga ik pas wat geloven van nieuws over een releasedatum zodra NVidia een echte GT300 laat zien. Ze slingeren zoveel met geruchten nu, waarvan ze soms al moeten toegeven dat het niet klopt. Er is totaal geen reden meer om bepaalde geruchten te geloven totdat ze gewoon zeggen dat hun Fermi klaar is en als ze hem kunnen laten zien. Het enige wat zo ongeveer bekend is is de informatie die NVidia zelf gegeven heeft...
Zoals fud al aangeeft, nvidia zelf heeft ook maar een hand vol borden, hoe willen zij over 4 weken een product lanceren?

Een insider op b3d gaf aan; JHH heeft tegen Jezus gezegd dat hij in Maart geboren is, vlak na de GF100 launch.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als ik al kijk naar de beperkte leverbaarheid bij ATI die qua die-grootte en maturity van het proces beter af schijnt te zijn, kan ik me niet voorstellend dat nvidia's nieuwe chip leverbaar zal zijn rond dat tijdstip....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Mark my words: januari-februari.
Als dat gedoe met die geheugencontroller waar is zie ik het echt niet dit jaar komen. Ze zijn zowiezo al te laat voor de release van W7, voor het najaarsseizoen ( veel grote gametitels ) en voor de kerst.
En dan komt GT300 voor zeg 400 dollar op zijn minst. En dan beseft nvidia dat het mid-end het nog steeds met G92 moet doen ( ja of je verkoopt 460 vierkante millimeter GT200b voor een appel en een ei ).
Ik snap helemaal niets van dat bedrijf. Met GT300 kan je alleen de top van de markt pakken. De normale mensen nemen een 5850 of een 5770. Ik hoop voor ze dat GT300 groot wordt in HPC, en dat er voor consumenten GPGPU applicaties komen.
Ik heb al een paar keer gevraagd of er zinnige GPGPU applicaties zijn voor de desktop thuis, maar ik heb nog geen enkel voorbeeld gelezen. O ja geen BOINC of HTPC dingetjes, die kunnen videokaarten nu ook al.

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Ik blijf het raar vinden dat nV nogal traag reageert met hun prijzing van de GTX285 ... want tegenover de 5850 zijn ze het echt aan het afleggen. Het enige argument dat ik me kan bedenken is dat de 5850 maar mondjesmaat leverbaar is en ze deze tijd nog even willen overbruggen. Maar mensen die een dergelijke high-end kaart kopen weten er vaker wat van af, dan snij je jezelf met dit soort prijzen enkel in de vingers.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Cassius schreef op maandag 05 oktober 2009 @ 15:25:
Ik blijf het raar vinden dat nV nogal traag reageert met hun prijzing van de GTX285 ... want tegenover de 5850 zijn ze het echt aan het afleggen. Het enige argument dat ik me kan bedenken is dat de 5850 maar mondjesmaat leverbaar is en ze deze tijd nog even willen overbruggen. Maar mensen die een dergelijke high-end kaart kopen weten er vaker wat van af, dan snij je jezelf met dit soort prijzen enkel in de vingers.
Als het goed is heeft nvidia de prijzen pre-launch al een stukje aangepast. zo is er minstens $60 van de GTX295 afgegaan.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 13-09 08:50
Cassius schreef op maandag 05 oktober 2009 @ 15:25:
Ik blijf het raar vinden dat nV nogal traag reageert met hun prijzing van de GTX285 ... want tegenover de 5850 zijn ze het echt aan het afleggen. Het enige argument dat ik me kan bedenken is dat de 5850 maar mondjesmaat leverbaar is en ze deze tijd nog even willen overbruggen. Maar mensen die een dergelijke high-end kaart kopen weten er vaker wat van af, dan snij je jezelf met dit soort prijzen enkel in de vingers.
Inderdaad vreemd, er is nog helemaal geen enkel bericht hier over verschenen. Al die kaarten zitten nog op 270 euro +. Voor die prijs kom je, ondanks de slechte leerbaarheid, ook wel een aan 5850... Kijk maar eens bij Alternate.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik had begrepen dat de GTX285 ook niet goed leverbaar was. Of is dit inmiddels al opgelost ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 01:13
biggydeen2 schreef op maandag 05 oktober 2009 @ 09:00:
Wat een geblaat allemaal...
Als een bedrijf een ander bedrijf dwars kan zitten ( lees meer geld kan verdienen ) doen ze dat maar al te graag.
Deze wereld is niet gebaseerd op technology maar puur uit geld en macht.
Als iedereen braaf ging samenwerken hadden we al 10x snellere GPU's gehad.
Helaas werkt het niet zo, iedereen wil zoveel mogelijk geld binnen halen en als dat makkelijker gaat door een ander te "saboteren" gebeurt dat gewoon, dat gebeurt namelijk overal...

Daarnaast who really cares ?
Daarom werkte het communisme ook zo goed he......
Puppetmaster schreef op maandag 05 oktober 2009 @ 12:38:
Het grootste punt in de batman AA "discussie" is uiteraard dat wanneer de Vendor_ID check omzeilt wordt, AA gewoon mogelijk is op een ATi kaart en het spel beter loopt...

Dat geeft dus aan dat er niks mis is met de AA van het spel én hoe ATi kaarten ermee overweg kunnen.
Voor blokkeren van deze functie lijkt er dus geen logische technische reden te zijn?
Technisch niet, maar logisch wel. Nvidia heeft voor o.a. de implementatie van AA betaald dus krijgt ati het niet. Net zoiets als microsoft geld heeft betaald voor die extra GTA content die niet op de PS3 komt. Technisch kon die content ook wel naar de PS3 gezet worden, maar sony heeft niet betaald voor de rechten. De devs hebben de opties afgewogen en deze 'exclusiviteits deal' met nvidia levert waarschijnlijk meer op.

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 21:33
Rutger Mulder schreef op maandag 05 oktober 2009 @ 15:49: Nvidia heeft voor o.a. de implementatie van AA betaald dus krijgt ati het niet.
Inderdaad!
Net zoiets als microsoft geld heeft betaald voor die extra GTA content die niet op de PS3 komt.
Nee, deze vergelijking is scheef want dat zijn verschillende platformen waarvoor je compleet verschillende machines (als in architectuur en alles) moet bezitten.
De PC markt is een universele markt waarbij eenieder vrij is de componenten van zn PC te kiezen. Open en industry-standards zorgen er dan voor dat het op al die verschillende mogelijkheden aan configuraties werkt, mits van dezelfde generatie (DX, OpenXX).

nV zorgt er hier (via de dev uiteraard) voor dat een AA dat goed werkt op het platform, wordt uitgeschakeld na een Vendor_ID check.
Is natuurlijk wel te verklaren, maar past imo niet in het "open"PC platform...

Klachten daarover van ATi bezitters zijn imo dan ook terecht.
Evenals dat je nu niet meer je (als destijds losstaande Aegia) PPU physX kaartje kan gebruiken omdat je een ATi kaart hebt.
Functionaliteit van dat ding staat in principe compleet los van welke GFX kaart dan ook!
Alleen nV bepaald nu dat je em na 2-3 jaar niet meer mag gebruiken, omdat je NU geen nV GFX hebt... :/ :X 8)7

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 20-06 09:59
Jensen earns $1 until things get better
Cost reduction package

We've learned that Nvidia's top management, including CEO Jensen Huang have decided to to receive salaries of only $1 (one US dollar) until the financial situation gets better. This is a part of cost reduction package that should help Nvidia get through the bad economical times.

Jensen didn't want to start firing people and claimed that they even hired a lot of engineers as the level of innovation in economy downturn has to grow and since Nvidia wants to earn more money in some emerging markets, they simply had to hire more.

Nvidia staff also got a small salary cut but we've learned that as of this month, the cuts are gone. Nvidia also plans to stop paying bonuses to top guys, until things gets better. This is how Nvidia fights with the economic crisis and this sure is better than letting people go in bad times.

Still, in spite of the fact that Jensen gets only $1 a year I would gladly swap salaries with him, as long as he swaps his stock options as well.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024

Fermi board is real, but

Het charme-offensief gaat ondertussen rustig verder. Nu is de claim van het tonen van de mock-up GT300 om het groen-rode kamp niets te laten zien. Natuurlijk zou je heel veel aan de prestaties af kunnen lezen wanneer je een mooie afgewerkte compleet geboxte kaart hebt.

Ze wilden verder geen DX11-demo draaien, waarmee ze hadden kunnen aantonen dat er daadwerkelijk een kaart is, omdat het teveel zou afleiden van GPGPU. Ze hadden echter natuurlijk ook een demo van de DX11 compute shader kunnen draaien om het GPGPU gebeuren te tonen.

De laatste zin is allessinds interessant.

We do expect big shortage of chips at launch due to high demand. Just remember what happened when G80 and G92 got out.

Shortage door hoge interesse? Of ook omdat ze gewoon bij lange na niet genoeg kaarten kunnen produceren om eind november te lanceren? Als ze inderdaad nog op een respin wachten, is dat laatste toch wat waarschijnlijker.
Ik denk dat de uitkering die hij jaarlijks mag ontvangen voor zijn aandelen, nog altijd behoorlijk boven een modaal salaris liggen, dus die ene dollar die hij officieel verdient, zegt niet zo heel veel natuurlijk (net zoals bij Steve Jobs). Daarnaast zou het me niet verbazen als hij een leuk extra zakcentje bijverdient met lezingen.

[ Voor 21% gewijzigd door dahakon op 05-10-2009 18:51 ]


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Duidelijk een dik charme offensief... Al die domme berichten van Fud, en die 1$ wat kan mij dat schelen? Ik zie dat ook als een charme offensief tegen de mensen die boos zijn op het rebranden... Ze laten zien kijk we geven ze $1 als ze dat blijven doen. Maar in feite heeft dit geen enkele zin.. Een GPU maken kost minimaal 3 jaar.. Dus dat $1 gedoe is dikke onzin.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Illidan schreef op maandag 05 oktober 2009 @ 18:47:
Jensen earns $1 until things get better
Cost reduction package

We've learned that Nvidia's top management, including CEO Jensen Huang have decided to to receive salaries of only $1 (one US dollar) until the financial situation gets better. This is a part of cost reduction package that should help Nvidia get through the bad economical times.

Jensen didn't want to start firing people and claimed that they even hired a lot of engineers as the level of innovation in economy downturn has to grow and since Nvidia wants to earn more money in some emerging markets, they simply had to hire more.

Nvidia staff also got a small salary cut but we've learned that as of this month, the cuts are gone. Nvidia also plans to stop paying bonuses to top guys, until things gets better. This is how Nvidia fights with the economic crisis and this sure is better than letting people go in bad times.

Still, in spite of the fact that Jensen gets only $1 a year I would gladly swap salaries with him, as long as he swaps his stock options as well.
Interessant maar afgelopen jaar heeft hij opties/shares verkocht ter waarde van vele miljoenen dollars. Daar kan ie wel even van leven. :+

Als ie echt zou geloven in de waardestijging van zijn bedrijf had ie ze wellicht niet verkocht.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Puppetmaster schreef op maandag 05 oktober 2009 @ 16:49:
nV zorgt er hier (via de dev uiteraard) voor dat een AA dat goed werkt op het platform, wordt uitgeschakeld na een Vendor_ID check.
Dit is vooralsnog speculatief. Er is nog steeds geen bewijs dat Nvidia hier achter zou zitten. Maar het bekt natuurlijk wel lekker voor de conspiracy-theoristen.
Klachten daarover van ATi bezitters zijn imo dan ook terecht.
Ja, klachten bij je eigen IHV. Nvidia is ATI bezitters niets verschuldigd.
Evenals dat je nu niet meer je (als destijds losstaande Aegia) PPU physX kaartje kan gebruiken omdat je een ATi kaart hebt.
Functionaliteit van dat ding staat in principe compleet los van welke GFX kaart dan ook!
Alleen nV bepaald nu dat je em na 2-3 jaar niet meer mag gebruiken, omdat je NU geen nV GFX hebt... :/ :X 8)7
De PPU ondersteunt niet meer de laatste versie van Physx. Het houdt een keertje op.

Yeah well. The Dude abides.

Pagina: 1 ... 6 7 Laatste

Dit topic is gesloten.