I’m not sure why they named the chip after Enrico Fermi, who is best known for his work with radioactive substances and controlled nuclear reactions and stuff. But as code-names go, physicists are cool, so I’ll let it slide.
[ Voor 3% gewijzigd door Omnyakom1 op 01-10-2009 19:16 ]
Het is eigenlijk om te huilen dat een dergelijk stuk chemisch afval trots wordt getoond aan de verzamelde pers als zijnde de nieuwe kaart. Het spijt me zeer, maar iets anders kan ik het echt niet noemen. Het is een absoluut dieptepunt voor nVidia om dat te doen. Ik hoop voor hen, voor hun fans en voor de markt in zijn algemeenheid dat ze binnenkort toch een echte kaart kunnen tonen, ongeacht of die snel beschikbaar zal zijn of niet.neliz schreef op donderdag 01 oktober 2009 @ 18:39:
Mooi bewijs dat het bord fake is:
[afbeelding]
Check de aansluitingen van de PCIe power connectoren en het soldeer op het bord.. wat klopt er niet?
edit:
duidelijker shot dat het bord is afgeknipt om bij de koeler te passen:
[afbeelding]
Koeler dekt exhaust af:
[afbeelding]
GPU #7
[afbeelding]
Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..dahakon schreef op donderdag 01 oktober 2009 @ 20:00:
[...]
Het is eigenlijk om te huilen dat een dergelijk stuk chemisch afval trots wordt getoond aan de verzamelde pers als zijnde de nieuwe kaart. Het spijt me zeer, maar iets anders kan ik het echt niet noemen. Het is een absoluut dieptepunt voor nVidia om dat te doen. Ik hoop voor hen, voor hun fans en voor de markt in zijn algemeenheid dat ze binnenkort toch een echte kaart kunnen tonen, ongeacht of die snel beschikbaar zal zijn of niet.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ze zullen wel werkende hardware in hun lab hebben, daar twijfel ik niet aan. Die hot lots hebben echt wel wat teruggebracht, maar dat neemt niet weg dat ze op het podium met iets staan te zwaaien wat gewoon niets is dan afval. Ik begrijp ook wel dat het lastig kan zijn een echte kaart te tonen als je erg weinig werkende GPU's hebt (hoeveel werkende chips ze uit die 2 series hot lots hebben kunnen krijgen laat ik maar in het midden), maar ze hadden hun best kunnen doen een echte kaart te tonen, of helemaal niets behalve foto's/slides.Xenomorphh schreef op donderdag 01 oktober 2009 @ 20:03:
[...]
Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..
Al dus een Russische site.Lack of hardware tessellation unit, this functional will be implemented in software;
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.
Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.
Verwijderd
http://www.semiaccurate.com/forums/showthread.php?t=822&page=5
Sure. I have posted the size, 23.x * 23.x, the NVIO chip, and a few other things like tapeout, first silicon and good dies from first silicon hot lots.
What else? 2:1 SPP ratio, and the number they don't want to tell people is that the numbers are 1.5TF SP and 768GF DP, but that is dependent on their ability to hit clock targets. If you do the math, the 512 shader, 384b memory part would need clocks in the 750MHz +/- a bit to hit that.
The memory is very high clocked, I am hearing 1.5Ghz GDDR5, and this doesn't surprise me given their memory woes. If you notice, the 216/218 are all slated to use GDDR3 even though they have a GDDR5 controller. Why? Because the NV GDDR5 controller is totally hosed, it is so bad that it basically doesn't work, forcing the 216/218 into GDDR3/DDR3. This means half+ bandwidth goes poof, and performance blows. See a problem for pricing?
The GDDR5 controller is very likely the same thing that sunk the 215, basically they couldn't feed it, or couldn't feed it in a way that would make a financially viable chip.
If GT300 uses the same, or a close derivative part, well, it is hosed. I would almost bet that the respin, if real, is due to memory controller problems.
If you think about it, 384b 6GHz (effective) GDDR5 is vastly faster than 512b 1.xGHz GDDR3. NV basically doubled the shader count on GT300, no shock there, and upped the bandwidth by a lot more than that. Much much more. They either decided to piss away a lot of area, power, and board cost on stupidly high frequency memory, or their controller efficiency blows. Some of my sources are saying they have to buy high bin parts to get the tolerances they need to run at much lower speeds.
As a side note, all the stuff about 40nm yields being fine that Fudo et all are saying, there is only one question, where are the parts? If yields are fine, and NV is running more 40nm wafers than anyone else, why can't you find one of the parts at any place other than a few OEMs? Why can't you buy GDDR5 variants? Why are the laptop versions that basically mandate GDDR5 being replaced by ATI parts on most laptops?
If yields are fine, and there is no GDDR5 controller problems, what is the explanation again? I REALLY wish some people would ask questions like that before they posted stories.
-Charlie
Cuda heeft momenteel 1 werkelijke functie voor gaming, namelijk de GPU-support voor PhysX. AMD heeft zijn eigen ideeen daarover ook al lang kenbaar gemaakt. In plaats van vast te houden aan een propietry stukje software, gooit AMD het over de OpenCL boeg, waar ook nVidia straks dankbaar gebruik van kan maken. Havok heeft al wat zaken die via OpenCL kunnen draaien, waardoor het gebruik kan maken van CPU en GPU. Daarnaast werkt AMD zeer nauw samen met Bullet om Bullets physics engine ook via OpenCL te laten lopen. Wederom iets waar ook nVidia gebruik van kan maken.Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:24:
Wat een stel zuur pruimen hier zeg. Die kaart is nog een prototype, logisch dat ie er nog niet helemaal 100% uit ziet....
Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.
Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.
Met andere woorden, Cuda is leuk, maar is gesloten. Voor wetenschappelijke projecten maakt dat niet zoveel uit, maar voor gamedevelopment is het een doodsteek (aangezien het maar op een deel van de hardware gebruikt kan worden).
Ehhh, DX10.1 en DX11?Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:58:
Ze stoppen veel geld in de R&D en het zou een beetje lullig zijn als de concurrent er dan zonder veel kosten mee vandoor zou kunnen gaan.
nVidia kraakt DX10.1 af ATi steekt er geld in en kijk eens aan nVidia komt met DX10.1 kaarten.
En nu helpt ATi toch ook met de ontwikkeling van DX11 games.
Ik bedoel je kunt als fabrikant niet alles hebben.
Maar vindt wel dat nVidia zich beter kan richten op gamen dan op CUDA, ontwikkel anders gewoon Quadro kaarten die niet op de GeForce serie zijn gebasseerd maar speciaal voor CUDA.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is het punt dus, AMD doet het al, alleen dan met OpenCL, wat wel een standaard is, die ook nog eens door iedereen te gebruiken is. Als een ontwikkelaar moet kiezen tussen Cuda, waarmee ze slechts een deel van de games-markt kunnen bereiken, of OpenCL, waarmee ze de hele games-markt kunnen bereiken, welke keuze denk je dan dat het meest logisch is?Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:58:
Daarna heeft nvidia er wel baat bij om er een soort marktstandaard van te maken. Het zal (hopelijk) niet alleen bij physics blijven en tegen de tijd dat er meer ontwikkelaars wat mee gaan doen komt ati ook wel. En wanneer ati het ook kan hoeft nvidia cuda ook niet meer zo gesloten te houden. Het begin is er in elk geval nu.
Díe kaart is geen prototype, maar gewoon iets om mee te zwaaien voor het klappende publiek.Rutger Mulder schreef op donderdag 01 oktober 2009 @ 21:24:
Wat een stel zuur pruimen hier zeg. Die kaart is nog een prototype, logisch dat ie er nog niet helemaal 100% uit ziet....
Hoe kan hij het doen als de powerconnector niet aangesloten is op de PCB???
Wat dat betreft ben ik het volledig met Dahakon eens, triest dat ze dit doen/ moeten doen?
@ underlined:Verder is het een kip en ei verhaal met de cuda mogelijkheden. Daar zijn echt wel mogelijkheden mee voor games, alleen zijn die nog niet ontwikkeld en/of marktstandaard. Maar nu de hardware er is zal er wel meer mee gedaan worden in de toekomst. Veel mensen hier kunnen helaas niet "out of the box" denken. Ben ik blij jullie niet voor de R&D werken.
Tegen de tijd dat cuda applicaties echt gemeengoed worden op de gamesmarkt etc zal ati ook wel met iets vergelijkbaars komen, maar het is wel nvidia waar je deze mooie ontwikkeling dan aan te danken hebt!
Vergelijk het anders eens met de evolutie van de gsm naar smartphone, daar plukken nu ook veel mensen de vruchten van.
Wat was er eerder (brook-) GPGPU of CUDA?
Wat is beter voor de community, open/industry standards zoals OpenCL, Openphysics en DirectCompute of een gesloten standard van én geoptimaliseerd door en voor 1 hardware vendor?
Ja, tuurlijk zegt Nv dat ATi (en eenander)best een licentie voor CUDA mag nemen, maar aangezien zij bepalen wat goed op CUDA loopt, loopt ATi (en eenander) dan altijd achter de feiten aan...
Dat is voor nV alleen maar de ideale situatie: performance leader zonder er moeite voor te hoeven doen!


Verder niks ten nadele van de GT300, zal zeer waarschijnlijk een goede GFX-kaart worden die sneller is dan de HD5870.
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
De geheugencontroller schijnt DDR5 alleen te happen als het memory extreem hoog geklokt is.
Een raar verhaal.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
CS:S is geen zware game. Wolfenstein (geen ET:QW afaik) werd wel gerenderd maar het ging allemaal niet soepel en na de presentatie waren de heren uitleggers amper aanspreekbaar mbt de demo.Moshe85 schreef op donderdag 01 oktober 2009 @ 17:49:
[...]
uhhm, van Larrabee is al aardig wat geshowed hoor. Vrij recent nog zelfs op het IDF
Zoek maar ff op de Frontpage klik. Draaide laatst een raytraced scene uit ET:QW en al eerder lieten ze CS:S al draaiend zien op een Larrabee. Echter echte performance cijfertjes zijn er niet. Mijn aandacht heeft het in ieder geval wel
Daarnaast Larrabee is een GPU geen CPUDus waarom je die CPU bottleneck erbij haalt
Ergens pikte ik op dat de beelden niet van een ''Fermi'' afkomstig waren maar van een GT200. Oftewel: Fermi not working.Xenomorphh schreef op donderdag 01 oktober 2009 @ 20:03:
[...]
Ze hebben een werkende kaart kijk mijn vorige post die fimpjes daar tonen ze een werkende fermi tegen een tesla c1060..
[ Voor 52% gewijzigd door Jejking op 02-10-2009 00:59 ]
nvidia heeft aangegeven (meerdere malen) dat alles op "current gen" hardware draaide. de raytracing demo van vandaag draaide schijnbaar met 4 tesla S1070 systemen.Jejking schreef op vrijdag 02 oktober 2009 @ 00:56:
Ergens pikte ik op dat de beelden niet van een ''Fermi'' afkomstig waren maar van een GT200. Oftewel: Fermi not working.
15 Kaarten van de 16 zouden de berekeningen daarvoor hebben moeten doen om een Furby systeem te emuleren.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/
Proud member of TCF - D2OL is zooooo 2005
Je kunt zeggen wat je wilt maar hij heeft wel gelijk. Ik had er nog niet zo veel gevonden trouwensHuppie schreef op vrijdag 02 oktober 2009 @ 10:08:
Mogen we even lachen met Charlie? (Zo te zien is ie nog niet voorbij gekomen...)
http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/
[ Voor 10% gewijzigd door Astennu op 02-10-2009 10:45 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
* nero355 wordt er binnenkort 1 van
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Tja het grappige vind ik daar van dat het niet perse op CUDA gemaakt hoeft te zijn. Het kan gewoon n OpenCL mja dan werkt het op alle kaarten en dat wil nVidia natuurlijk nietnero355 schreef op vrijdag 02 oktober 2009 @ 12:00:
Ehm... zolang er onboard of budget chips zijn van nVidia met CUDA mogen ze het van mij blijven bouwen !! Zat HTPC users die het met CoreAVC gebruiken
* nero355 wordt er binnenkort 1 van
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat we wel kunnen stellen nu dat er voorlopig nog geen concurrentie komt van nvidia tegenover de nieuwe ati kaarten. Zelfs een beetje goed faken is niet geluktAstennu schreef op vrijdag 02 oktober 2009 @ 10:45:
[...]
Je kunt zeggen wat je wilt maar hij heeft wel gelijk. Ik had er nog niet zo veel gevonden trouwensHad wel wat dingen gezien die niet klopte maar dit is helemaal te gek voor woorden
p.s. Eerste artikel van die Charlie waar ik me niet aan ergerde.....
[ Voor 6% gewijzigd door luckyjan op 02-10-2009 12:49 ]
Verwijderd
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
Verwijderd
Omdat wij geen klap vee zijn, en dus critisch kijken wat er gebeurd, zijn we fanboys?Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.

Sorry hoor maar dit is geen bashen. Als je wil kan ik wel laten zien hoe dat gaat. Dit is gewoon kritisch kijken. Dit werd ook gedaan bij ATi's HD2900 XT serie. Moest je toen het commentaar lezen van de nVidia aanhangers. En daar hadden ze toen ook gelijk in. Toen heb ik soortgelijke dingen in het ATi topic genoemd terwijl ik eerlijk moet toegeven dat ik wel pro ATi ben. Echter wat ze met de HD2900 XT gedaan hebben kon niet. En daar waren ze zelf ook wel achter dat dat niet gegaan is zoals ze verwacht hadden.Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
Wat nVidia de laatste tijd doet is niet netjes. Ze rebranden alles. Gewoon dezelfde kaarten voor meer geld met een andere stikker er op. En nu gaat het behoorlijk mis met de GT300. Wel van alles roepen maar niets waar kunnen maken. Als AMD dit had gedaan zeg ik dat ook. Sterker nog ik heb al het nodige commentaar op de HD5870 gegeven. Heb namelijk het idee dat er meer performance in moet zitten dan we nu zien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Kritisch kijken noem ik niet meer wat er in deze thread te lezen is...Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:57:
[...]
Omdat wij geen klap vee zijn, en dus critisch kijken wat er gebeurd, zijn we fanboys?
Ik lurk al zeer lang rond op dit forum en lees regelmatig de ati en nvidia thread maar tegenwoordig blijf ik er toch eerder weg.
In de ati thread komen leuke/interessante dingen voor maar zit het vol met mensen die het niet kunnen laten om telkens steken onder water naar nvidia te geven en in de nvidia thread komen enkele mensen systematisch enkele steken geven/gal spuwen over nvidia.
Iemand wie daar iets over zegt is direct een nvidiot of fanboy....
Kritisch kijken houdt in dat je bij een bedrijf zowel hun sterke punten als hun zwakke punten kunt beoordelen.
En ik heb al langer het gevoel dat sommige mensen die hier posten geen sterke punten bij nvidia kunnen opnoemen maar enkel komen om negatief te zijn, een reactie uit te lokken en dan onschuldig spelen wanneer iemand in de tegenaanval gaat.
ps
Niet rechtstreeks op jou bedoeld, is in het algemeen
Verwijderd
Je weet toch dat coreAVC niet ontwikkeld is door nvidia?Astennu schreef op vrijdag 02 oktober 2009 @ 12:38:
[...]
Tja het grappige vind ik daar van dat het niet perse op CUDA gemaakt hoeft te zijn. Het kan gewoon n OpenCL mja dan werkt het op alle kaarten en dat wil nVidia natuurlijk niet. Het zou me niets verbazen als dat CUDA over een tijdje niet meer zo belangrijk is als nu.
Dus nvidia heeft er absoluut geen "schuld" aan dat dit niet in opencl ontwikkeld is, daarvoor moet je bij het bedrijf zijn dat coreAVC ontwikkeld
* nero355 zeikt het volgende af :Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:52:
Misschien moet dit topic gerenamed worden naar ATI fanboys bashen nVidia. Het is echt buitengewoon
zielig om te lezen dat er echt alles aan gedaan wordt om Nvidea te bashen. Ja natuurlijk zijn ze niet
lekker bezig, maar dit is gewoon overdreven.
Het hele tweakers forum nivo zakt enorm, welk topic je ook komt, het is ATI en AMD.
Intel en nVidia worden in bijna elk topic afgezeken. Zou fijn zijn als de modjes dit ook eens gaan inzien,
i.p.v precies hetzelfde te doen.
- nVidia High End
- ATI Low End (HTPC class)
* nero355 vindt het volgende helemaal geweldig :
- nVidia Low End (HTPC class)
- ATI High End
Wat ben ik dan volgens jou
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Zolang ATI geen L5.1 doet = NeespNk schreef op vrijdag 02 oktober 2009 @ 15:34:
Ik gok iemand die in de toekomst ook ATi in het HTPC segment helemaal geweldig gaat vinden.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Alleen het onophoudelijk hernoemen van oude technologie en deze weer verkopen onder als "nieuw" dat voelt niet goed. Daarnaast he hele G84, G86 en G92 debakel. Het moedwillig blijven produceren van GPU's waarvan zij weten dat deze een productie fout bevatten. Reeds in 2006 heeft HP Nvidia namelijk al gewezen op deze productie fouten, alleen heeft Nvidia tot Juni 2008 glashard ontkend. In Juni/Juli 2008 heeft men toch toegegeven, maar vervolgens de consument en oem fabrikanten weer in de kou laten staan door geen oplossng te bieden. De enige oplossing welke Nvidia bied is een klein (kosten van de chip) terug betalen aan de oem fabrikanten en het advies gebruik te gaan maken van de nieuwe generatie GPU's. Dit is natuurlik geen oplossing, omdat het over het algemeen om mobile GPU's gaat welke op het moederbord zijn gesoldeerd. De vervangskosten zijn de velemalen hoger dan alleen de kosten van de GPU zelf.
Het resultaat is dat je uiteindelijk hooguit een jaar extra garantie krijgt als consument zijnde (zie de regeling van Dell). Alleen HP heeft het netjes gedaan met een aantal laptop series, hier hebben zij een nieuw moederbord met vergelijkbare ATi GPU voor ontworpen.
Al met al zijn dit heel negatieve berichten en beslissingen voor en door Nvida. Negatieve berichten blijven daarbij ook veel langer "hangen", maar deze zijn wel zo negatief dat veel mensen echt elders gaan kijken en ook negatief advies zullen blijven geven over Nvidia produkten. Persoonlijk advisieer ik dan ook op het moment geen Nvidia produkten aan klanten, kennissen of vrienden. Puur en alleen door de slechte bedrijfsvoering van Nvidia, daarbij bied ATi nu eenmaal heel goede alternatieven.
Waarom is L5.1 zo belangrijk, komt dit in officiele media terug? Ik heb namelijk ook een op ATi gebasseerde HTPC en ik speel werkelijk alles moeiteloos af met een 780G chipset en AMD Athlon X2 5050e CPU. (dit is een serieuse vraag)nero355 schreef op vrijdag 02 oktober 2009 @ 15:37:
[...]
Zolang ATI geen L5.1 doet = NeenVidia doet dat wel
Vooral als alle kaarten straks PureVideo 3 ondersteunen !!
[ Voor 10% gewijzigd door _Dune_ op 02-10-2009 17:30 ]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Verwijderd
Nvidia fakes Fermi boards at GPU Technology Conference
http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/ma ik heb nu eenmaal een nvidia bord, en een sli, en een nvidia koeler en een nvidia case
en green fans
Verwijderd
LOL, Charlie laat zich weer eens lekker gaan, maar hij heeft IMO wel gelijk, wat Nvidia heeft gedaan is toch gewoon de pers bedriegen... niet?Note 5: Thanks to Nvidia for providing such great source material for articles.
Dit past in iedergeval helemaal in de bedrijfsvoering van Nvidia, zoals ik deze hier een stuk boven ook reeds schetste. Dit geeft absoluut geen vertrouwen in de produkten.Verwijderd schreef op vrijdag 02 oktober 2009 @ 17:20:
[...]
LOL, Charlie laat zich weer eens lekker gaan, maar hij heeft IMO wel gelijk, wat Nvidia heeft gedaan is toch gewoon de pers bedriegen... niet?
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Sommige niet-officiële content (met name animaties) kunnen flink profiteren van het grotere aantal B-frame references wat L5.1 toelaat. Bij L4.1 zit je op 1080p met nog maar 4 frames (9 op 720p), L5.1 specificeert een maximum van 16 frames op 1080p._Dune_ schreef op vrijdag 02 oktober 2009 @ 16:38:
Waarom is L5.1 zo belangrijk, komt dit in officiele media terug? Ik heb namelijk ook een op ATi gebasseerde HTPC en ik speel werkelijk alles moeiteloos af met een 780G chipset en AMD Athlon X2 5050e CPU. (dit is een serieuse vraag)
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
ORNL to Use NVIDIA Fermi to Build Next Gen Super Computer
Fermi supercomptuer will be ten times more powerful than today's fastest supercomptuer
NVIDIA was at the forefront of the push to move high-performance computing from CPUs to GPUs in scientific and other areas of research. As it turns out, the GPU is a very effective tool for running calculations historically run on the CPU.
NVIDIA announced its new Fermi architecture at its GPU Technology Conference recently. The new architecture was designed from the ground up to enable a new level of supercomputing using GPUs rather than CPUs. At the conference, Oak Ridge National Laboratory (ORNL) associate lab director for Computing and Computational Sciences, Jeff Nichols, announced that ORNL would be building a next generation supercomputer using the Fermi architecture.
The new supercomputer is expected to be ten times faster than today's fastest supercomputer. Nichols said that Fermi would enable substantial scientific breakthroughs that would have been impossible without the technology.
Nichols said, "This would be the first co-processing architecture that Oak Ridge has deployed for open science, and we are extremely excited about the opportunities it creates to solve huge scientific challenges. With the help of NVIDIA technology, Oak Ridge proposes to create a computing platform that will deliver exascale computing within ten years."
ORNL also announced at the conference that it would create a Hybrid Multicore Consortium with the goal of working with developers of major scientific codes to prepare the applications for the next generation of supercomputers using GPUs.
“The first two generations of the CUDA GPU architecture enabled NVIDIA to make real in-roads into the scientific computing space, delivering dramatic performance increases across a broad spectrum of applications,” said Bill Dally, chief scientist at NVIDIA. “The ‘Fermi’ architecture is a true engine of science and with the support of national research facilities such as ORNL, the possibilities are endless.”
bron: http://www.dailytech.com/...Computer/article16401.htmAls ze dan wel maar niet de kaart gebruiken die Jen-Hsun Huang in de handen had.....
Was dit een officiele prestentatie ?_Dune_ schreef op vrijdag 02 oktober 2009 @ 17:28:
[...]
Dit past in iedergeval helemaal in de bedrijfsvoering van Nvidia, zoals ik deze hier een stuk boven ook reeds schetste. Dit geeft absoluut geen vertrouwen in de produkten.
Als het dan echt een fake is geweest, en de 'uit in 2009' mededeling op basis van ati-feestje-verpesten is gedaan door de CEO, kan je dan als aandeelhouder geen dikke claim neerleggen als die kaart in 2009 niet in de winkel ligt ?
Ze zullen er echt wel alles aan doen om in ieder geval een paar kaarten te hebben dit jaar. Dat het gros hiervan naar reviewers gaat en een paar misschien de markt betreden voor onnoemelijke prijzen doet er op zo'n moment niet toe, want de 'release' was dan alsnog in 2009.whiteguy schreef op vrijdag 02 oktober 2009 @ 18:46:
[...]
Was dit een officiele prestentatie ?
Als het dan echt een fake is geweest, en de 'uit in 2009' mededeling op basis van ati-feestje-verpesten is gedaan door de CEO, kan je dan als aandeelhouder geen dikke claim neerleggen als die kaart in 2009 niet in de winkel ligt ?
Dat de doorsnee consument hem waarschijnlijk niet voor 2010 zal kunnen kopen, is natuurlijk een ander verhaal, maar ik vrees dat nVidia daar op dit moment weinig aan zal kunnen doen.
(dit alles natuurlijk mits het niet een groot toneelstuk is en er opeens ladingen GT300's bij de leveranciers liggen)
[ Voor 7% gewijzigd door dahakon op 02-10-2009 18:54 ]
Verwijderd
is alleen maar goed voor de consument, als het nog gebeurd in 2009dahakon schreef op vrijdag 02 oktober 2009 @ 18:52:
[...]
Ze zullen er echt wel alles aan doen om in ieder geval een paar kaarten te hebben dit jaar. Dat het gros hiervan naar reviewers gaat en een paar misschien de markt betreden voor onnoemelijke prijzen doet er op zo'n moment niet toe, want de 'release' was dan alsnog in 2009.
Dat de doorsnee consument hem waarschijnlijk niet voor 2010 zal kunnen kopen, is natuurlijk een ander verhaal, maar ik vrees dat nVidia daar op dit moment weinig aan zal kunnen doen.
(dit alles natuurlijk mits het niet een groot toneelstuk is en er opeens ladingen GT300's bij de leveranciers liggen)
Nvidia confirms Fermi Tesla board is a mock-up
Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample. Some key people at Nvidia have promised to show us the picture of the real one. Stay tuned.
bron:http://www.fudzilla.com/content/view/15798/34/
[ Voor 3% gewijzigd door Paprika op 02-10-2009 22:05 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik las het net ja. Toen moest ik toch wel lachenPaprika schreef op vrijdag 02 oktober 2009 @ 22:03:Nvidia confirms Fermi Tesla board is a mock-up
bron:
Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample. Some key people at Nvidia have promised to show us the picture of the real one. Stay tuned.
http://www.fudzilla.com/content/view/15798/34/
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
@ Astennu,

[ Voor 10% gewijzigd door Paprika op 02-10-2009 22:22 ]
Als niemand het was op gevallen of als het minder duidelijk was, hadden ze waarschijnlijk gewoon blijven volhouden dat het wel Fermi was.Paprika schreef op vrijdag 02 oktober 2009 @ 22:03:Nvidia confirms Fermi Tesla board is a mock-up
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
^
Met hen
Trouwens, zat net het Fermi artikel van Anand te lezen en moet zeggen dat die chip behoorlijk impressive is.
De koers die nVidia inslaat is vanuit hun perspectief best te begrijpen, alleen ben ik bang dat het net wat te vroeg is.
Ook interessant is dat twee nVidia VP's openlijk toegeven dat ze fouten hebben gemaakt qua prijsstelling van de GT200 en op het gebied van de overstap naar een kleiner procede.
nVidia die toegeeft dat ze fouten maken, zou een betere wereld dan toch mogelijk zijn.....
Stel dat GPGPU met fermi echt een succes wordt dan zou het best kunnen dat ATI een achterstand oploopt op dit gebied. Ben benieuwd.
Overigens het is idd wel verschrikkelijk sneu dat de CEO zegt dat het een echt board is terwijl het gewoon fake is....... tsssssk
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
High end, dual and performance
Dit lijkt me een interessanter bericht.Ze willen in 1 keer 3 verschillende kaarten lanceren. Twee ervan lijken logisch, de high end (GTX380?) en de performance (GTX360?). Opvallend is dat de performancekaart gepositioneerd wordt tegenover de HD5850, als we Fuad zouden mogen geloven. In dat geval zetten ze dus laag in.
De derde kaart is de Dual Fermi, waar sommige mensen erg wild van zijn. Maar gezien de vertraging van de chip en de verwachte TDP van de high end (doel is om onder de 225Watt te blijven, of dit lukt moet nog gezien worden). Als de high end al meer dan 225Watt kan verbruiken, dan moeten ze wel heel erg gaan snijden in de GX2 versie, willen ze die onder de 300 Watt kunnen houden.
Het artikel spreekt al van minder dan 512 shader cores, wat logisch klinkt. Maar hoeveel minder zullen dat worden en op wat voor snelheid zal dit zijn. De vraag die dan ook over blijft is de volgende: Als ze flink moeten snijden in dergelijke zaken, zal de kaart dan uiteindelijk nog wel sneller kunnen zijn dan een HD5870X2?
Nvidia faces overall shortage of GT200 products that could last for more than a month, if not even two
Nvidia has been suffering from an overall shortage of GT200-based products. Partners are complaining and the fact that ATI has just launched the first 40nm DirectX 11 card doesn’t help Nvidia partners at all.
The good thing for Nvidia partners is that ATI is still far from being able to deliver enough cards due to huge demand and this doesn’t look to be solved in the next few weeks. Nvidia is also waiting for a positive market reaction after it spilled the beans of its 'GT300' Fermi-based chip and its possible market dominance. Again, the chip is not out and 5870 and 5850 are the only two DirectX 11 cards on the market. The HD 5870 is faster than any other single chip solution and it also has a future proof stamp with DirectX 11 support.
The GT200 shortage might continue to last and could simply be replaced by the shortage of Fermi, once it launches, as the demand for Fermi is expected to be unlike anything you’ve seen before. Fermi is great, but the demand from both server guys for Tesla computing and gamers due its great performance might be outstanding.
The question remains how many GPUs can Nvidia pump out and can they supply enough on time to satisfy the market.
Bron: http://www.fudzilla.com/content/view/15796/34/Tja.... best veel "aparte" berichten op fudzilla vandaag....
@ The_Mask
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen (ook als ATi dit had gedaan!).....
Typische nVidia om eerst ook nog te zeggen dat het om Fermi gaat.Jejking schreef op vrijdag 02 oktober 2009 @ 22:29:
Nu moeten ze wel met de stroom mee, tegen beter weten in volhouden heeft toch geen zin.


Waarom zou ik een bevestiging nodig hebben is toch vrij duidelijk er was van te voren al aangekondigd dat ze Fermi zouden laten zien. En tja als je het niet hebt tja dan kun je natuurlijk net doen of je het wel hebt met een fake kaart. Wat niet weet wat niet deert immers, alleen zijn de problemen nog groter als ze het juist wel weten.Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen
Maar ja was er niemand achter gekomen en hadden ze het dus wat beter gefaked, had nVidia echt niet gezegd dat het maar een fake kaart was hoor.
[ Voor 54% gewijzigd door -The_Mask- op 02-10-2009 22:41 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De GTX 280 had er 240, GTX 295 480.... Dus weer 480 zou best eens kunnen, als ze erg snel zijn.dahakon schreef op vrijdag 02 oktober 2009 @ 22:30:
Het artikel spreekt al van minder dan 512 shader cores, wat logisch klinkt. Maar hoeveel minder zullen dat worden en op wat voor snelheid zal dit zijn. De vraag die dan ook over blijft is de volgende: Als ze flink moeten snijden in dergelijke zaken, zal de kaart dan uiteindelijk nog wel sneller kunnen zijn dan een HD5870X2?
Ja ik heb die berichten ook gezien, ze kunnen net zo goed in hun site neerzeten: FudZilla Your Pro-Nvidia new site! :\Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:Nvidia faces overall shortage of GT200 products that could last for more than a month, if not even two
Bron: http://www.fudzilla.com/content/view/15796/34/
Nvidia has been suffering from an overall shortage of GT200-based products. Partners are complaining and the fact that ATI has just launched the first 40nm DirectX 11 card doesn’t help Nvidia partners at all.
The good thing for Nvidia partners is that ATI is still far from being able to deliver enough cards due to huge demand and this doesn’t look to be solved in the next few weeks. Nvidia is also waiting for a positive market reaction after it spilled the beans of its 'GT300' Fermi-based chip and its possible market dominance. Again, the chip is not out and 5870 and 5850 are the only two DirectX 11 cards on the market. The HD 5870 is faster than any other single chip solution and it also has a future proof stamp with DirectX 11 support.
The GT200 shortage might continue to last and could simply be replaced by the shortage of Fermi, once it launches, as the demand for Fermi is expected to be unlike anything you’ve seen before. Fermi is great, but the demand from both server guys for Tesla computing and gamers due its great performance might be outstanding.
The question remains how many GPUs can Nvidia pump out and can they supply enough on time to satisfy the market.
Tja.... best veel "aparte" berichten op fudzilla vandaag....
offtopic:
@ The_Mask
Ik zou dit zelf even laten bevestigen (schriftelijk, met handtekening) en er dan op los bashen (ook als ATi dit had gedaan!).....
Charme offensief om er voor te zorgen dat mensen nVidia niet geheel terzijde schuiven. Het is wel opvallend dat men eerst doodleuk verklaart dat het een echte fermi is, om vervolgens te zeggen dat het een mockup was (no shit sherlock). Wat dat aangaat moet ik het toch eens zijn met The_Mask, dat het er verdacht veel op lijkt dat nVidia er mee probeerde weg te komen.Paprika schreef op vrijdag 02 oktober 2009 @ 22:30:
Tja.... best veel "aparte" berichten op fudzilla vandaag....
Andere artikels op Fudzilla lijken ook aardig gericht op het creeeren van goodwill richting nVidia, aangaande het Batman AA verhaal, waarbij nog eens een steek naar AMD/ATI wordt gegeven voor het niet in licensie nemen van PhysX en een beetje gejammer over het pushen van DX11 bij nieuwe games.
Daarnaast is er het artikel waarin men stelt dat nVidia alleen het PC-gamen in leven heeft gehouden (ondanks dat ze DX10.1 stelselmatig hebben lopen ondermijnen en ook DX11 niet geheel en onvoorwaardelijk steunen, tot ze hun eigen DX11 kaarten hebben).
Ach beide "fronten" hebben dit soort websites.M4gick schreef op vrijdag 02 oktober 2009 @ 22:37:
[...]
Ja ik heb die berichten ook gezien, ze kunnen net zo goed in hun site neerzeten: FudZilla Your Pro-Nvidia new site! :\
Fudzilla voor de nVidia berichten, Charlie om die berichten te bashen (
Toch hoop (verwachting is iets geheel anders) ik dat nVidia snel iets klaar heeft zodat de prijzen omlaag gaan. Welke dan de beste prijs/performance heeft komt er gegarandeerd bij mij in....
@ dahakon
Paprika in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Leuk leesvoer als je daar meer over wilt
[ Voor 8% gewijzigd door Paprika op 02-10-2009 22:43 ]
Ja, ik lees fudzilla ook gewoon, gewoon om te kijken wat Nvidia ons wil laten weten. En idd, het zal leuk zijn als die kaarten snel komen, voor de prijzen, alleen ik ben bang van niet eigenlijk, wat fudzilla ook beweerd. En als ze komen zal dat december zijn, ik zie ze nu niet met een fake sample morgen de kaart uitbrengen..Paprika schreef op vrijdag 02 oktober 2009 @ 22:42:
[...]
Ach beide "fronten" hebben dit soort websites.
Fudzilla voor de nVidia berichten, Charlie om die berichten te bashen (). De nieuwtjes van dit soort websites zijn altijd wel leuk om tel ezen, omdat wanneer je beide fronten aandacht geeft, ze elkaar erg humoristisch maken en dat maakt het het lezen helemaal waard.
![]()
Toch hoop (verwachting is iets geheel anders) ik dat nVidia snel iets klaar heeft zodat de prijzen omlaag gaan. Welke dan de beste prijs/performance heeft komt er gegarandeerd bij mij in....
Maar de GTX295 liep, ondanks het kleinere procede dan dat van de GTX280, op lagere snelheden en met een kleinere geheugenbus. Aangezien de 'GTX380' en de 'GTX395' (namen even als logische mogelijkheden, geen zekerheden natuurlijk) allebei van dezelfde chip gemaakt worden, zal men wel wat meer moeten doen dan het lichtelijk verlagen van de kloksnelheid.Paprika schreef op vrijdag 02 oktober 2009 @ 22:35:
[...]
De GTX 280 had er 240, GTX 295 480.... Dus weer 480 zou best eens kunnen, als ze erg snel zijn.
Speculatie blijft dan wel weer erg leuk en nVidia zal er echt alles eraan doen om niet een product op de markt brengen dat slechter presteert dan de nieuwe ATI kaarten die er al een paar maanden eerder waren.
Hoe ze het gaan doen, voor welke prijs & of ze het echt lukt blijft natuurlijk maar de vraag.... maar er zullen de komende tijd zeker veel leuke artikelen te vinden zijn op het internet m.b.t. die vragen.
Ze zullen zeker hun best gaan doen om een dual-gpu kaart op de markt te zetten die de HD5870X2 kan verslaan. Het blijft interessant om te zien of ze het kunnen doen binnen bepaalde gestelde 'eisen', daar ik betwijfel dat ze graag een 'Asus Mars GTX285X2' type straalkachel met hoge kans op uitval product willen.Paprika schreef op vrijdag 02 oktober 2009 @ 22:47:
Hoe ze het gaan doen, voor welke prijs & of ze het echt lukt blijft natuurlijk maar de vraag.... maar er zullen de komende tijd zeker veel leuke artikelen te vinden zijn op het internet m.b.t. die vragen.
Wat nog interessanter is, is dat nVidia nu zeker is dat een single-chip oplossing zeker niet snel genoeg zal zijn om de HD5870X2 bij te houden, waardoor ze gelijk vanaf het begin ook een dual-gpu kaart in de planning hebben staan.
nVidia probeert met GPGPU een markt aan te boren waar AMD niet zo actief is. Dat is ook minder nodig omdat hun ook nog een CPU tak hebben.
En nVidia gaat er tussen in zitten. Een GPU die ook nog goed kan rekenen
AMD heeft geen dedicated DP units. Die combineert 5 alu's om een DP bewerking te kunnen doen. Dus dan kun je er 320 doen ipv 1600 SP.
[ Voor 11% gewijzigd door Astennu op 02-10-2009 23:48 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 12% gewijzigd door warp op 02-10-2009 23:52 ]
Cypress heft toch dx11 ingebakken zitten?.. dus het is hardware matig aanwezig?warp schreef op vrijdag 02 oktober 2009 @ 23:51:
Echte game kaart? Dat is ook niet helemaal waar, want om volledig DX11 compliant te zijn moeten GFX-kaarten hardwarematig Direct Compute (wat immers eveneens een vorm van GPGPU is) ondersteunen.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dat klopt. Vandaar ook dat nVidia DX11 een beetje downplayed, want dat vist in hun CUDA vijver.Xenomorphh schreef op vrijdag 02 oktober 2009 @ 23:59:
Cypress heft toch dx11 ingebakken zitten?.. dus het is hardware matig aanwezig?
En hoe kunnen ze dat dan garanderen?Paprika schreef op vrijdag 02 oktober 2009 @ 22:03:
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
Nvidia: Ja, hier is ie dan!
Charlie: Huh? Die is nep.
Nvidia: Oke, hij is nep. Maar die in de kast zat is wel echt hoor!
Zo heb je ook niet veel aan persconferenties en demo's natuurlijk...
Heeft geen speciale krachten en is daar erg boos over.
Zo'n high end kaart waarvan een pcb zo'n 8 lagen is kan je echt niet opbouwen uit modules met draaidjes, ieder lijntje naar dat geheugen moet tegenwoordig differentieel zijn om de snelheid te behalen. dus dat klinkt ook redelijk onzin. Of je pcb is goed, of niet, en dan maak je een nieuw pcb. Misschien wat voeding knutselen maar dan zijn de mogelijkheden weg. en die 6 lagen aan de binnenkant doe je ook niets meer aan....The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires a....
First of all let's say that the latest Batman title is a 'The way its meant to be played' game and that Nvidia did get some cool looking PhysX in this game. This is the first important title that got PhysX right in the game and made the experience much better than without it. This hurts ATI as they don’t have PhysX.
When it comes to anti-aliasing in the game, this is not a feature you turn on and Nvidia had to program and make it work on this title. They did it for their cards and due to the time they didn’t test if it works on ATI cards. This was ATI’s job as ATI also have a smaller developer relations team that was supposed to get AA in this game. They didn’t do it and we can only speculate on the reasons. This communication was supposed to take place between game developers and ATI, and Nvidia claims that they would not and didn’t ever prevent a developer to talk to another graphics card vendor.
So getting anti-aliasing in that game was a feature that was done by Nvidia and the company actually made the game look better. This is not something you need to apologize for and the good thing that comes from TWIMTBP is that games do look better than on consoles and this is a really important for the overall future of gaming.
ATI certainly won't apologize for getting DirectX 11 in Dirt 2, STALKER and Alien vs Predator, as they do have DirectX 11 hardware and Nvidia doesn’t. Nvidia will have it, but not in the next few weeks. We simply believe that ATI has to confront Nvidia and its TWIMTBP as these guys make a difference that hurts ATI in the long run. The more games TWIMTBP touches and more PhysX they get inside of the important titles, will generally make ATI's hardware less competitive as it can't support it.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
If it weren’t for them, PC games will look like console games
The way its meant to be played is Nvidia’s program for working with developers and its been criticized more then once, but this time Nvidia Vice President Toni Tamassi and Director of this program Ashu Rege talked about it.
They explained that some 50 developers involved in the program are working around the clock to make games look better. The big problem of computer gaming as a whole is that games are being developed for consoles and simply ported on the PC.
If they leave them like that, any given game will look like a console version of it, and since consoles are a cheaper gaming environment, gamers might just forget about a PC and migrate to console gaming. Since you have teams such as one at The way its meant to be played and since ATI has something similar but just with lesser manpower, these teams are trying to implement some fancy effects such as DirectX 10, 11 support, post processing, PhysX and many other things you can only get on DirectX 10 and 11 hardware, simply to make PC games look better.
Xbox 360 has ATI’s R500 chip inside, while Playstation 3 has RSX aka Nvidia's G70-class GPU inside and both these are stuck with DirectX 9 and cannot do anything better than that.
So if you want DirectX 10, 11, Anti-aliasing, Shader model 4 or 5 effects, hardware tessellation, PhysX effects, the work of at least 50 engineers at Nvidia makes things look better. You should not criticized them and we should actually thank them for it, and if Nvidia would not do this, the PC games could become an endangered species.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Veel dubieuze praktijken bij nVidia, het rebrandingverhaal neem ik ze zeer kwalijk omdat de gemiddelde (achterlijke) consument zich dezelfde tech aan laat smeren (of de nieuwe HybridPower erin stopt en daarna er weer snel uithaalt) onder het motto dat het het nieuwste lijkt. Sja... bedrijfstechnisch misschien een geniale oplossing alleen: je naamgeving wordt een zooitje en je dupeert klanten.
Edit: oh ja... TWIMTBP is de reddende engel van de pc-gamewereld, zo lust ik er nog wel een paar

Dat programma zorgt er enkel voor dat enkele codemensen van nV inzage hebben in de engine en daar aan mogen sleutelen, gevolg: reclame voor nVidia en de kans is groot dat het beter loopt op nV hardware. Nou, woehoe. Ze schetsen een lichtelijk rooskleurig beeld van de situatie.
[ Voor 23% gewijzigd door Jejking op 03-10-2009 01:58 ]
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Verwijderd
zelfs als ze een AA algoritme gebruikten die alleen op nvidia kaarten werkt zou het niet veel moeite kosten om standaard directx 9 AA te laten werkenHey guys. I'm a graphics programmer. This is how hard it is to enable 4x multi-sample anti-aliasing in Direct3D 9, assuming the hardware supports it and has enough VRAM for the extra memory required for the depth buffer samples:
D3DPRESENT_PARAMETER parameters;
ZeroMemory(¶meters, sizeof(parameters));
parameters.Windowed = FALSE;
parameters.SwapEffect = D3DSWAPEFFECT_DISCARD;
parameters.MultiSampleType = D3DMULTISAMPLE_4_SAMPLES;
pD3D->CreateDevice(D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL, hWnd, D3DCREATE_HARDWARE_VERTEXPROCESSING, ¶meters, &d3dDevice);
The key here is using a full screen mode (non-windowed), with the back buffers set to discard on present (so it doesn't eat up a ton of memory), and the multi-sample type being set the desired number of samples or D3DMULTISAMPLE_NONE to disable MSAA.
There are no nVidia specific flags involved here at all. You do want to make sure the GPU has enough VRAM though and enough memory bandwidth, depending on what you're using the rest of the GPU's resources for, otherwise performance will suffer.
And it's pretty much the same process for Direct3D 10, Direct3D 11, and there's some similarities here too with OpenGL's GL_ARB_multisample extension. It's not hard to do.
This is a simplified example, there's a lot more that goes into configuring a graphics device for rendering in game engines, but the actual act of enabling MSAA is relatively simple. It should also be noted that MSAA doesn't work well with multiple render targets (MRTs) in Direct3D 9. So if you're doing deferred shading/lighting, you may have to turn off MSAA and do some gaussian blurs in the pixel shader to fake anti-aliasing. Direct3D 10 and Direct3D 11 don't have this limitation, you can use MSAA and MRTs in tandem.
[ Voor 3% gewijzigd door Verwijderd op 03-10-2009 02:29 ]
Nee, maar dan zo gaan sleutelen dat als jij ATI hardware hebt, dat de prestatie bewust gedrukt wordt(PhysX op 1 core) vind ik dan wel zonde, en een schande. Blijkbaar moet Nvidia dan zo maar winnen, in plaats van met goede hardware te komenIllidan schreef op zaterdag 03 oktober 2009 @ 02:27:
Sorry maar dat is onzinnig. Als er een game ontwikkeld wordt wil ik juist als toekomstige koper dat het goed loopt op mijn hardware. Dus als de hardware fabrikanten daar een actieve rol in spelen komt dat de game alleen ten goede. Dus ja, sleutel maar raak denk ik: maak het sneller, mooier, beter. Sinds wanneer is dat een zonde?? Dat het niet even goed loopt op ALLE hardware, dat is een gegeven voor alle hardware en software combinaties. Lees het stuk van van nV over Batman goed: LoL: verwacht je echt dat nV een game moet testen op ATI kaarten? "This was ATI's job". Indeed it was. Straks ga je me nog vertellen dat Intel software moet helpen testen voor AMD.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Geen goeie hardware?Darkasantion schreef op zaterdag 03 oktober 2009 @ 09:15:
[...]
Nee, maar dan zo gaan sleutelen dat als jij ATI hardware hebt, dat de prestatie bewust gedrukt wordt(PhysX op 1 core) vind ik dan wel zonde, en een schande. Blijkbaar moet Nvidia dan zo maar winnen, in plaats van met goede hardware te komen. Zeker ATI moet ook werken aan hun drivers voor games, en hier support bij geven. Maar de "support" van Nividia vind ik maar dubbel. Ja het wordt mooier/sneller en better, maar als jij geen Nvidia kaart hebt, wordt je prestatie gewoon verneukt, en dan niet omdat dat ATI niet een game getest heeft.
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub
[ Voor 13% gewijzigd door Xenomorphh op 03-10-2009 09:30 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dat is dus het hele punt. NVidia heeft veel geld gepompt in de de development, wat op zich goed kan zijn. Alleen hebben ze te vaak hun eisen erbij doorheengedrukt, die vaak niets te doen hadden met het verbeteren van de gamesmarkt voor de PC.Illidan schreef op zaterdag 03 oktober 2009 @ 02:27:
Sorry maar dat is onzinnig. Als er een game ontwikkeld wordt wil ik juist als toekomstige koper dat het goed loopt op mijn hardware. Dus als de hardware fabrikanten daar een actieve rol in spelen komt dat de game alleen ten goede. Dus ja, sleutel maar raak denk ik: maak het sneller, mooier, beter. Sinds wanneer is dat een zonde?? Dat het niet even goed loopt op ALLE hardware, dat is een gegeven voor alle hardware en software combinaties. Lees het stuk van van nV over Batman goed: LoL: verwacht je echt dat nV een game moet testen op ATI kaarten? "This was ATI's job". Indeed it was. Straks ga je me nog vertellen dat Intel software moet helpen testen voor AMD.
Batman's PhysX blijkt bv ook goed via de CPU te draaien (net als de meeste PhysX dat doet), als je het spel daarvoor patched met een hack. De keuze van nVidia was dus niet de gamer of de markt, maar eigen hardware.
DX10.1 werkte prima in Assassins Creed, maar werd verwijderd, omdat er schijnbaar ergens wat bugs waren. Of gewoon omdat AMD's hardware er teveel profijt van had. Wederom een keuze niet voor de markt, maar voor eigen hardware.
In zijn algemeenheid geen DX10.1 ondersteunen totdat DX11 eigenlijk al een feit is, is niet vooruitstrevend of denken aan de markt.
Het is hardstikke goed dat nVidia ontwikkelaars ondersteunt, maar ze hebben de laatste jaren veel te weinig gedaan in hardware-opzicht om te kunnen stellen dat PC-gaming door hen overleeft heeft. Na het succes van de G80 heeft het hardware-gedeelte amper nog aandacht gekregen.
Wat dat aangaat denk ik dat AMD het iets beter doet door juist open platformen te steunen en de hardwareconcurent niet stelselmatig 'uit te sluiten'.
De GT200 is geen slechte hardware, maar dat heeft met name te maken met het feit dat het eigenlijk gewoon een schaalvergroting is van de G80. De GTX280 is inderdaad in de meeste games behoorlijk sneller dan de HD4870, maar als je kijkt naar de refreshes, dan is de GTX285 amper sneller dan de HD4890 (zeker wanneer de prijs erbij komt), feitenlijk niets sneller dan de HD4890 1GHz en gaan de HD4870X2 en GTX295 (waar we een half jaar en een dieshrink op hebben moeten wachten) vrijwel gelijk op in de hoge resoluties (waar je zo'n kaart voor koopt) wanneer er geen scaling-problemen zijn. Als een game dan ook nog eens DX10.1 ondersteunt, werkt dit in het voordeel van AMD.Xenomorphh schreef op zaterdag 03 oktober 2009 @ 09:29:
Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub
[ Voor 19% gewijzigd door dahakon op 03-10-2009 09:52 ]
Dan: "nVidia is fantastisch omdat ze DX 11 pushen";Illidan schreef op zaterdag 03 oktober 2009 @ 01:40:
ATI certainly won't apologize for getting DirectX 11 in Dirt 2, STALKER and Alien vs Predator, as they do have DirectX 11 hardware and Nvidia doesn’t.
En dan vergeten we even het Assassin's Creed DX 10.1 debakel.Illidan schreef op zaterdag 03 oktober 2009 @ 01:54:
So if you want DirectX 10, 11, Anti-aliasing, Shader model 4 or 5 effects, hardware tessellation, PhysX effects, the work of at least 50 engineers at Nvidia makes things look better. You should not criticized them and we should actually thank them for it, and if Nvidia would not do this, the PC games could become an endangered species.
Was meer een kleine knipoog naar hef feit dat Nvidia heel veel rebrands heeft. De hardware is zeker goed, laat daar geen twijfel over zijn, bepaalde chips gaan al 3 jaar mee en doen het nog steeds goed, hoewel met steeds andere namenXenomorphh schreef op zaterdag 03 oktober 2009 @ 09:29:
[...]
Geen goeie hardware?
als dat rebranden allemaal zon ramp is hoe komt het dan dat de gt200 stukken meer power heeft als de HD4xxx die heeft tenslotte nieuwe architectuur enz. niet zo pro ati aub
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt. Zoals gezegd is, als ATI niet test en nV wel, kun je moeilijk nV hiervan de schuld geven. Zij doen hun huiswerk tenminste. En als PhysX beter draait op gpu dan op cpu, dan lijkt het me een makkelijke keuze voor de game dev. En dan achteraf dat gemiep uiteraard waarom het niet door de cpu wordt opgepakt. Waarom wel? Daar heb je de (juiste) gpu voor (of juist niet, in dat geval pech gehad. Waar de ene game geoptimaliseerd is voor hardware A zal dat bij andere games precies andersom zijn). Voor de duidelijkheid: bij het ontwikkelen van een game hoeft het uitgangspunt helemaal niet te zijn dat het op ALLE hardware even goed draait. Het lijkt erop dat sommigen daarvan uit gaan, maar dat is gelukkig niet zo, dat zou een strop betekenen voor hardware en software vernieuwing omdat je met alles en iedereen rekening moet houden.dahakon schreef op zaterdag 03 oktober 2009 @ 09:36:
[...]
Dat is dus het hele punt. NVidia heeft veel geld gepompt in de de development, wat op zich goed kan zijn. Alleen hebben ze te vaak hun eisen erbij doorheengedrukt, die vaak niets te doen hadden met het verbeteren van de gamesmarkt voor de PC.
Batman's PhysX blijkt bv ook goed via de CPU te draaien (net als de meeste PhysX dat doet), als je het spel daarvoor patched met een hack. De keuze van nVidia was dus niet de gamer of de markt, maar eigen hardware.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
*kuch* G80Darkasantion schreef op zaterdag 03 oktober 2009 @ 10:14:
De hardware is zeker goed, laat daar geen twijfel over zijn, bepaalde chips gaan al 3 jaar mee
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt
[ Voor 50% gewijzigd door -The_Mask- op 03-10-2009 10:47 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als nVidia er een heel groot bedrag inpompt zal het voor een game developer lastig/moeilijker zijn nee te zeggen.Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt.
Dus een game developer heeft wel een keuze, maar als bijvoorbeeld 50% van de totale kosten die gemaakt worden betaald worden door nV, dan zegt "niemand" nee/ kan het heel verleidelijk zijn voor een gamedeveloper. Edit; en dat zou het wat mij betreft gerechtvaardigd zijn, als nV zijnde, te eisen dat er "restricties" komen voor andere hardware. Als een gamedev daarmee accoord is, wie zijn wij dan om ons daar druk om te maken? Het is net zo goed de gamedev die hieraan meewerkt.
Batman is natuurlijk een uitgelezen mogelijkheid voor nV om PhysX "op te hypen/pushen". En dat lukt ze bij sommige mensen aardig. Edit; ik speel het zonder PhysX, en ik vind de game vermakelijk genoeg. Die PhysX zullen mij een worst zijn.
Ik vind er op zich ook niks mis mee.
ATi heeft geen PhysX. Jammer dan. nV heeft geen DX10.1. Ook jammer. Voor mensen met een nV kaart. Die hebben minder performance in een paar games, en ATi gamers hebben geen PhysX in een paar games.
Ik lig er niet wakker van.
[ Voor 20% gewijzigd door Format-C op 03-10-2009 11:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Of PhysX beter draait op GPU dan CPU, wel, dat hangt waarschijnlijk vooral af van de hoeveelheid PhysX toegepast. Maar als je CPU slechts uit zijn neus loopt te eten tijdens een spel en je kunt er blijkbaar wel de PhysX over laten draaien zonder dat de CPU volledig belast wordt, dan kun je je afvragen wat de preciese bedoeling is geweest.
Verder is PhysX natuurlijk bij lange na niet de enige physics-engine beschikbaar. Maar goed, AMD heeft zijn huiswerk ook gedaan, dit door de nieuwste standaarden te ondersteunen, door open engines te pushen en doordat hun DX11 hardware al langere tijd beschikbaar is voor ontwikkelaars. Verder hoeft een spel natuurlijk niet even goed te draaien op alle hardware, is nooit zo geweest en zal waarschijnlijk ook nooit zo zijn.
In ieder geval hoop ik persoonlijk dat developers overstappen op meer open physics in de toekomst, die via OpenCL over de GPU aanspreekbaar zijn. Dat is namelijk actief dingen verbeteren voor PC-gaming.
Het is ook niet zo dat je met alle hardware rekening moet houden, en ook niet persee met hardware van je overburen. Maar wat hij zegt is dat als ze Physx zo graag overal in willen implanteren doe dat dan niet alleen op je nvidia kaarten maar geef die optie ook gewoon aan ati kaarten, al is het op de processor. Maar wat ik lees is het zo dat ze Physx maar op 1 core activeren, waarom niet gewoon multitreaded maken als ze dan zo vooruitstrevend willen zijn.Illidan schreef op zaterdag 03 oktober 2009 @ 10:41:
[...]
Dat is onjuist, het is uiteindelijk de keuze van de Game developer en/of de uitgever, die hebben het laatste woord. Het is niet nV die die game uitbrengt. Zoals gezegd is, als ATI niet test en nV wel, kun je moeilijk nV hiervan de schuld geven. Zij doen hun huiswerk tenminste. En als PhysX beter draait op gpu dan op cpu, dan lijkt het me een makkelijke keuze voor de game dev. En dan achteraf dat gemiep uiteraard waarom het niet door de cpu wordt opgepakt. Waarom wel? Daar heb je de (juiste) gpu voor (of juist niet, in dat geval pech gehad. Waar de ene game geoptimaliseerd is voor hardware A zal dat bij andere games precies andersom zijn). Voor de duidelijkheid: bij het ontwikkelen van een game hoeft het uitgangspunt helemaal niet te zijn dat het op ALLE hardware even goed draait. Het lijkt erop dat sommigen daarvan uit gaan, maar dat is gelukkig niet zo, dat zou een strop betekenen voor hardware en software vernieuwing omdat je met alles en iedereen rekening moet houden.
Ik ben nieuw in dit topic en zal gelijk mijn standpunt even duidelijk maken.
Ik ben altijd al voor ati geweest, ik kan niet echt zeggen waarom. Ik kan echter wel gewoon buiten mijn ati standpunt om beoordelen (denk ik

Daarbij komt dat de SLI licenties gewoon onzin waren en dat het gewoon een stukje geprogrammeerde code was. (ik weet niet of ati iets vergelijkbaars heeft of niet maar toch)
Dan kom ik bij de rebranding, Tuurlijk het blijven over het algemeen goede kaarten, vooral high-end. Maar als je moet gaan rebranden zonder met iets nieuws te komen dan zit dat toch niet helemaal goed of wel soms??
Laat staan die stunt van donderdag met die fake kaart. Dan kan je nog beter gewoon toegeven dat je nog niet klaar bent. Je weet toch dat er mensen zijn die niet gelijk geloven dat dat een werkende kaart was. En die beter gaan kijken, waarna blijkt dat het wel een fake moet zijn. Tevens hun reactie. Buiten dat je nooit een printplaat van tegenwoordig na kan maken met draadjes. Hoe wil je in gods naam dat ding gaan koelen als hij helemaal onder de draadjes zit.
Ja, ati heeft ook niet alles koek en ei. De kaart zou in eerste instantie beter moeten presteren als dat uit de benchmarks kwam, maar daar tegen over staat dat er veel meer in de kaart zit als wat we nu zien, en de drivers voor de oude kaarten geoptimaliseerd zijn, en ze aan deze drivers nog maar net begonnen zijn.
Daarbij zijn de levertijden ruk, maar die komt binnenkort wel op gang.
Al met al is nvidia gewoon heel erg bezig om alleen maar zichzelf boven ati te werken, en dan niet door hardware, maar door allemaal lastige trucjes. Waar ati probeert om open standaarden door te voeren, en die ook toegankelijk maakt voor nvidia.
Ik blijf bij ati voorlopig
(dit is trouwens niet een post om een ati/nvidia-boy discussie te beginnen.)
Dan nog ligt de fout bij de developer en publisher die het spel als gelijkwaardig op alle hardware verkopen en niet bij nVidia. Het is best dat Batman:AA een nVidia techdemo is geworden op de pc, maar dan heb je dat als publisher duidelijk te maken en niet de eerst de volle mep voor het spel vangen waarna achteraf blijkt dat de volledige ervaring alleen op bepaalde hardware te beleven is.-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
TWIMTBP is een keuze voor developers tussen onafhankelijk een spel ontwerpen of een zak centjes ontvangen en de optimalisaties slechts voor èèn bepaald merk doen en misschien zelfs logische optimalisaties die voor het andere merk voordelig zouden uitpakken achterwege te laten.
Je kan het nVidia niet kwalijk nemen dat ze proberen om de softwarekant te beïnvloeden in hun voordeel.
Je kan het de developers and publishers wel kwalijk nemen dat ze erin meegaan.
1. dat is speculatie.-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
[...]
*kuch* G80
[...]
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
2. als dat zo is ligt de bal nu bij ATI en bij niemand anders: die moeten in dat geval zowel game dev's als nV voor de rechter slepen vanwege ongeoorloofde afspraken. Ik vermoed dat ATI dat niet doet omdat het een onzinnige stelling is. Wat nV doet is ervoor zorgen dat de game op hun hardware zo goed mogelijk draait. Hoe het op andere hardware draait is nV's zaak niet.
3. dit alles neemt niet weg dat ATI beter moet testen. En zelfs dan:
4. ATI en anderen moeten niet op de stoel van de game dev gaan zitten. Want dat zie je vaak gebeuren, dat mensen maar roepen hoe een game wel of niet ontwikkeld moet worden. Amehoela. Als software ontwikkelaar bepaal je dat gelukkig zelf.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Wat betreft de andere punten lees de berichten boven die van jouw nog maar eens.
Voor mobo fabrikanten die SLi op hun X58 chipset willen hebben met $5 worden betaald, voor CrossFireX hoeft niks te worden betaald.Marce schreef op zaterdag 03 oktober 2009 @ 11:00:
Daarbij komt dat de SLI licenties gewoon onzin waren en dat het gewoon een stukje geprogrammeerde code was. (ik weet niet of ati iets vergelijkbaars heeft of niet maar toch)
[ Voor 61% gewijzigd door -The_Mask- op 03-10-2009 11:11 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat nVidia op de stoel van de gamedevs gaat zitten om te vertellen hoe het moet werd daarstraks nog bejubeld (en ook in het verhaaltje van Fudzilla).Illidan schreef op zaterdag 03 oktober 2009 @ 11:01:
4. ATI en anderen moeten niet op de stoel van de game dev gaan zitten. Want dat zie je vaak gebeuren, dat mensen maar roepen hoe een game wel of niet ontwikkeld moet worden. Amehoela. Als software ontwikkelaar bepaal je dat gelukkig zelf.
Dat is uiteindelijk ook waar het om draait. NVidia laat door middel van Fudzilla weten hoe belangrijk zij zijn geweest voor het voortleven van PC-gaming. Nu de bal echter bij AMD ligt, gezien de voorsprong met DX11 hardware, is het opeens fout dat AMD DX11 bij de ontwikkelaars 'doordrukt', omdat nVidia nog geen DX11 hardware kan leveren. Waarom geldt dat punt dan niet met betrekking tot PhysX?
Het is eigenlijk nog gekker, daar het nVidia vrij staat om een DX11 kaart te maken, maar AMD niet zomaar een PhysX-ondersteunende videokaart/driver kan maken, zonder ervoor te betalen en vervolgens hopende dat CUDA een beetje mee wil werken met AMD-hardware.
Waarbij even goed presteren zonder enige hulp vaak betekent: presteert bagger op Nvidia én ATI kaarten. Saints Row 2 anyone? Als ATI wil dat games goed presteren op hun hardware, dan kunnen ook zij meer ondersteuning bieden aan developers. Het is echt niet zo dat een game developer expres het slechter laat draaien op ATI kaarten. Als je echter een deadline hebt om je spel te verschepen, en je krijgt geen hulp van AMD, tsja, dan kan je iets minder optimalisaties doen specifiek voor ATI kaarten.-The_Mask- schreef op zaterdag 03 oktober 2009 @ 10:45:
[...]
*kuch* G80
[...]
Klopt, maar ja wat zou jij doen je krijgt een paar zakken goud om er voor te zorgen dat ATi kaarten bagger draaien en nVidia kaarten goed. Of je krijgt niks en laat ze even goed presteren.
Wordt de game sneller? check.
Krijg ik als game dev extra testers erbij? check.
Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Wordt de game dus beter? check
Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check
Het is een keuze van de game dev, die ze gelukkig zelf mogen maken. Dit is volledig legitieme bedrijfsvoering die er ook nog eens in resulteert dat de kwaliteit van het product potentieel omhoog gaat. Marktwerking doet de rest.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
SR2 was een halfhartige port, dat die zo slecht draaide was enkel omdat het budget en de tijd genomen voor de port totaal niet toereikend waren. Wil je beweren dat pc hardware fabrikanten nu centjes richting developers moeten gooien om zelfs maar een fatsoenlijke port te krijgen?Mr.Chinchilla schreef op zaterdag 03 oktober 2009 @ 11:13:
[...]
Waarbij even goed presteren zonder enige hulp vaak betekent: presteert bagger op Nvidia én ATI kaarten. Saints Row 2 anyone?
Van programma's als TWIMTBP verwacht ik dat spellen die al fatsoenlijk draaien dankzij speciale optimalisaties opeens dingen doen die je op de hardware niet voor mogelijk had gehouden. Niet dat een baggerport met plijsters behangen wordt om het speelbaar te maken.
O? Volgens mij valt dat soms best tegen hoor. Logo erin plempen en klaar. Er waren geloof ik zelfs spellen met TWIMTBP die niet goed werkten op NVidia (kan iemand me vertellen welk spel dat ook alweer was? Of heb ik dat gedroomd?Illidan schreef op zaterdag 03 oktober 2009 @ 11:21:
Wordt de game sneller? check.
Als DX10.1 per sè eruit gesloopt moet worden? Nee. Het is NVidia toch te doen om de reclame hoor.Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Zie bovenstaand punt.Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check
[ Voor 5% gewijzigd door bwerg op 03-10-2009 11:32 ]
Heeft geen speciale krachten en is daar erg boos over.
TWIMTBP is misschien begonnen als een initiatief om het voor developers mogelijk te maken efficiëntere code voor nVidia hardware te schrijven dan zonder TWIMTBP mogelijk was geweest, maar het lijkt de laatste tijd meer "steentjes in de radertjes gooien als een systeem Ati draait" te zijn geworden.Illidan schreef op zaterdag 03 oktober 2009 @ 11:21:
Waarom is het kwalijk als dev's en publishers meedoen aan TWIMTBP (of soortgelijke tegenhangers)? LoL.
Daar heb je gelijk in en omdat Ati nu flink marktaandeel aan het veroveren is zal een developer meer geneigd zijn om hun software voor Ati EN nVidia kaarten te optimaliseren.Marktwerking doet de rest.
Uitgaande van de TWIMTBP titels:Illidan schreef op zaterdag 03 oktober 2009 @ 11:21:
Waarom is het kwalijk als dev's en publishers meedoen aan TWIMTBP (of soortgelijke tegenhangers)? LoL.
Wordt de game sneller? check.
Krijg ik als game dev extra testers erbij? check.
Krijg ik de kans om de game visueel naar een nog hoger niveau te tillen? check
Wordt de game dus beter? check
Kan ik de game op de markt zetten met in ieder geval de garantie dat het op bepaalde hardeware uitvoerig is getest en goed loopt? check
Punt 1: geen DX10.1, dus had sneller gekunt.
Punt 2: zeer zeker mogelijk, al zal het afhangen van de deal
Punt 3: wederom geen DX10.1, dus had mooier gekunt.
Punt 4: de game had dus weldegelijk nog beter gekunt.
Punt 5: wanneer je volgens de DirectX guidelines je spel maakt en de hardware-fabrikanten optijd driver-optimalisaties laat maken, dan draait het bij launch fatsoenlijk op elke hardware (uitgaande dat ze niet een totaal brakke engine gebruiken of een extreem slechte port neerzetten).
Maar goed, ik ben benieuwd of deze steun aan TWIMTBP achtige zaken ook blijft staan wanneer sommige GITG titels niet zo heel erg goed draaien op nVidia-hardware (door bv het ontbreken van DX10.1 ondersteuning).
Uhhh? Lees het laatste: marktwerking doet de rest. Ik geef alleen wat voorbeelden van enkele overwegingen die game dev's kunnen en mogen maken om mee te doen aan het programma. Als eea niet uitpakt, en dat kan natuurlijk altijd, doet de markt de rest: game wordt slecht ontvangen, nog slechter verkocht, er komt geen vervolg op die game. En als er wel een vervolg komt, moet het niveau van dit vervolg omhoog. En dit soort missers, het mag niet te vaak gebeuren want dan vind er een soort inflatie plaats m.b.t. tot TWIMTBP, m.a.g. nog minder vertrouwen in dit soort games, nog minder game dev's die hiervoor zullen kiezen, ga zo maar door. Normale marktwerking dus.bwerg schreef op zaterdag 03 oktober 2009 @ 11:30:
[...]
O? Volgens mij valt dat soms best tegen hoor. Logo erin plempen en klaar. Er waren geloof ik zelfs spellen met TWIMTBP die niet goed werkten op NVidia (kan iemand me vertellen welk spel dat ook alweer was? Of heb ik dat gedroomd?)
[...]
Als DX10.1 per sè eruit gesloopt moet worden? Nee. Het is NVidia toch te doen om de reclame hoor.
[...]
Zie bovenstaand punt.
En het gebrek aan DX10.1 doet niks af van de keuze die een game dev maakt, als ze moeten kiezen tussen een game bouwen in hun uppie, of met behulp van nV maar dan zonder DX10.1, tja makkelijke keuze volgens mij.
[ Voor 8% gewijzigd door Illidan op 03-10-2009 11:49 ]
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Eerst zou de hulp betere games brengt, maar vervolgens stel je nu dat ze liever hulp krijgen dan dat ze 'een betere game' kunnen maken, terwijl DX10.1 juist zoveel gemakkelijker ontwikkelt dan DX10.Illidan schreef op zaterdag 03 oktober 2009 @ 11:40:
En het gebrek aan DX10.1 doet niks af van de keuze die een game dev maakt, als ze moeten kiezen tussen een game bouwen in hun uppie, of met behulp van nV maar dan zonder DX10.1, tja makkelijke keuze volgens mij.

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Niet als ze de game-ontwikkelaar ermee sponsorrenIllidan schreef op zaterdag 03 oktober 2009 @ 12:02:
Games worden ook beter met TWIMTBP, dat is het bestaansrecht van dit programma. Als dat niet zo was, dan was het nu wel weer opgedoekt, dat is de marktwerking.
[ Voor 9% gewijzigd door bwerg op 03-10-2009 12:16 ]
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Als als jouw favoriete games TWIMTBP titels zijn koop je een nVidia kaart. Ik zie daar het probleem niet van in?
First of all let's say that the latest Batman title is a 'The way its meant to be played' game and that Nvidia did get some cool looking PhysX in this game. This is the first important title that got PhysX right in the game and made the experience much better than without it.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Want als een groep modders het voor elkaar kunnen krijgen, dan kan het slechts betekenen dat of de ontwikkelaars van de studio inclusief de ontwikkelaars van nVidia samen erg belabberde ontwikkelaars zijn, of dat ze er bewust voor hebben gekozen om, ondankst dat het prima over de CPU kan draaien, het over de GPU te laten draaien.
Op zo'n moment denk je niet aan de PC-gaming markt, maar aan de afzet van je eigen product.
(daarbij zal ik niet zeggen dat nVidia dit niet mag doen, maar het zet het Fud-artikel dat nVidia de reddende engel is van PC-gaming wel in een wat vreemd daglicht)
[ Voor 9% gewijzigd door dahakon op 03-10-2009 12:39 ]
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Dit topic is gesloten.