Miss you CJ....:'( en nee... ik kan niet aan samples komen
Boze PBEdmin schreef op maandag 17 augustus 2009 @ 17:39:
neliz, waarom heb je dat bericht ingetrokken? Niet waar of gevoelig?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 134818
aah, nou het was wel interessant. Maar ik hoop nog steeds dat ze het niet doen. Daarbij vind ik het ook lame om maar AMD/ATI's feestje te verstoren. Wees dan een man en onderga het.
Houd eens op met de afkortingen.
Packard Bell
Zijn dus meer mensen die het niet weten anders had ik allang een antwoord.
[ Voor 24% gewijzigd door -The_Mask- op 17-08-2009 19:03 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Prive Bericht-The_Mask- schreef op maandag 17 augustus 2009 @ 18:58:
[...]
Houd eens op met de afkortingen.![]()
Packard BellPunkBuster
Prison Break
Playboy
Petabyte
Zijn dus meer mensen die het niet weten anders had ik allang een antwoord.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
lijkt mij ook niet slim.neliz schreef op maandag 17 augustus 2009 @ 11:52:
[...]
nVidia komt met een gelimiteerde productie van de laatste tape-out.
Werkt alleen als je (zeker) weet dat ze beter zijn dan de ATI Evergreen's.....
Laat me raden, jij was de verzender....
[ Voor 23% gewijzigd door Help!!!! op 17-08-2009 19:12 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
No Sir, wacht nog maar even.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 134818
CJ? Nee die zou dat juist met een paar dikke koppen en wat extra smilies overal met plezier neer zetten denk ik
Anoniem: 304087
het afwachten is en tot die tijd kun je nog niets zeggen.
Zelfde ged voor amd
Als het bij "hun" weg komt is het meestal eerder inside information.Anoniem: 304087 schreef op maandag 17 augustus 2009 @ 19:47:
Allemaal speculaties
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
waar is wat ze zeggen
[ Voor 20% gewijzigd door Anoniem: 304087 op 17-08-2009 19:51 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
Denk eerder dat degene anoniem wil blijven.Edmin schreef op maandag 17 augustus 2009 @ 20:45:
Ach, een boze PB wil toch wel wat zeggen lijkt me? Mensen kunnen het oha niet hebben als je de vinger op de zere plek legt...
Als het CJ niet was maar een andere Nederlander blijft er naar mijn weten maar één bron over.neliz schreef op maandag 17 augustus 2009 @ 19:32:
No Sir, wacht nog maar even.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ben nu heel erg nieuwsgierig geworden naar de inhoud van het bericht en waar jullie het over hebben
Staat morgen of zo waarschijnlijk wel op Fudzilla als feit en anders die dag daarna op SA en lekker aangedikt door Charlie.EdwardvGelder schreef op maandag 17 augustus 2009 @ 21:45:
Ik ben nu heel erg nieuwsgierig geworden naar de inhoud van het bericht en waar jullie het over hebben
Review van de Asus GTX285 Matrix op Madshrimps.
Review van de Asus GTX285 Matrix op Hardware.net
Hardware.net heeft een beetje last van een CPU bottleneck.
[ Voor 15% gewijzigd door -The_Mask- op 17-08-2009 23:21 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
I have already talked about how much I enjoy new operating system releases but to be honest with you I enjoy the hype that leads up to and following any product launch.
Since we have word that ATi/AMD is launching Evergreen in September we need a new rumor about nVidia. Well we have one. According to a few sources we hear that nVidia will be pushing out a dual GT300 card. This will be a direct competitor to ATI's planned dual RV870 card.
There is not much information to go on other than what we already know about the GT300. The big thing to ask will be what form factor will this be. Traditionally nVidia has chosen to implement dual cards with a dual PCB solution. However recently nVidia allowed for a single PCB design that worked very well.
Since we know that GT300 has taped out and might be in at least preproduction silicone (called A1) it is possible that we will see this card before the end of the year in at least demo form but it is unlikely that it will hit the retail shelves before q1-q2 2010.
Bron: TweakTown
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Intel Core 2 Extreme X6800 mit 3,33 GHz-The_Mask- schreef op maandag 17 augustus 2009 @ 21:53:
[...]
Hardware.net heeft een beetje last van een CPU bottleneck.

Nvidia works on 28nm GPUs
40nm, 32nm and 28nm
When we asked Jensen about Globalfoundries, the big man from Nvidia said that Nvidia likes to work with companies that are customer centric. Since TSMC has 200 customers its kind of hard to be in center of attention, while such a thing might be possible with some alternative fab companies, such as Globalfoundies.
During our conversation it came up that Nvidia would soon have to pick a fab in order to be able to start designing 28nm GPUs that should come in two years from now, or even a bit later. Globalfoundries might be the one, but this won’t be confirmed for quite some time.
Jensen also hinted that there might be 32nm process that should appear in-between the current 40nm and future 28nm process.
The future of GPUs is quite clear, at least in one way. You can always expect more transistors and a smaller manufacturing process.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
(en de mods niet)
En daarna moest ik het van boze mensen weghalen
http://www.semiaccurate.c...18/nvidia-takes-huge-risk
NVIDIA KEEPS HOWLING that it will have GT300 out this year, so we did a little digging on the topic. All you can say is that it seems willing to fritter away large swaths of its and TSMC's cash to meet a PR goal.
While it is not rushable, you can do some of it in parallel, and that uses what are called risk wafers. Those wafers are put in at the same time the first silicon hot lots are, so they have been in the oven about 2 weeks now. Just before the final layers are put on, the risk wafers are parked, unfinished, off to the side of the TSMC line.
The idea is that with the hot lots, Nvidia gets cards back and debugs them. Any changes that are necessary can hopefully be retrofitted to the risk wafers, and then they are finalized. Basically, the risk wafers are a bet that there won't be anything major wrong with the GT300 design, in that any changes are minor enough to be literally patched over.
Risk wafers are called risk wafers for a reason. If you do need to make a change big enough, say a metal layer spin, the risk wafers are then what are called scrap wafers. You need to make damn sure your design is perfect, or nearly perfect, before you risk it. Given Nvidia's abysmal execution recently, that is one gutsy move.
[ Voor 88% gewijzigd door neliz op 19-08-2009 01:29 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087
nvidia zal deze chip toch wel eerst zelf testen en is al gestest voor zo ver ik weet.
We zullen zien wat er gebeurd maar ik denk net zo als met de gt200 series
en dat was voor mij een goede aankoop. Ik wil echte tests zien

[ Voor 12% gewijzigd door Anoniem: 304087 op 19-08-2009 09:07 ]
Ik denk dat je het niet helemaal goed gelezen hebt, of niet begrepen hebt.Anoniem: 304087 schreef op woensdag 19 augustus 2009 @ 09:05:
Als deze chip op de markt komt zal hij ok echt wel goed zijn werk doen,
nvidia zal deze chip toch wel eerst zelf testen en is al gestest voor zo ver ik weet.
We zullen zien wat er gebeurd maar ik denk net zo als met de gt200 series
en dat was voor mij een goede aankoop. Ik wil echte tests zien
Normaal heb je een lading wafers (9000 als genoemd aantal in dit artikel) die half afgebakken zijn en daarna opzij gelegd worden om afgemaakt te worden wanneer de paar test-wafers afgemaakt zijn en goed getest. Op die manier kunnen die 9000 wafers eventueel iets aangepast worden wanneer dit nodig mocht zijn. Dit alles kost echter behoorlijk wat tijd.
Wat nu gesteld wordt, is dat nVidia de opdracht heeft gegeven om die risk-wafers, die normaal opzij gelegd worden, ook mee te bakken met de test-wafers. Dit houdt dus in dat nVidia geen kans heeft om ook maar iets te testen, voordat deze 9000 risk-wafers plus test-wafers klaar zijn.
Pas wanneer de hele lading klaar is, kan nVidia wat kleinschalige tests doen om te zien of ze werkende chips hebben voor een aantal videokaarten. Het kan dus ook zo uitpakken, dat ze helemaal niets bruikbaars hebben, omdat ze een gok hebben gemaakt.
As I said, "Balls-out"dahakon schreef op woensdag 19 augustus 2009 @ 09:28:
Het kan dus ook zo uitpakken, dat ze helemaal niets bruikbaars hebben, omdat ze een gok hebben gemaakt.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087
Balls-out? Zelf denk ik dat dit heel erg gaat mee vallen allemaa, meer drukte dan echte zorgen
zeg maar
Het is niet zozeer dat de kaart een "flop" is maar het tijdstip waarop de kaart uitkomt. R600 was een goede kaart.. als ie een paar maanden voor G80 uitkwam. NV30 was ook een goede kaart, als R300 er niet was.Anoniem: 304087 schreef op woensdag 19 augustus 2009 @ 09:36:
Oké maa wat denken jullie nu zelf? Zal het ook een flop kaart worden vanwege het probleem
Balls-out? Zelf denk ik dat dit heel erg gaat mee vallen allemaa, meer drukte dan echte zorgen
zeg maar
Vergis je niet, GT300 is goed/snel, maar die kaart is pas volgend jaar beschikbaar op de markt en wat dat betreft is het gewoon "niet goed genoeg."
Miss you CJ....:'( en nee... ik kan niet aan samples komen
nVidia loopt achter de feiten aan, óf ATi is goed bezig.
Of beide.
[ Voor 4% gewijzigd door Format-C op 19-08-2009 10:31 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Denk je dat? AA performance was gewoon brak, daar had een vroege introductie niks aan veranderd.R600 was een goede kaart.. als ie een paar maanden voor G80 uitkwam.
Ook dat ben ik niet met je eens, de NV30 kon nooit goed geweest zijn - ook als was er geen R300 - omdat de DirectX 9 implementatie afweek van de door Microsoft opgegeven specificaties.NV30 was ook een goede kaart, als R300 er niet was.
Als je pech hebt met een ontwerp komt je product een stuk later op de markt. Het is zowel AMD als nVidia al overkomen en het zal in de toekomst ongetwijfeld nog gebeuren. Dat noem ik helemaal niet "achter de feiten aanlopen".nVidia loopt achter de feiten aan, óf ATi is goed bezig.
[ Voor 25% gewijzigd door XWB op 19-08-2009 10:33 ]
Ik denk dat je hier verkeerd zit. Een tijdige introductie van de R600 had een heel andere perceptie kunnen creeeren van de HD2900XT. In plaats daarvan moest men een iets getweakte R580 uitbrengen.Hacku schreef op woensdag 19 augustus 2009 @ 10:29:
[...]
Denk je dat? AA performance was gewoon brak, daar had een vroege introductie niks aan veranderd.
Zoals je in deze recente test op Computerbase kan zien, is het verschil in de loop der maanden dankzij driverimprovements tussen de HD2900XT en de 8800GTS 640 een stuk kleiner geworden dan bij de launch. En van deze twee kaarten was de HD2900XT toendertijd iets goedkoper wat betreft adviesprijs (immers de 8800GTS320 werd later nog uitgebracht als alternatief van de HD2900XT).
Zonder AA is de HD2900XT 11% sneller en met AA 12% langzamer. Ja, er is een enkele geval waarin de X1950XTX met AA sneller dan een HD2900XT, maar er zijn ook genoeg gevallen waarin de HD2900XT wint, anders zou de conclusie nooit zijn dat deze 29% sneller is met AA dan de X1950XTX.
Wanneer de kaart op tijd was geweest (dus voor de G80) had AMD dus een 'topkaart' kunnen afleveren die sneller was dan zijn eigen topmodel en sneller dan de concurrentie. Tot het moment van de lancering van de G80 had AMD dus kunnen genieten van het halo-effect, omdat de consument gewoon niet beter wist.
Ook hier ben ik het niet helemaal met je eens. Als er geen R300 was geweest dan hadden developers NV30 GPUs gebruikt om op te ontwikkelen. Ook dan waren ze tegen de tekortkomingen aangelopen van deze architectuur, maar ik weet zeker dat elke developer hier dan voor geoptimaliseerd had door middel van DX8.1 fallbackpaths of door gebruik te maken van NV30 specifieke functies.... er was in zo'n situatie immers geen concurrerende kaart. Maar doordat R300 gewoonweg veel eerder was, had NV dit keer te weinig grip op de developers. Die hadden dit keer vergelijkingsmateriaal en zagen welke oplossing goed was.Ook dat ben ik niet met je eens, de NV30 kon nooit goed geweest zijn - ook als was er geen R300 - omdat de DirectX 9 implementatie afweek van de door Microsoft opgegeven specificaties.
Als je al 3 jaar sinds 2006 je architectuur uit melkt zonder met enige regelmaat met innovatieve vernieuwingen te komen, dan loop je in mijn boekje achter de feiten aan. Voorheen trokken ze de innovatieboot door gedurfde stappen te nemen en met nieuwigheden te komen. Sinds 2006 zit de boot echter schijnbaar vast, terwijl AMD door blijft innoveren. Het grote voorbeeld van achter de feiten aan lopen uit de laatste tijd is natuurlijk DX10.1 debacle.Als je pech hebt met een ontwerp komt je product een stuk later op de markt. Het is zowel AMD als nVidia al overkomen en het zal in de toekomst ongetwijfeld nog gebeuren. Dat noem ik helemaal niet "achter de feiten aanlopen".
NVIDIA speelt het nu gewoon op slim. Een alles of niets gok. Gezien de geschiedenis met de speciale lanceringen van de 7800GTX 512 en meer recentelijk de GTX295 (lancering, maar amper verkrijgbaar) en het effect hiervan op de grote massa, denk ik dat ze een redelijke kans hebben om succesvol te zijn... zelfs al is de kaart pas begin volgend jaar voor het grote publiek te krijgen. Maar in hun portemonnee zullen ze dit zeker voelen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik probeer je hierin te volgen, maar die test is van 15/08/2009. De huidige drivers maken die kaart uiteraard al een stuk beter. Maar, voor zover ik nog weet, het eerste half jaar na de R600 launch hadden nieuwe drivers nog maar heel weinig performance toegevoegd. Stel dat de R600 een maand eerder dan de G80 geïntroduceerd werd, dan was de (AA) performance alsnog brak en was dat het eerste half jaar met nieuwe drivers ook niet verholpen.Zoals je in deze recente test op Computerbase kan zien, is het verschil in de loop der maanden dankzij driverimprovements tussen de HD2900XT en de 8800GTS 640 een stuk kleiner geworden dan bij de launch. En van deze twee kaarten was de HD2900XT toendertijd iets goedkoper wat betreft adviesprijs (immers de 8800GTS320 werd later nog uitgebracht als alternatief van de HD2900XT).
Klopt, dan was die R580 er niet geweest. Maar sneller dan de G80? We spreken over drivers van toen, dat zou dan bijna drie jaar geleden zijn (eind 2006). De recente test die je aanhaalt kan ik dan ook niet als vergelijking nemen.Wanneer de kaart op tijd was geweest (dus voor de G80) had AMD dus een 'topkaart' kunnen afleveren die sneller was dan zijn eigen topmodel en sneller dan de concurrentie. Tot het moment van de lancering van de G80 had AMD dus kunnen genieten van het halo-effect, omdat de consument gewoon niet beter wist.
Dan hadden developers inderdaad voor de NV30 ontwikkeld. Maar met een DirectX 8.1 fallback zouden games nooit (zo mooi?) geweest zijn als we ze toen kenden. En dan zou er maar één de schuldige geweest zijn, dus wederom: een brakke GPU.Ook hier ben ik het niet helemaal met je eens. Als er geen R300 was geweest dan hadden developers NV30 GPUs gebruikt om op te ontwikkelen. Ook dan waren ze tegen de tekortkomingen aangelopen van deze architectuur, maar ik weet zeker dat elke developer hier dan voor geoptimaliseerd had door middel van DX8.1 fallbackpaths of door gebruik te maken van NV30 specifieke functies.... er was in zo'n situatie immers geen concurrerende kaart. Maar doordat R300 gewoonweg veel eerder was, had NV dit keer te weinig grip op de developers. Die hadden dit keer vergelijkingsmateriaal en zagen welke oplossing goed was.
Ow, DirectX 10.1Als je al 3 jaar sinds 2006 je architectuur uit melkt zonder met enige regelmaat met innovatieve vernieuwingen te komen, dan loop je in mijn boekje achter de feiten aan. Voorheen trokken ze de innovatieboot door gedurfde stappen te nemen en met nieuwigheden te komen. Sinds 2006 zit de boot echter schijnbaar vast, terwijl AMD door blijft innoveren. Het grote voorbeeld van achter de feiten aan lopen uit de laatste tijd is natuurlijk DX10.1 debacle.
Je hoort er zo weinig van dat ik het al vergeten was
Het blijft nog altijd gokken waarom nVidia zo'n grote GPU wil maken, ze moeten nu al gezien hebben dat het anders kan (AMD). Maar dat zal er wel met te maken hebben dat de GT300 al lang in ontwikkeling is, en dat je het ontwerp niet zomaar kan aanpassen. Helaas voor hun.Maar in hun portemonnee zullen ze dit zeker voelen.
Anoniem: 171689
Ten tijde van de DirectX 10.1 launch had nVidia nog het geluk dat ze nog de markt in handen hadden, en dus als zij zeiden dat ze het niet zo heel boeiend vonden, de game developers daar grotendeels in volgden omdat verreweg het grootste deel van de doelgroep achter nVidia aanliep. Het is een papieren debacle, maar het had veel erger kunnen zijn als ATi toendertijd ook meer marktaandeel had.Hacku schreef op woensdag 19 augustus 2009 @ 12:38:
Ow, DirectX 10.1
Je hoort er zo weinig van dat ik het al vergeten wasMaar ik geef je volledig gelijk, een DirectX 10.1 GPU van nVidia en de markt had er best anders uitgezien.
Gezien de development tijd van de RV770 zoals beschreven in het lange verhaal erover een aantal ATi topics terug, zal dat het geval wel zijn.Het blijft nog altijd gokken waarom nVidia zo'n grote GPU wil maken, ze moeten nu al gezien hebben dat het anders kan (AMD). Maar dat zal er wel met te maken hebben dat de GT300 al lang in ontwikkeling is, en dat je het ontwerp niet zomaar kan aanpassen. Helaas voor hun.
Aan de andere kant, ATi is nVidia niet en als de GT300 weer gewoon op hetzelfde principe is gebouwd als de G80 en GT200, dan zal de ontwikkelingstijd van zoiets ook niet zolang hoeven liggen als van een RV770. Bovendien heeft het inderdaad al 3 jaar geduurd sinds NV met iets nieuws kwam, dus ik vraag me af wat hun R&D afdeling al die tijd heeft zitten doen..
Snap niet helemaal waarom dit weg moest.....neliz schreef op woensdag 19 augustus 2009 @ 01:10:
You know where you've read it first!
(en de mods niet)
En daarna moest ik het van boze mensen weghalen
http://www.semiaccurate.c...18/nvidia-takes-huge-risk
[...]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Omdat het niet leuk was voor iemand die z'n geld moet verdienen met dit soort "nieuws" om het al tegen te komen een paar dagen voordat het artikel online gaat. Vergis je niet dat echt de HELE IT-roddelpers hier meekijkt voor sappige nieuwtjes (vooral aangaande Evergreen.)EdwardvGelder schreef op woensdag 19 augustus 2009 @ 13:23:
Nee, ik ook niet, was ik daar nieuwsgierig naar?
Ik wist op het moment dat ik het hoorde niet wie of wat er mee bezig was. pas nadat het verhaal had gepost (en de kosten gegokt bijvoorbeeld) kreeg ik van verschillende kanten (ook buiten tweakers om) te horen dat men "not amused" was.
Dus als iemand vraagt het weg te halen (binnen een half uur) dan doen we dat ook.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Eh? .. ik heb het niet over z'n site.. maar over z'n bronHacku schreef op woensdag 19 augustus 2009 @ 13:46:
Dan moet hij zijn artikelen maar afschermen, alles wat niet gepublished hoort niet zichtbaar te zijn.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 287880
Het doorzettingsvermogen heeft enerzijds uitbetaald, in de zin dat het nu in DX11 opgenomen is. Anderzijds is er het minpunt dat de DX11 versie niet compliant is met de versie op de huidige reeksen kaarten met tesselation-unit. Waarom ze het er op hebben laten zitten, was omdat (volgens CJ) de unit dusdanig weinig ruimte in beslag nam, dat het niet ten koste ging van de rest van de chip.
amd had het toen al in het ontwerp zitten en heeft het zo gelaten...
Wat is dan het nut van die tesselator? Vanaf Catalyst 8.3 is de functionaliteit van de Tesselator in de drivers vrijgegeven. AMD devrel heeft als ik het goed heb begrepen developers bijgestaan om ze te laten zien hoe ze het moeten gebruiken. Developers kunnen nu dus al meer dan een jaar experimenteren met een simpelere vorm van tesselation. Daarnaast heeft het als voordeel dat Xbox360 games die Tesselation gebruiken, gemakkelijk geport kunnen worden zonder dat je code uit de game moet slopen. De tesselation code zit in de game en het is dan een kleine moeite om het te activeren op Radeons terwijl de IQ en performance impact vrij groot kan zijn.
Het zal mij erg benieuwen hoe de performance is van tesselation op de nieuwe DX11 kaarten van de verschillende IHVs.
[ Voor 4% gewijzigd door CJ op 19-08-2009 21:09 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 304087
Ik dacht dat dit het nvidiatopic was?
[ Voor 164% gewijzigd door Anoniem: 304087 op 20-08-2009 09:22 ]
Oh.. heeft nVidia geen Tesselator/N-Patches?Anoniem: 304087 schreef op donderdag 20 augustus 2009 @ 09:16:
Kun je dit soort rommel gewoon in het ati topic posten?
Ik dacht dat dit het nvidiatopic was?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
NVIDIA Presents Support for Windows 7 DirectX Compute
In an internal presentation perhaps to its primary clients, NVIDIA presented support for Windows 7 DirectX Compute. For a welcome change, the slides show no signs of NVIDIA's own CUDA technology, and in turn promise huge performance gains when a Windows 7 machine is aided with an NVIDIA graphics processor. The gains NVIDIA predicts range anywhere between 2 times to 20 times over plain CPU-driven processing, focusing on media-related applications such as Cyberlink PowerDirector, MotionDSP vReveal, and of course Badaboom.
DirectX Compute API will be natively built into Windows 7. It supports both existing DirectX 10 compliant GPUs, and future DirectX 11 ones. Along with pledging full support for it, NVIDIA also explains how the GPU becomes an increasingly important component of the PC, being "central to the Windows 7 experience". As a bonus tidbit, it adds that on Windows 7 the SLI multi-GPU technology works 10% faster than on Windows XP.





Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Teken aan de wand?
Overigens:
Nvidia is weer aan het renamen geslagen
[ Voor 46% gewijzigd door Blastpe op 20-08-2009 10:48 ]
Anoniem: 304087
Zeg ik omdat deze pagina bijna alleen maar over ati gaat.neliz schreef op donderdag 20 augustus 2009 @ 09:40:
[...]
Oh.. heeft nVidia geen Tesselator/N-Patches?
Jemig die veranderen vaker van naamgeving dan mijn vriendin nieuwe schoenen koopt.Blastpe schreef op donderdag 20 augustus 2009 @ 10:32:
Er wordt ook met geen woord gerept over de nieuwe GPU accelerated grafische desktop API in windows 7. GDI en GDI+ worden verbeterd met Direct2D. D2D draaid bovenop D3D. Mag je raden welke versie. (hint DX10.1)
Overigens:
Nvidia is weer aan het renamen geslagen
Computer says no
De één kan niet zonder de ander.Anoniem: 304087 schreef op donderdag 20 augustus 2009 @ 11:03:
[...]
Zeg ik omdat deze pagina bijna alleen maar over ati gaat.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087 schreef op donderdag 20 augustus 2009 @ 11:03:
[...]
Zeg ik omdat deze pagina bijna alleen maar over ati gaat.
Ik zie in je profiel dat je dit topic en het ATI topic nog niet zo heel erg lang volgt, dus ik neem het je niet kwalijk dat je (nog) zo reageert. Maar zoals Neliz zegt, het een gaat niet zonder het andere. Wat ATI doet heeft invloed op nVidia en omgekeerd ook. Als bv de één een bepaalde techniek heeft om de IQ te verbeteren zal de ander dit ook willen of zelfs met betere technieken willen komen in toekomst. Tesselation is een van de grote veranderingen in DirectX11. Het is gewoon een feit dat AMD zich hier al tijden lang voor hard probeert te maken. nVidia zal dit keer echter verplicht moeten volgen omdat hardware tesselation een vereiste is in DX11.
Wanneer de discussie zonder geflame en getroll kan gebeuren, stijgt juist de meerwaarde van de topics omdat de lezer er van leert.
Ik zou zeggen, lees de geschiedenis van beide topics even door en je ziet vanzelf welke personen hier 'regulars' zijn die op een normale manier kunnen discussieren en welke personen dat niet kunnen. De moderators grijpen snel genoeg in wanneer het uit de hand loopt. Nu komen zulke opmerkingen als 'rommel' over als ongefundeerde troll cq fanboy-posts zonder dat je het waarschijnlijk zo bedoelt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb heel de presentatie gezien. Geloof me, er staat genoeg over Cuda en PhysX in. PhysX zal NV soon pushen met een nieuwe game Batman nogiets. Ze beweren uiteraard weer dat het nog beter is maar ik heb nog niets gezien.Edmin schreef op donderdag 20 augustus 2009 @ 10:08:
Idd geen woord over CUDA. Zelfs bij Physics wordt er niet over PhysX gesproken.
Teken aan de wand?
Edit: http://www.nzone.com/object/nzone_batmanaa_bundle.html
FREE Batman: Arkham Asylum
[ Voor 9% gewijzigd door The Source op 21-08-2009 00:59 ]
Ik vraag me af hoe NV precies zichzelf staande wil houden in de komende maanden. Natuurlijk is er het gerucht van de vervroegde GT300 launch, maar ze zullen toch iets moeten doen om een fatsoenlijk holiday season te doormaken. Lagere prijzen? Nog meer gamebundels?
Niemand die het ziet...
[ Voor 56% gewijzigd door Format-C op 21-08-2009 09:03 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Batman Arkham Asylum is net als Mirror's Edge, men verwacht er veel van, verkoop zal straks wel tegenvallen en de niet gameplay beïnvloedende physx effecten zijn op de vingers van 1 hand te tellen.The Source schreef op vrijdag 21 augustus 2009 @ 00:58:
Ik heb heel de presentatie gezien. Geloof me, er staat genoeg over Cuda en PhysX in. PhysX zal NV soon pushen met een nieuwe game Batman nogiets. Ze beweren uiteraard weer dat het nog beter is maar ik heb nog niets gezien.
tevens kan het deze keer gewoon aangezet worden in de config file
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://www.youtube.com/watch?v=vINH6Z9kqgI
Jammer om te zien dat ze die cloth functionaliteit niet op de batman cape zelf gebruiken. Bijvoorbeedl: Physx uit is een standaard cape en Physx aan is een natuurlijkere cape die kapot kan.
Apart is wel dat met Physx uit sommige dingen volgens dit filmpje helemaal niet te zien zijn (destructible cloth, steam/fog)
Mirror's Edge ooit wel eens gezien, of een vergelijking daartussen?Envy007 schreef op vrijdag 21 augustus 2009 @ 12:04:
Physx in Batman game:
Apart is wel dat met Physx uit sommige dingen volgens dit filmpje helemaal niet te zien zijn (destructible cloth, steam/fog)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://www.youtube.com/watch?v=w0xRJt8rcmY&fmt=22neliz schreef op vrijdag 21 augustus 2009 @ 12:13:
[...]
Mirror's Edge ooit wel eens gezien, of een vergelijking daartussen?
Is inderdaad ook al zo leeg zonder die effecten.
Games die daadwerkelijk physx gameplay hebben zullen er nooit komen denk ik. Dan zou de developer alleen aan mensen met een nV kaart kunnen verkopen, en dat is natuurlijk niet handig... Dan sluit je de helft van de mensen bij voorbaat al uit...Edmin schreef op vrijdag 21 augustus 2009 @ 10:07:
Punt is dat ook Arkham Asylum niet de PhysX game is waar we allemaal op wachten. Niet dat het een slechte game is (geen idee tbh), maar het feit dat het een cross-platform titel is, laat al zien dat je hier geen gameplay physics hoeft te verwachten. Het gaat dus gewoon weer om de tierelantijntjes van effects physics. Jammer.
Dus het zal wat PhysX betreft wel voor altijd wat bewegende dingetjes zijn/ blijven, zoals movable/ tearable cloth, sparks en fog... Edit; en bij Mirrors Edge is het best grappig, het wordt er iets drukker/ intenser van, maar ik kan me niet voorstellen dat dat soort effecten niet mogelijk zijn zónder PhysX. Dat ze dat dus op een andere manier doen/ programmeren...
[ Voor 11% gewijzigd door Format-C op 21-08-2009 12:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Kun je nagaan wat dat met de performance doetPaprika schreef op vrijdag 21 augustus 2009 @ 12:15:
[...]
http://www.youtube.com/watch?v=w0xRJt8rcmY&fmt=22
Is inderdaad ook al zo leeg zonder die effecten.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat valt best mee... Dat in dat filmpje de framerate inkakt wil niet zeggen dat dat altijd zo is. Met mijn 2 GTX280's in SLi had ik geen last van slowdowns.neliz schreef op vrijdag 21 augustus 2009 @ 12:21:
[...]
Kun je nagaan wat dat met de performance doet
-Physx is best grappig, maar ook niet meer dan dat. Het is imho iig geen reden om een nV kaart te hebben, of om speciaal een nV PhysX kaart voor aan te schaffen. Daarvoor is het te... ehm... hoe zal ik het eens zeggen... Minimaal... of subtiel. Het is een leuke gimmick. Geen échte toegevoegde waarde waardoor een game écht leuker wordt. Edit; ik vond Mirrors Edge wel een heel leuk spel trouwens. Erg origineel. Maar dat terzijde.
Die Batman game zal wel net zoiets zijn als X-Men Wolverine. Of Bionic Commando. Leuk, maar niet echt bijzonder. Een 13 in een dozijn game. Mja, misschien is Batman iets leuker, omdat zijn cape er papier rond wappert.
[ Voor 52% gewijzigd door Format-C op 21-08-2009 12:49 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Geen idee eigenlijk, ze vertragen het filmpje extreem om de effecten goed te laten zien...neliz schreef op vrijdag 21 augustus 2009 @ 12:21:
[...]
Kun je nagaan wat dat met de performance doet
"Actual gameplay footage slowed down to ilustrate PhysX effect".
Ik dacht dat het framedrops waren.

[ Voor 19% gewijzigd door Format-C op 21-08-2009 12:44 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
PhysX effecten in Mirror's Edge zorgen tussen de 30% en 40% lagere framerates.RappieRappie schreef op vrijdag 21 augustus 2009 @ 12:33:
Och ja. Dat had ik niet eens gezien.![]()
"Actual gameplay footage slowed down to ilustrate PhysX effect".
Ik dacht dat het framdrops waren.
http://www.firingsquad.co...ysx_performance/page3.asp
In fact, enabling PhysX has such a large hit on performance, the GTX 260 and 9800 GTX+ perform awfully close to one another at 1600x1200
Miss you CJ....:'( en nee... ik kan niet aan samples komen
En daar doet Physx nu net niets mee, volgens het filmpje, gemiste kans imo.RappieRappie schreef op vrijdag 21 augustus 2009 @ 12:23:
Mja, misschien is Batman iets leuker, omdat zijn cape wappert.
Inderdaad, ik heb geen framedrops gezien met 2 x GTX280 in SLi. Ja in het begin wel, maar na een paar driverupdates was het weg.Paprika schreef op vrijdag 21 augustus 2009 @ 12:43:
Toch vast wel een mooie 60 FPS met een kaart die sneller is dan een GTX 260.
[ Voor 42% gewijzigd door Format-C op 21-08-2009 12:49 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nog niet komen.RappieRappie schreef op vrijdag 21 augustus 2009 @ 12:18:
[...]
Games die daadwerkelijk physx gameplay hebben zullen er nooit komen denk ik.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik zei daarom ook 'gameplay physics', niet gameplay PhysX'.RappieRappie schreef op vrijdag 21 augustus 2009 @ 12:18:
[...]
Games die daadwerkelijk physx gameplay hebben zullen er nooit komen denk ik. Dan zou de developer alleen aan mensen met een nV kaart kunnen verkopen, en dat is natuurlijk niet handig... Dan sluit je de helft van de mensen bij voorbaat al uit...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Keep your friends close, and your enemies even closer.Anoniem: 263719 schreef op vrijdag 21 augustus 2009 @ 19:11:
[afbeelding]
Nvidia en Intel zijn terug vriendjes...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik heb er eentje liggen. Die kaart weegt héél zwaar, ik vroeg me af of het PCIe slot dit ging houden. Er komt tevens zoveel warmte uit dat je je hand er niet kan voorhouden. Overigens liep 'ie ook vast door oververhitting, we hebben er nog een grote ventilator moeten bijhalen.chimo schreef op donderdag 06 augustus 2009 @ 15:02:
Asus MARS Limited Edition 4GB, 2xDVI, PCIe
Belangrijkste kenmerken:
- Dual GTX285
- 23% sneller dan generieke GTX295
- 'S Werelds eerste 1024bit Grafische kaart
- 'S Werelds eerste 4096MB Grafische kaart
- Limit Edition met uniek serienummer
- 3D Mark Vantage Extreme wereld record houder
http://www.informatique.nl/123966/asus-mars/2di/4gd3.html
http://www.alternate.nl/h...ten+NVIDIA&l3=GeForce+GTX
Dingetje zeg, 't is wel voor de echte fanboys.


Serieus, heb je die kaart echt? Wel jammer om te horen dat ie hitte problemen heeft. Waar heb je hem gekocht, Amerika?
Anoniem: 286793
Met dx11 verdwijnt physx ook helemaal. Ik zie geen rede om er eigenlijk over te discussiëren waarom het nou belangrijk zou zijn als je physx op je kaart hebt zitten.
Anoniem: 196662
natuurlijk is het een leuke toevoeging, en ik hoop dan ook dat havok gpu physics op korte termijn gebruikt gaat worden: ze hebben het er al tijden over maar we hebben nog steeds niets gezien...... hoe moeilijk kan het zijn??
Anoniem: 286793
Ati ondersteunt dx10.1. Dat is toch een stuk interessanter dan physx vind ik. Maargoed als je echt een hele grote fan van Mirrors edge bent dan kun je nV sowieso overwegen.
Anoniem: 304087
krijg je juist meer frames per seconde als je physx aan zet.
Zo'n 50 % meer frames zat er wel in met 2xgtx280 en dan physx aan
Hier boven
Wat is er dan zo intressant aan DX10.1 wat maar 1 game'gebruik van maakt?
Verder heeft Nvidia meer features dan ati waar wel echt gebruik van word gemaakt
[ Voor 35% gewijzigd door Anoniem: 304087 op 24-08-2009 10:44 ]
Cryostasis is namelijk een beperkte game. jouw performancewinst wordt gefaked door met "PhysX disabled" niet de physics effecten te disabledn, maar deze op je CPU te laten draaien.Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 10:40:
Bij zo'n gratis game met physx
krijg je juist meer frames per seconde als je physx aan zet.
Zo'n 50 % meer frames zat er wel in met 2xgtx280 en dan physx aan
Iemand die denkt dat z'n PC sneller wordt als hij meer werk te doen krijgt...



veel hogere framerates? een HD 4770 die even snel is als een GTX260 in DX10.1 games? betere schaduw effecten etc?Hier boven
Wat is er dan zo intressant aan DX10.1 wat maar 1 game'gebruik van maakt?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wel meer dan één naar mijn weten.Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 10:40:
Hier boven
Wat is er dan zo intressant aan DX10.1 wat maar 1 game'gebruik van maakt?
Bijvoorbeeld dat een DX11 game een stuk beter zal presteren op een DX10.1 videokaart dan op een DX10 videokaart.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Verder die game met physx aan door de videokaart het te laten doen gaf
die performance winst van 50%.
Als het fake is door dat de gpu het beter en makkelijker kan verwerken dat is dan geen fake
Anoniem: 304087
Wekle dx11 game bedoel je dan ?-The_Mask- schreef op maandag 24 augustus 2009 @ 10:45:
[...]
Wel meer dan één naar mijn weten.
Bijvoorbeeld dat een DX11 game een stuk beter zal presteren op een DX10.1 videokaart dan op een DX10 videokaart.
Anoniem: 263719
Assassin's Creed, BattleForge, Far Cry 2, S.T.A.L.K.E.R.: Clear Sky, Stormrise, Tom Clancy's H.A.W.X., ...Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 10:40:
Wat is er dan zo intressant aan DX10.1 wat maar 1 game'gebruik van maakt?
Uit het ATi topic:
* Colin McRay: Dirt 2 (EGO Engine DX11 update)
* Racedriver: GRID 2 (EGO Engine DX11 update)
* F1 2010 (EGO Engine DX11 update)
* Operation Flashpoint : Dragon Rising (Ego Engine DX11 update) (?)
* Battleforge (via een update/xpac)
* Gamebryo Engine van Emergent (DX11 update). Gamebryo wordt oa gebruikt in Fallout 3, Oblivion, Civ 4.
* Alien vs Predator van Rebellion in 2010(?)
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Dat is wel nice want dat betekend dat het grafisch er ook beter uit gaat zien?
Maar goed er is nog geen één game met dx11 die uit is
Ik zie verder geen performance winst met een ati kaart in far cry 2 door dx10.1
[ Voor 35% gewijzigd door Anoniem: 304087 op 24-08-2009 11:00 ]
beter kijken?Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 10:58:
Ik zie verder geen performance winst met een ati kaart in far cry 2 door dx10.1
Het bekende verhaal is Assasins Creed (1) dat onder druk van nVidia DX10.1 support weghaalde, waarna ATI kaarten meteen minder presteerden. HAWX is een ander voorbeeld van een DX10.1 game waar ATI kaarten plotseling 30% performanceverschil laten zien tov van hun nVidia tegenhangers.
Je laat jezelf wel erg kennen door de feiten niet te onderkennen.
[ Voor 6% gewijzigd door neliz op 24-08-2009 11:03 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat is heel goed mogelijk.Dus oblivion krijgt een upgrade bvb naar dx 11 ?
Ja, maar niet om "wow" van te roepen. Engine updates zijn (vaak) niet spectaculair, persoonlijk wacht ik af tot een game van nul af aan met DirectX 11 geschreven wordt. Dan kan je direct alles opentrekken.Dat is wel nice want dat betekend dat het grafisch er ook beter uit gaat zien?
Er zijn ook nog geen DirectX 11 kaarten beschikbaarMaar goed er is nog geen één game met dx11 die uit is
Dat weet ik niet van buiten, maar dat zou erg goed kunnen: Far Cry 2 heeft gewoon een brakke engine. Bij andere games echter is er wel een performance winst te zien.Ik zie verder geen performance winst met een ati kaart in far cry 2 door dx10.1
[ Voor 20% gewijzigd door XWB op 24-08-2009 11:07 ]
Anoniem: 304087
Jij ook door te zeggen dat de performance winst door physx door de gpu te laten doenneliz schreef op maandag 24 augustus 2009 @ 11:02:
[...]
beter kijken?
Het bekende verhaal is Assasins Creed (1) dat onder druk van nVidia DX10.1 support weghaalde, waarna ATI kaarten meteen minder presteerden. HAWX is een ander voorbeeld van een DX10.1 game waar ATI kaarten plotseling 30% performanceverschil laten zien tov van hun nVidia tegenhangers.
Je laat jezelf wel erg kennen door de feiten niet te onderkennen.
fake winst is. Komt over één als ik zou zeggen dat de winst met dx10.1 fake is wat niet zo is.
Damn wat geniet ik hier van
Waarvan? weet jij wat de impact is van bijvoorbeeld een GTX260 zonder physics t.o.v. eentje met Physics? Krijg je meer frames als er in één keer 30% meer belasting komt op een kaart?Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 11:07:
Jij ook door te zeggen dat de performance winst door physx door de gpu te laten doen
fake winst is. Komt over één als ik zou zeggen dat de winst met dx10.1 fake is wat niet zo is.
Damn wat geniet ik hier van
Wat jij stelt met Cryostasis klopt in de basis niet omdat er een kunstmatige load geplaatst wordt op de CPU die daar niet thuis hoort. Anders zouden alle PhysX games zo beroerd presteren
Miss you CJ....:'( en nee... ik kan niet aan samples komen
DX11 is zelf ook nog niet officieel uit dus hoe gek vind je dit?Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 10:58:
Maar goed er is nog geen één game met dx11 die uit is
Dit topic is gesloten.