AMD bestaat toch ook nog steeds?
Klopt, maar toch, het zijn zure jaren voor Nivida, zeker op het moment dat er ook nog een krediet-crisis is, en je een heel groot project hebt lopen die gewoon alles bepaald. AMD had verschillende chips om op in te zetten, Nvdia heeft alleen Fermi, en als dat nog veel langer duurt, of tegenvalt, dan moeten zij minstens 1 jaar weer met een onvolwaardig product en rebrands overleven. Dat is funest voor je PR en reputatie, zelfs al heet je Nvidia
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 317606
Bedrijven als nVidia en AMD gaan niet failliet
Die zijn te belangrijk en er wordt altijd geld in gepomt, AMD draait inmiddels ook al vier jaar verlies. In het ergste geval wordt zo'n bedrijf overgenomen.
Op de beurs is het bij nVidia ook rustig, eind 2009 zat er zelf een stijging in. Momenteel is er weer een daling maar niks om ons zorgen te maken, het aandeel staat nog steeds hoger dan in de eerste helft van 2009
Op de beurs is het bij nVidia ook rustig, eind 2009 zat er zelf een stijging in. Momenteel is er weer een daling maar niks om ons zorgen te maken, het aandeel staat nog steeds hoger dan in de eerste helft van 2009

http://www.nvidia.co.uk/object/gf100_uk.html
Dames en heren, weet niet of iemand dit al gezien had, maar deze info kan je wel vanuit gaan
of nouja tis eigenlijk wat er al bekend was. En ook niet echt veel nieuws.
Edit: oops, zie dat het bij previews vermeld staat. Beter uit mijn doppen kijken om 05.00u
Dames en heren, weet niet of iemand dit al gezien had, maar deze info kan je wel vanuit gaan
of nouja tis eigenlijk wat er al bekend was. En ook niet echt veel nieuws.
Edit: oops, zie dat het bij previews vermeld staat. Beter uit mijn doppen kijken om 05.00u

[ Voor 50% gewijzigd door TheMadHotMonkey op 19-01-2010 05:19 ]
Maar 2x sneller zou maar matig zijn. Dan komt hij onder de HD5870 uit met 8x AA.neliz schreef op maandag 18 januari 2010 @ 15:40:
[...]
Ja.
De oplossing van NV is niet "beter schaalbaar" hij schaalt gewoon, dus je hebt niet dezelfde tessellation performance over de hele reeks kaarten.
GT21x zal ook dit jaar nog de broodnodige inkomsten van nv verzorgen, ik zie niet zo snel verandering daar in komen
edit:
en WTF is DIT
[afbeelding]
maximaal 2x sneller op 2560x1600 8xAA? is dat niet een beetje weinig voor games als STALKER?
http://www.computerbase.d...est_grafikkarten_2009/13/
ATi komt met een refresh van de 5870. Ik verwacht daar geen super spannende dingen. Zelf verwacht ik iets van 10-20% afhankelijk van wat ze gaan doen. Een RV870 achtige core op 1 GHz behoort tot de opties. De vraag is of ze ook nog echt zaken tweaken op performance. Maar dat verwacht ik niet. De X1900 was toen een uitzondering. Meestal hebben ze wel dingen verandert zie: R300 > R350 en R360. En bv X800 > X850 en recent RV770 > RV790. Maar die verandeingen waren hooftzakelijk bedoelt om de clocks omhoog te krijgen.Darkasantion schreef op maandag 18 januari 2010 @ 16:55:
Hmm, het lijkt aardig, maargoed, de belangrijkste vraag is nu, wat zijn de uiteindelijk retail clocks? En net zo belangrijk, waaneer komt ie dan eindelijk uit? Leuk dat we nu weten hoe alles in elkaar zit en werkt, maar ik heb nog niks om in mijn PC te stekken om ermee games af te spelen. En dat lijkt me toch wel belangrijk.
En als Nvidia nog meer vertraging oploopt, hebben ze straks een nieuw slogan:
"The way it's mean to be delayed"
Om maar niet te beginnen over het feit dat er rond het begin van de zomer iets uit het ATi-kamp gaat komen wat Cypress gaat vervangen en GF100 zeker zal inhalen.....
Ik verwacht zo iets. Al kunnen RV870 chips ook al makkelijk 1GHz halen. Het is een beetje de vraag wat het wordt. En of 1 GHz niet voor de OC modellen gereserveerd blijft. Maar ik verwacht dat de GF100 toch nog ietsjes sneller zal zijn. Gezien ik uit ga van 30% sneller dan de HD5870.
Ik vraag me dit dus af. Anders zou je verwachten dat een HD5770 bijna even snel zou zijn als de HD5850 in de Heaven bensh. Immers de HD5770 is op 850 Mhz geclockt met 800 shaders. En de 5850 op 725 met 1440 shaders. Maar als die shaders niets zouden doen aan tesselation heeft de HD5770 meer tesselation power. Echter laten de resultaten een totaal ander beeld zien:Marc Rademaker schreef op maandag 18 januari 2010 @ 19:54:
[...]
Implementatie kan twee kanten op. 512 cuda cores is een hoop, maar als die bezig zijn, heb je er geen meer over voor tesselation. ATI heeft dat probleem niet. En afgeleiden, met minder cuda cores, hebben dat probleem des te sneller. Persoonlijk kan ik niet wachten. Overigens wacht ik met smart op bijv AvP 2 om te zien of daar fatsoenlijk gebruik gemaakt wordt van tesselation.

De drop van geen tesselation naar wel tesselation is even groot. Dus het lijkt er op dat de shaders wel degelijk iets toen of de RV870 zou toch een zwaardere tesselator hebben dan de RV840. Maar ik neig meer naar het eerste.
Bij de HD5850 en de HD5870 gaat het gelijk op. Verschillen zijn +- 21% met en zonder tesselation.
Bij de 5770 vs 5850: Zonder tesselation 5850 50% sneller. Met tesselation 5850 38% sneller.
Performance hit met Tesselation:
5770: 52%
5850: 73%
5870: 74%
Dus het is denk ik toch wat complexer dan in de eerste instantie lijkt.
[ Voor 3% gewijzigd door Astennu op 19-01-2010 08:59 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is niet dat enkel de "tesselator" aan het werk word gezet zodra je gebruik wil maken van tesselation.Each vertex resulting from the tessellation is output to the domain shader. Only the patch parametrization coordinates are passed on for each vertex.
The domain shader operates on the patch parametrization coordinates of each vertex separately, although it can also access the transformed control points for the entire patch. The domain shader sends the complete data for the vertex (position, texture coordinates, etc.) to the geometry shader (or the clipping stage if no geometry shader is present).
Leesvoer
Pentaxiaan
Klopt de geometry, hull en domain shader worden volgens mij in "de Shaders" afgehandeld.
[ Voor 31% gewijzigd door Astennu op 19-01-2010 12:15 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Het lijkt er dus op dat nVidia zich niet gaat houden aan de 300 watt regel?
Als een single kaart al 280 watt verstookt kan ik me niet voor stellen dat een dual Fermi onder de 300 watt blijft
Als een single kaart al 280 watt verstookt kan ik me niet voor stellen dat een dual Fermi onder de 300 watt blijft
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Ik hecht ongeveer 0,05% waarde aan de posts van Fudzilla. Het is ongesubstantieerde troep die zij op het internet zetten. Ik kan ook wel even leuk gaan dagdromen en wat dingen verzinnen, maar als ik dat op de frontpage zet, dan word ik ontslagenStefanvanGelder schreef op dinsdag 19 januari 2010 @ 12:44:
Het lijkt er dus op dat nVidia zich niet gaat houden aan de 300 watt regel?
Als een single kaart al 280 watt verstookt kan ik me niet voor stellen dat een dual Fermi onder de 300 watt blijft
En dat willen we niet hebben natuurlijk 
Maar tja FUD is niet echt een objectieve site kwa nieuws etc.. maar ik moet zeggen ze zijn de laatste tijd toch minder pro NVIDIA( is wel eens anders geweest)
Alleen nu drijven ze misschien wel wee rte ver door naar de andere kant
Maar tja FUD is niet echt een objectieve site kwa nieuws etc.. maar ik moet zeggen ze zijn de laatste tijd toch minder pro NVIDIA( is wel eens anders geweest)
Alleen nu drijven ze misschien wel wee rte ver door naar de andere kant
[ Voor 73% gewijzigd door pino85 op 19-01-2010 13:08 ]
Liefhebber van Tweakers
Dit is mijn eerste post hier, maar er viel me iets op aan deze berichtgeving:
Nvidia Forceware 196.21
19 January 2010
Nvidia has released the Official Forceware 196.21 driver for Windows XP, Vista and 7. These drivers are for GeForce 6, 7, 8, 9, 100, 200 and ION series cards. These WHQL drivers add SLI and multi-GPU support for a range of games including Battlefield: Bad Company 2, Dirt 2 and Serious Sam HD. They also contain various bug fixes. The driver package contains the 9.09.1112 PhysX drivers.
Dat spel is nog niet uit, echter staat de beta wel gepland binnen 2 weken... Maar er zit nu dus al support in voor dat spel?
Nvidia Forceware 196.21
19 January 2010
Nvidia has released the Official Forceware 196.21 driver for Windows XP, Vista and 7. These drivers are for GeForce 6, 7, 8, 9, 100, 200 and ION series cards. These WHQL drivers add SLI and multi-GPU support for a range of games including Battlefield: Bad Company 2, Dirt 2 and Serious Sam HD. They also contain various bug fixes. The driver package contains the 9.09.1112 PhysX drivers.
Dat spel is nog niet uit, echter staat de beta wel gepland binnen 2 weken... Maar er zit nu dus al support in voor dat spel?
Marc Rademaker schreef op dinsdag 19 januari 2010 @ 12:59:
wordt ik ontslagen
Jij bent toch redacteur
'Mushrooming' is a marketing term that means feeding them sh*t and keeping them in the dark.
Zou kunnen. nVidia heeft de drivers voor de nieuwste games altijd goed en snel in orde.peakaboo schreef op dinsdag 19 januari 2010 @ 13:17:
Dat spel is nog niet uit, echter staat de beta wel gepland binnen 2 weken... Maar er zit nu dus al support in voor dat spel?
[ Voor 3% gewijzigd door Format-C op 19-01-2010 13:36 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ja dat zal wel, maar ik geloof dat deze game ATI based is niet? Vanwege DX11 features in de frostbite engine...Format-C schreef op dinsdag 19 januari 2010 @ 13:35:
[...]
Zou kunnen. nVidia heeft de drivers voor de nieuwste games altijd goed en snel in orde.
DICE zit al jaren onder het TWIMTBP programma. Echter zitten er wel een aantal ATI features in (eyefinity) en is de huidige "dx11" instructieset in FB1.x geprogrammeerd op ati hardware.peakaboo schreef op dinsdag 19 januari 2010 @ 13:39:
Ja dat zal wel, maar ik geloof dat deze game ATI based is niet? Vanwege DX11 features in de frostbite engine...
Echter al hun demo's etc. is op nv hardware. en ze worden ook gemarket voor nvidia's 3d brillen etc.
[ Voor 5% gewijzigd door neliz op 19-01-2010 14:04 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ah klopt ja, herinner met die foto nog met die monitor in beeld en 3d weergave... Hmm maar waarop is BC2 dan puur gebaseerd, toch nvidia?neliz schreef op dinsdag 19 januari 2010 @ 14:02:
[...]
DICE zit al jaren onder het TWIMTBP programma. Echter zitten er wel een aantal ATI features in (eyefinity) en is de huidige "dx11" instructieset in FB1.x geprogrammeerd op ati hardware.
Echter al hun demo's etc. is op nv hardware. en ze worden ook gemarket voor nvidia's 3d brillen etc.
Het is een port van de PS3 code = (RSX * twimtbp) + Evergreen features.peakaboo schreef op dinsdag 19 januari 2010 @ 14:17:
Ah klopt ja, herinner met die foto nog met die monitor in beeld en 3d weergave... Hmm maar waarop is BC2 dan puur gebaseerd, toch nvidia?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Haha jup, maar wij hebben ook eindredacteuren, en zoals je ziet, checken die mijn forumposts niet
Wat ik mij eigenlijk afvraag is waar wordt deze graphics kracht nu voor gebruikt ?
Normaal gesproken is het altijd zo geweest dat de software voorliep op de hardware.
Crysis, om maar eens een recent voorbeeld te noemen, kon bijna niet gedraaid worden op de snelste pc's destijds.
Echter lijkt het nu zo te zijn dat een dergelijke kaart compleet overbodig is, tenzei je met 3 beeldschermen van 30 inch speelt maar dat is te verwaarlozen in de praktijk.
Is er enigsinds vooruitzicht op een grafisch spektakel ?
Daarnaast vraag ik mij af in hoeverre een game ontwikkelaar alle functies van een dergelijke kaart gaat benutten. Oftewel vallen al deze functies makkelijk te programmeren ?
Laten we eerst maar eens wachten totdat DX11 de echte standaard is geworden en dat er daadwerkelijk veel games werken met DX11.
Tot nu toe is het leuk en aardig voor een handvol games maar mainstream is het nog lang niet.
Normaal gesproken is het altijd zo geweest dat de software voorliep op de hardware.
Crysis, om maar eens een recent voorbeeld te noemen, kon bijna niet gedraaid worden op de snelste pc's destijds.
Echter lijkt het nu zo te zijn dat een dergelijke kaart compleet overbodig is, tenzei je met 3 beeldschermen van 30 inch speelt maar dat is te verwaarlozen in de praktijk.
Is er enigsinds vooruitzicht op een grafisch spektakel ?
Daarnaast vraag ik mij af in hoeverre een game ontwikkelaar alle functies van een dergelijke kaart gaat benutten. Oftewel vallen al deze functies makkelijk te programmeren ?
Laten we eerst maar eens wachten totdat DX11 de echte standaard is geworden en dat er daadwerkelijk veel games werken met DX11.
Tot nu toe is het leuk en aardig voor een handvol games maar mainstream is het nog lang niet.
Crysis is nog steeds erg moeilijk op hoogste settings af te spelen, dus daarvoor kun je die kracht van nieuwe kaarten echt wel gebruikenbiggydeen2 schreef op woensdag 20 januari 2010 @ 13:40:
Wat ik mij eigenlijk afvraag is waar wordt deze graphics kracht nu voor gebruikt ?
Normaal gesproken is het altijd zo geweest dat de software voorliep op de hardware.
Crysis, om maar eens een recent voorbeeld te noemen, kon bijna niet gedraaid worden op de snelste pc's destijds.
Echter lijkt het nu zo te zijn dat een dergelijke kaart compleet overbodig is, tenzei je met 3 beeldschermen van 30 inch speelt maar dat is te verwaarlozen in de praktijk.
Is er enigsinds vooruitzicht op een grafisch spektakel ?
Daarnaast vraag ik mij af in hoeverre een game ontwikkelaar alle functies van een dergelijke kaart gaat benutten. Oftewel vallen al deze functies makkelijk te programmeren ?
Laten we eerst maar eens wachten totdat DX11 de echte standaard is geworden en dat er daadwerkelijk veel games werken met DX11.
Tot nu toe is het leuk en aardig voor een handvol games maar mainstream is het nog lang niet.
Verder is het gewoon zo dat veel kracht van die kaarten wordt gebruikt om hoge levels van AA en AF te kunnen draaien op hoge resolutie's van 1600x1200 en hoger. Dit kost gewoon heel veel kracht, en daarvoor worden die kaarten gemaakt, om de IQ van games verder te verhogen. Zeker de games gaan er steeds beter uitzien, gisteren even CoD MW2 gespeeld en dat ziet er subliem uit, maar de grafische eisen om dit zo mooi en gedetailleerd weer te geven zijn ook hoog te noemen. Dus ja, dat is wel nodig.
En het schijnt dat Dx11, in vergelijking met Dx 9 en Dx10 veel makkelijker is, het gerucht gaat dat Codemasters in 3 uur de Dx11 code van Dirt 2 klaar had, dus het is zeker wel aannemelijk om te geloven dat de Dx11 makkelijk te implementeren en te programmeren zijn.
[ Voor 8% gewijzigd door Darkasantion op 20-01-2010 13:50 ]
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Alleen jammer dat de devs van MW2 blijkbaar nooit van AF hebben gehoord.
[ Voor 9% gewijzigd door Omnyakom1 op 20-01-2010 14:57 ]
Anoniem: 59888
Onzin, dat kan nooit. In theorie zou het kunnen dat ze in 3 uur hun DX10 codebase ook in een DX11 omgeving aan de praat hadden, maar in drie uur tijd alle nieuwe functionaliteit van DX11 implementeren is absoluut onmogelijk. Dat wil niet zeggen dat DX11 niet makkelijk is, maar van dit gerucht geloof ik helemaal niets.Darkasantion schreef op woensdag 20 januari 2010 @ 13:48:
[...]
het gerucht gaat dat Codemasters in 3 uur de Dx11 code van Dirt 2 klaar had
[ Voor 10% gewijzigd door Anoniem: 59888 op 20-01-2010 16:59 ]
Mwah, met een enkele HD 5870 kom je op 1920x1200 een heel eind. CoD MW2 is amper een uitdaging voor een HD 5870, met 4xAA. Meer dan 4xAA merk je eigenlijk niet. Spellen als Clear Sky en Crysis daargelaten, heeft biggydeen2 zeker een punt. Er zijn de laatste tijd geen spellen uitgekomen die een uitdaging vormen voor videokaarten.Darkasantion schreef op woensdag 20 januari 2010 @ 13:48:
[...]
Crysis is nog steeds erg moeilijk op hoogste settings af te spelen, dus daarvoor kun je die kracht van nieuwe kaarten echt wel gebruiken
Verder is het gewoon zo dat veel kracht van die kaarten wordt gebruikt om hoge levels van AA en AF te kunnen draaien op hoge resolutie's van 1600x1200 en hoger. Dit kost gewoon heel veel kracht, en daarvoor worden die kaarten gemaakt, om de IQ van games verder te verhogen. Zeker de games gaan er steeds beter uitzien, gisteren even CoD MW2 gespeeld en dat ziet er subliem uit, maar de grafische eisen om dit zo mooi en gedetailleerd weer te geven zijn ook hoog te noemen. Dus ja, dat is wel nodig.
En het schijnt dat Dx11, in vergelijking met Dx 9 en Dx10 veel makkelijker is, het gerucht gaat dat Codemasters in 3 uur de Dx11 code van Dirt 2 klaar had, dus het is zeker wel aannemelijk om te geloven dat de Dx11 makkelijk te implementeren en te programmeren zijn.
Waarom niet? Omdat we aan het wachten zijn op onder andere de Unreal 4.0- en de Tech 5-engine. Ook CryEngine 3 kan leuk worden. Is alleen nog afwachten in hoeverre er voor de next-gen consoles wordt ontwikkeld en voor de pc. We kunnen eigenlijk alleen maar hopen dat next-gen consoles een HD 7850-achtige graka aan boord krijgen (2012). Dan pas gaan we weer sprongen zijn in IQ.
Ik vraag me af wat voor framerates je krijgt met edge detect met MW2. Kun je dat voor me testen?Marc Rademaker schreef op woensdag 20 januari 2010 @ 17:36:
[...]
Mwah, met een enkele HD 5870 kom je op 1920x1200 een heel eind.
Daar hebben ze echt wel van gehoord hoor. Alleen aangezien MW2 gewoon een Xbox poort is met iets betere textures + Keyboard/Mouse support hoef je niet te verwachten dat het er ooit inkomt.Omnyakom1 schreef op woensdag 20 januari 2010 @ 14:57:
Alleen jammer dat de devs van MW2 blijkbaar nooit van AF hebben gehoord.
Repi van DICE postte dat hij de FrostBite engine in één avondje DX11 had gemaakt. dan praat je natuurlijk niet over het implementeren van een aantal features, zoals tesselation. Maar het lichte werk, betere threading en AA etc. het is echt een "port" van het zuiverste soort.Anoniem: 59888 schreef op woensdag 20 januari 2010 @ 16:58:
Onzin, dat kan nooit. In theorie zou het kunnen dat ze in 3 uur hun DX10 codebase ook in een DX11 omgeving aan de praat hadden, maar in drie uur tijd alle nieuwe functionaliteit van DX11 implementeren is absoluut onmogelijk. Dat wil niet zeggen dat DX11 niet makkelijk is, maar van dit gerucht geloof ik helemaal niets.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
COD MW2 is peanuts. 2560x1600 als ik dan de eerste OPS missie start heb ik 150 FPS met een 5850 @ 950-1200. Multiplayer is capped @ 90 fps. Meeste van de tijd zit hij ook op die cap. heel af en toe een dropje naar 70. Dit is met alles max 4x AA. Dus COD MW2 is alles behalve zwaar. HD4890 deed dit ook al prima.Omnyakom1 schreef op woensdag 20 januari 2010 @ 18:04:
[...]
Ik vraag me af wat voor framerates je krijgt met edge detect met MW2. Kun je dat voor me testen?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://www.fudzilla.com/content/view/17325/1/
http://www.hardwarecanuck...-under-microscope-13.html
http://www.hardwarecanuck...-under-microscope-14.html
75% oid sneller als gtx285?
http://www.hardwarecanuck...-under-microscope-13.html
http://www.hardwarecanuck...-under-microscope-14.html
75% oid sneller als gtx285?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ik heb nog even naar die "Simulated" HD5870 results gekeken die Hardware Canucks gebruikt. Ze zeggen ook dat de GTX285 +- 2% afwijkt van de echte reviews. Dus dat de 5870 moet kloppen. De GTX285 klopt idd aardig hun zeggen 37.6 echt is 41.1. Maar bij de HD5870 zeggen hun 44.3. Ten eerste het verschil in te klein ten tweede in de review waar ik ook de 41.1 van de GTX285 heb (die van anandtech) Scoort de 5870 58 fps. Waar de GF100 62 scoort. Dus als je dat zou door trekken zou het iets van 65-66 worden voor de GF100. Kortom iets van 20% verschil.
Edit:
Ik heb die Farcry 2 test na getrokken.
Edit:
Ik heb die Farcry 2 test na getrokken.
[ Voor 30% gewijzigd door Astennu op 21-01-2010 08:08 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Expreview: NVIDIA Refutes AMD’s Accusation of PhysX Failure
nVidia ontkent bij monde van Nadeem Mohammad, PhysX director of product management, (wat een titelAlles is mogelijk en het ligt aan de uiteindelijke applicatie schrijver of deze al dan niet wil gebruik maken van meerdere threads.
Allezinds dat is wat de PR van nVidia beweert natuurlijk, maar moest hun aangebracht voorbeeld (met 12 threads) dus effectief kloppen is dat wel een slag naar ATI toe.
Nu is het ook wel een goedkope manier natuurlijk, het bestaat wel maar als de game developers hiervan geen gebruik willen maken (door invloed van nVidia) dan blijft het dode letter en wordt je cpu idd niet ten volle gebruikt. Maar het is dan geen technische beperking ... eerder een commerciele.
Maar waarom werkt het dan wel goed als men de boel gaat "hacken"? Er was een fix die ervoor zorgde dat het wel multicore werdt in Batman AA volgens mij, of was dat support van PhysX op Geforce kaarten als je ook ATI kaarten had?lightdestroyer schreef op donderdag 21 januari 2010 @ 10:15:Expreview: NVIDIA Refutes AMD’s Accusation of PhysX Failure
nVidia ontkent bij monde van Nadeem Mohammad, PhysX director of product management, (wat een titel) de beschuldigingen van ATI/AMD dat de PhysX SDK en implementatie/ondersteuning van multicore/multithreading voor CPU's gesaboteerd of verminderd zou hebben ten voordelen van de GPU implementatie.
Alles is mogelijk en het ligt aan de uiteindelijke applicatie schrijver of deze al dan niet wil gebruik maken van meerdere threads.
Allezinds dat is wat de PR van nVidia beweert natuurlijk, maar moest hun aangebracht voorbeeld (met 12 threads) dus effectief kloppen is dat wel een slag naar ATI toe.
Nu is het ook wel een goedkope manier natuurlijk, het bestaat wel maar als de game developers hiervan geen gebruik willen maken (door invloed van nVidia) dan blijft het dode letter en wordt je cpu idd niet ten volle gebruikt. Maar het is dan geen technische beperking ... eerder een commerciele.
Anyway, denk dat de waarheid ergens inhet midden ligt, dus dat Nvidia niet de code veranderd, maar hier wel subtiel op hint bij developers, en dat ATi deze "sabotage" als PR-materiaal gebruikt. Maar het zou me niet verbazen als Nvidia het wel doet, maar het niet zegt, het is geen onbekend kunstje voor ze
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Heel simpel, die hack zal waarschijnlijk gewoon de game code veranderen. De code van de game zal vermoedelijk gewoon geen gebruik maken van de multithread mogelijkheid.Darkasantion schreef op donderdag 21 januari 2010 @ 10:22:
[...]
Maar waarom werkt het dan wel goed als men de boel gaat "hacken"? Er was een fix die ervoor zorgde dat het wel multicore werdt in Batman AA volgens mij, of was dat support van PhysX op Geforce kaarten als je ook ATI kaarten had?
Anyway, denk dat de waarheid ergens inhet midden ligt, dus dat Nvidia niet de code veranderd, maar hier wel subtiel op hint bij developers, en dat ATi deze "sabotage" als PR-materiaal gebruikt. Maar het zou me niet verbazen als Nvidia het wel doet, maar het niet zegt, het is geen onbekend kunstje voor ze..... Er was een keer iets met een "echte" Fermi en een fake PCB-board ergens een keer toch
(En mss zelf door een nVidia software engineer geschreven zijn, net zoals de AA implementatie)
De claim van ATI was echter dat het aan PhysX lag ... nu laat nVidia weten dat het ligt aan hoe men de PhysX SDK gebruikt. In feite wou ATI gewoon heel het PhysX gedoe door de modder sleuren wanneer we in feite vooral de gameontwikkelaar of het twintb programma moeten blamen.. maar die discussie hebben we al eens gehad en willen we niet nog eens herdoen
Concreet ligt het dus niet aan het feit dat PhysX closed source is .. hetzelfde fenomeen kan je ook bereiken via OpenCL calls .. niets verplicht de ontwikkelaars om de aanwezige api ten volle te benutten
Spijtig genoeg is enkel de consument hiervan de dupe ..
On topic nieuws:
Cross post vanuit het AMD topic maar ook nVidia resultaten staan in dit schema vermeld.
Vorig jaar zijn ze blijkbaar 14% achteruit gegaan qua omzet(tweede jaar op rij dat ze achteruit gaan btw, zelf in 2008 hebben ze het al niet goed gedaan.)

En net zoals in het AMD topic wil ik er ook op wijzen dat Qualcomm op nr1 staat. Dus kleine goedkopere/simpelere chips kunnen meer opbrengen (toch qua omzet) dan complexe gpu cores.
Iets wat nVidia ook beseft daar hun chipset afdeling één van hun grootste inkomstbronnen was tot een tijd geleden.
Zo zie je dus hoe belangrijk dat het Tegra platform kan worden voor nVidia (en dit dus in feite idd de toekomst van nVidia kan bepalen of tenminste beïnvloeden)
nVidia GF100 Fermi silicon cost analysis
De GF100 zal in het begin nog niet winstgevend zijn voor consumentenkaarten (Geforce), alleen op Tesla/Quadro gaat wat verdiend worden...nVidia can fit 94 GF100 chips on a single 300mm wafer as TSMC is able to make them.
...
In case of nVidia, when 60% is the best you can expect and 40% is a realistic goal, you're ending up with the 240x240mm die costing $87, but realistically you're looking at $131 per chip. $131 isn't all that bad, given the current cost of single AMD Cypress die is $96. For as long as you're under $100 per die, you can count your blessings with TSMC's 40nm process.
This is where the issue happened with this three billion transistor monster of a die. The yield of initial A1 silicon resulted in only nine working dies per wafer [which was the source of false rumor of 2% yield - in reality, 2% yield would be 1-2 dies per wafer], i.e. less than 10%. If we take a figure of $5000 per single wafer, the yield of around 10 percent put a price of single NV100 chip to around $550. With only Tesla businesses able to support that chip price [Quadro could sustain up to $350 per die and remain profitable], it was obvious that A2 revision was the way to go. Unfortunately, A2 revision didn't come up with necessary yield increase. According to our sources, nVidia achieved a 25% yield with A2 silicon, coming up with around 24-26 functional dies per wafer. This puts the cost of a single chip into the $208 range, i.e. you can get 4.2 billion transistors [2x Cypress, i.e. HD 5970] for the price of a single three billion die.

[ Voor 0% gewijzigd door Domokoen op 21-01-2010 17:14 . Reden: quote tag toegevoegd ]
Maar zitten ze nu niet al aan A3 silicon?
Daarbij zouden de problemen bij TSMC grotendeels gepasseerd moeten zijn (nu ook volgens onze FP)
In feite weet ik niet wat ik moet denken over al die "inside" info
Voornamelijk da laatste zinnetje van dat artikel:
Nu het kan zijn dat ze bedoelen dat nVidia in februari beginnen met leveren van gpu cores aan AIB's .. maar ik heb geen idee hoe lang die er over doen om een werkende gpu ervan te maken. Ik zou denken een weekje ... maar wss ben ik hierin veel te optimistisch.
(En in die gequote tekst spreken ze over GF100 boards, geen chips of gpu cores .. met een board versta ik toch een volledig werkende GeForce kaart ?)
Daarbij ben ik niet overtuigd van hun prent in het begin van het artikel. Als ik die cirkel een beetje naar rechts duw verlies ik geen enkele core aan de linkerkant maar win ik er aan de bovenkant en aan de rechterkant er in totaal 3 bij. Die cirkel staat al niet mooi centraal dus ik zou niet weten waarom zo'n high tech bedrijf er niet zou voor zorgen dat er zo'n hoog mogelijk aantal cores potentieel uit die wafer kan komen.
Buiten misschien redenen die ik niet ken die er voor zorgen dat het noodzakelijk is dat die cores op die positie op de ronde wafer moeten worden geproduceerd. (kvraag me eigenlijk wel af of ze ooit vierkante of rechthoekige wafers in productie gaan nemen, lijkt me toch veel efficienter
)
Daarbij zouden de problemen bij TSMC grotendeels gepasseerd moeten zijn (nu ook volgens onze FP)
In feite weet ik niet wat ik moet denken over al die "inside" info
Voornamelijk da laatste zinnetje van dat artikel:
neem ik toch met een hoop zout, ik denk eerder een release einde maart, begin april.nVidia ramped up the GF100 manufacturing and is now getting ready for the launch. We know that mass production of GF100 boards will initialize in first week of February, with other AIB partners following in second, third and fourth week of February. However, we don't expect that GeForce lineup will be nVidia's bread and butter. Not this time around.
Nu het kan zijn dat ze bedoelen dat nVidia in februari beginnen met leveren van gpu cores aan AIB's .. maar ik heb geen idee hoe lang die er over doen om een werkende gpu ervan te maken. Ik zou denken een weekje ... maar wss ben ik hierin veel te optimistisch.
(En in die gequote tekst spreken ze over GF100 boards, geen chips of gpu cores .. met een board versta ik toch een volledig werkende GeForce kaart ?)
Daarbij ben ik niet overtuigd van hun prent in het begin van het artikel. Als ik die cirkel een beetje naar rechts duw verlies ik geen enkele core aan de linkerkant maar win ik er aan de bovenkant en aan de rechterkant er in totaal 3 bij. Die cirkel staat al niet mooi centraal dus ik zou niet weten waarom zo'n high tech bedrijf er niet zou voor zorgen dat er zo'n hoog mogelijk aantal cores potentieel uit die wafer kan komen.
Buiten misschien redenen die ik niet ken die er voor zorgen dat het noodzakelijk is dat die cores op die positie op de ronde wafer moeten worden geproduceerd. (kvraag me eigenlijk wel af of ze ooit vierkante of rechthoekige wafers in productie gaan nemen, lijkt me toch veel efficienter
Hoezo niet winstgevend? Dat lees ik niet in dat stukje.
1 GF100 chip is (grofweg) een keer zo duur om te maken als een HD5870 chip. Een GF100 kaart zal ongeveer hetzelfde kosten als een HD5970. Als de GF100 net zo snel is als de HD5970, kunnen ze hem qua prijs iets duurder makan als de HD5970, en gewoon winst maken.
Aangzien de HD5970 kunstmatig duur gehouden wordt (hij staat te koop voor 470 a 480 euro, alleen wordt verkocht als hij ip voorraad is voor 600), dan zou een GTX380 zo'n 500 tot 550 dollar gaan kosten. Dus zeg maar zo'n 500 euro.
Het is helaas weer een dure chip, maar als hij net zo snel is als een HD5970, dan is er niets mis met 500 imho.
Zo heel goed zijn de yields van de RV870 ook nog niet volgens mij, maar ik kan me vergissen. Al is die chip natuurlijk een stuk kleiner.
1 GF100 chip is (grofweg) een keer zo duur om te maken als een HD5870 chip. Een GF100 kaart zal ongeveer hetzelfde kosten als een HD5970. Als de GF100 net zo snel is als de HD5970, kunnen ze hem qua prijs iets duurder makan als de HD5970, en gewoon winst maken.
Het is helaas weer een dure chip, maar als hij net zo snel is als een HD5970, dan is er niets mis met 500 imho.
Zo heel goed zijn de yields van de RV870 ook nog niet volgens mij, maar ik kan me vergissen. Al is die chip natuurlijk een stuk kleiner.
[ Voor 10% gewijzigd door Format-C op 21-01-2010 19:36 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nu is er idd niets mis mee, maar over een half jaar wel.Format-C schreef op donderdag 21 januari 2010 @ 17:41:
Hoezo niet winstgevend? Dat lees ik niet in dat stukje.
1 GF100 chip is (grofweg) een keer zo duur om te maken als een HD5870 chip. Een GF100 kaart zal ongeveer hetzelfde kosten als een HD5970. Als de GF100 net zo snel is als de HD5970, kunnen ze hem qua prijs iets duurder makan als de HD5970, en gewoon winst maken.Aangzien de HD5970 kunstmatig duur gehouden wordt (hij staat te koop voor 470 a 480 euro, alleen wordt verkocht als hij ip voorraad is voor 600), dan zou een GTX380 zo'n 500 tot 550 dollar gaan kosten. Dus zeg maar zo'n 500 euro.
Het is helaas een weer een dure chip, maar als hij net zo snel is als een HD5970, dan is er niets mis met 500 imho.
Zo heel goed zijn de yields van de HD5870 ook nog niet volgens mij, maar ik kan me vergissen. Al is die chip natuurlijk een stuk kleiner.
Denk maar aan de GT200 chips. Ook niks mis mee aan de oorspronkelijke prijszetting. Maar nVidia kan weer amper met de prijs zakken, de marge waarin ze over een half jaar of nog wat langer goedkopere gtx380's kunnen leveren zal heel klein zijn. (En rekenen op een kleiner productieproces om over een tijdje de kosten te drukken, zoals GT 280 naar gt285 moeten ze momenteel ook niet doen.)
Maar bon die huidige 25% yields waarmee ze nu rekenen kan eigenlijk wel nog stukken beter
+ ook vermeld zal vooral Tegra2 de grote geldkoe moeten worden.
Daar heb je idd een goed punt. Daar had ik even niet aan gedacht.lightdestroyer schreef op donderdag 21 januari 2010 @ 17:47:
[...]
Nu is er idd niets mis mee, maar over een half jaar wel.
Al heeft nV natuurlijk wel een grote "fan" base die allemaal aan de GF100 gaan.
[ Voor 29% gewijzigd door Format-C op 21-01-2010 17:50 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
edit: NEEEEEEEEEEEEEP
Geen delete knop is zo 1136. Kom op Jongens!
Geen delete knop is zo 1136. Kom op Jongens!
[ Voor 146% gewijzigd door neliz op 21-01-2010 18:02 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Die nieuwe driverversie (196.21 WHQL) van Nvidia heeft mijn oude EN7600gs écht een boost gegeven! Bij alle games pakweg 5 fps erbij. Toch staat er in de releasnote weinig veranderingen betreffende mijn videokaart...
Weet iemand hoe dit kan?
Weet iemand hoe dit kan?
Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic
Anoniem: 317606
Ze vergeten twee dingen, er is inmiddels een A3 sample en TSMC heeft zijn 40nm productieproblemen opgelost. Je mag minstens 40 tot 50% yield verwachten.Mr.Chinchilla schreef op donderdag 21 januari 2010 @ 17:13:nVidia GF100 Fermi silicon cost analysis
[...]
De GF100 zal in het begin nog niet winstgevend zijn voor consumentenkaarten (Geforce), alleen op Tesla/Quadro gaat wat verdiend worden...
Wat daar staat kloptneem ik toch met een hoop zout, ik denk eerder een release einde maart, begin april.
Nu het kan zijn dat ze bedoelen dat nVidia in februari beginnen met leveren van gpu cores aan AIB's .. maar ik heb geen idee hoe lang die er over doen om een werkende gpu ervan te maken. Ik zou denken een weekje ... maar wss ben ik hierin veel te optimistisch.
(En in die gequote tekst spreken ze over GF100 boards, geen chips of gpu cores .. met een board versta ik toch een volledig werkende GeForce kaart ?)
Anoniem: 292676
Nvidia 3D Surround Vision: how to make a joke
original (CZECH): http://www.czechgamer.com...und-jak-se-dela-vtip.htmlWell, I spent tons of hours with GeForce 3D Vision - great thing. But now, after first intro of 3D Vision Surround, I realized several issues and every one of them makes 3D Vision Surround just a big piece of nothing. First one: it's not a "surround" at all due to glasses. Second: incredible price. Third one: you need Quad-SLI for "smooth" FPS. Bottom line: Nvidias response to ATIs Eyefinity is just a messy paper product, as all of us thought...
vertaalt (NL): http://translate.google.c...und-jak-se-dela-vtip.html
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 263719
En nog Fudzilla nieuws : http://www.fudzilla.com/content/view/17356/1/
Heetste single chip ooit...
Heetste single chip ooit...
[ Voor 14% gewijzigd door Anoniem: 263719 op 22-01-2010 14:31 ]
Anoniem: 308932
als je een GTX 300 koopt hoef je voor de winter geen verwarming aanAnoniem: 263719 schreef op vrijdag 22 januari 2010 @ 14:31:
En nog Fudzilla nieuws : http://www.fudzilla.com/content/view/17356/1/
Heetste single chip ooit...
Hoe gaan ze dat doen met een dual gpu variant dan?Anoniem: 263719 schreef op vrijdag 22 januari 2010 @ 14:31:
En nog Fudzilla nieuws : http://www.fudzilla.com/content/view/17356/1/
Heetste single chip ooit...
Een dual GTX360 met lagere clocks?
Is het al zeker dat er een dual gpu komt?
Als die komtdaan! schreef op vrijdag 22 januari 2010 @ 16:42:
[...]
Hoe gaan ze dat doen met een dual gpu variant dan?
Een dual GTX360 met lagere clocks?
Is het al zeker dat er een dual gpu komt?
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Neen. Dit is geen adviestopic.
[ Voor 89% gewijzigd door Edmin op 22-01-2010 21:05 ]
7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE
Anoniem: 292676
wel ze hebben verschillende optiesdaan! schreef op vrijdag 22 januari 2010 @ 16:42:
[...]
Hoe gaan ze dat doen met een dual gpu variant dan?
Een dual GTX360 met lagere clocks?
Is het al zeker dat er een dual gpu komt?
- wachten op de volgende transistornode (28nm) zoals de GTX 295
- veel clusters uitschakelen en lagere frequenties
- de pcie specificaties doorbreken (max 300w)
En dat zal Nvidia niet doen, hun CEO staat erom bekend dat hij de snelste kaart wil hebben, of tenminste dat beeld wordt er gecreëerd rondom hemAnoniem: 292676 schreef op vrijdag 22 januari 2010 @ 16:54:
[...]
wel ze hebben verschillende opties
- wachten op de volgende transistornode (28nm) zoals de GTX 295
- veel clusters uitschakelen en lagere frequenties
- de pcie specificaties doorbreken (max 300w)
ik zou gewoon ATI met de kroon van snelste gpu laten lopen
Dus als Fermi HD5970 niet aankan, komt er een Double Fermi.... maar is dat ook double trouble
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
De die-shrink laat ook nog wel op zich wachten tot eind dit jaar op zijn allervroegst, dus daarmee krijg je de performance-kroon ook niet terug.
Probleem met het terugschroeven van de snelheid en het uitschakelen van clusters is, dat je met de enkele chip op maximum specs al tegen de 300 Watt aan zit, waardoor een SLI-kaart die daar ook onder moet blijven, per definitie al haast nooit sneller zal kunnen zijn, aangezien SLI gemiddeld nooit 100% schaalt.
Probleem met het terugschroeven van de snelheid en het uitschakelen van clusters is, dat je met de enkele chip op maximum specs al tegen de 300 Watt aan zit, waardoor een SLI-kaart die daar ook onder moet blijven, per definitie al haast nooit sneller zal kunnen zijn, aangezien SLI gemiddeld nooit 100% schaalt.
Anoniem: 59888
Ze kunnen natuurlijk ook twee GF100 kaarten wat steviger aan elkaar vast maken en dat als de snelste kaart verkopen. "Dual PCB and dual PCI-e connectors for extra performance!"
Misschien kunnen ze Fermi chips cherrypicken om ze zo flink te kunnen ondervolten? (met waarschijnlijk ook een onderclock)
Een beetje zoals ATI met de HD5970 heeft gedaan.
Maar zelfs dan lijkt het onwaarschijnlijk dat ze onder de 300 watt kunnen blijven.
Een beetje zoals ATI met de HD5970 heeft gedaan.
Maar zelfs dan lijkt het onwaarschijnlijk dat ze onder de 300 watt kunnen blijven.
Naar verluidt kan de single kaart wel eens 280W gaan verstoken. Als dit zo is haal je het never nooit om met een dual GPU onder de 300 watt te komen. Geen dual GTX380 in ieder geval.daan! schreef op vrijdag 22 januari 2010 @ 18:52:
Misschien kunnen ze Fermi chips cherrypicken om ze zo flink te kunnen ondervolten? (met waarschijnlijk ook een onderclock)
Een beetje zoals ATI met de HD5970 heeft gedaan.
Maar zelfs dan lijkt het onwaarschijnlijk dat ze onder de 300 watt kunnen blijven.
Persoonlijk denk ik dat nVidia gewoon over die 300 watt heen gaat. Ze zullen het wel binnen de perken proberen te houden.
Maar mochten ze komen dan komen ze erg laat, net als wat dahakon zegt.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Waarom niet? Waarom zou Nvidia zich aan een of andere 'specificatie' houden?? We leven in de tijd van de 1,5 kW voedingen! Waarom zou 500 watt of meer dan niet kunnen?StefanvanGelder schreef op vrijdag 22 januari 2010 @ 18:55:
[...]
Naar verluidt kan de single kaart wel eens 280W gaan verstoken. Als dit zo is haal je het never nooit om met een dual GPU onder de 300 watt te komen. Geen dual GTX380 in ieder geval.
Persoonlijk denk ik dat nVidia gewoon over die 300 watt heen gaat. Ze zullen het wel binnen de perken proberen te houden.
Maar mochten ze komen dan komen ze erg laat, net als wat dahakon zegt.
Het kàn wel maar dan heb je dus waarschijnlijk wel een kaart met stofzuigerkoeling en hitteproblemen
de asus mars is bijvoorbeeld ook niet de meest praktische kaart om te hebben.
En als je drie acht-pins stekkers nodig hebt en minimaal een 700W-voeding verklein je je markt ook nogal...
En als je drie acht-pins stekkers nodig hebt en minimaal een 700W-voeding verklein je je markt ook nogal...
[ Voor 23% gewijzigd door bwerg op 22-01-2010 19:18 ]
Heeft geen speciale krachten en is daar erg boos over.
Omdat er anders geen PCIe op mag staan en vooral voor OEM's is dat nogal een probleem.TheMasterofDome schreef op vrijdag 22 januari 2010 @ 19:13:
Waarom zou Nvidia zich aan een of andere 'specificatie' houden??
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Alsof die markt al zo groot wasbwerg schreef op vrijdag 22 januari 2010 @ 19:17:
Het kàn wel maar dan heb je dus waarschijnlijk wel een kaart met stofzuigerkoeling en hitteproblemende asus mars is bijvoorbeeld ook niet de meest praktische kaart om te hebben.
En als je drie acht-pins stekkers nodig hebt en minimaal een 700W-voeding verklein je je markt ook nogal...
Gamertag for Xbox: R0SSI
Nee, klopt, maar daarom juist, ik snap al niet waarom Asus de mars uitbracht, wat heb je aan dat product... dus ik zou ook niet weten waarom Nvidia zelf zo'n kaart uit zou brengen.
Heeft geen speciale krachten en is daar erg boos over.
Die 500 Watt moet ook nog 'veilig' door het PCB gejaagd worden he, voordat het bij de GPU aankomt. Ik wil niet weten wat voor banen daarvoor nodig zijn en hoeveel lagen het PCB uit zal moeten bestaan, als het uberhaupt mogelijk is om dit in de relatief kleine oppervlakte van een videokaart kwijt te kunnen. Ik denk niet dat er veel mensen zitten te wachten op een affikkende PC omdat hun 1000 euro kostende kaart een beetje te heet werd.
En hoeveel watt gebruikt de evga classified gtx285 met 3x6pins?
http://www.evga.com/articles/00501/
http://www.evga.com/articles/00501/
|2600k|Asus 290|
Hmm, ja. Ik zie jullie punt.. Maar houd het dan niet een keer op? Ik denk dat op een gegeven moment ze toch een dikker PCB moeten gaan gebruiken en een PCI-e 3.0? (p.s. Wat is trouwens het verschil tussen 2.0 en 2.1?) Zelfs met kleinere procedures...
Nee, waarom zou het ophouden? Als je procedé maar kleiner wordt krijg je vanzelf meer prestaties per verbruik. Ter vergelijking, een 2900XT, een topkaart van tig jaar geleden, verbruikte meer dan de HD5870, een topkaart van nu. Het verbruik veranderd wel maar gemiddeld genomen blijft het wel in hetzelfde bereik. Wat de toekomst ook brengt, 400-500W is gewoon onpraktisch qua hitteproductie en dat is over tien jaar nog steeds zo (of we moeten Mega-ATX formfactor krijgen
met 300mm-fans)
Heeft geen speciale krachten en is daar erg boos over.
3x 6-pins kan in basis evenveel leveren als 1x 6-pins en 1x 8-pins samen. Het lijkt me dat EVGA de 3x 6-pins oplossing heeft gekozen omdat je dan iets meer controle hebt over het vermogen dat door het bord heen gaat. Wellicht is op die manier stabieler een hoge kloksnelheid te behalen.Bullus schreef op vrijdag 22 januari 2010 @ 19:48:
En hoeveel watt gebruikt de evga classified gtx285 met 3x6pins?
http://www.evga.com/articles/00501/
Al zouden ze het topmodel met wat winst kunnen produceren dan blijft het grootste probleem dat er sowieso weinig kaarten in dat segment verkocht worden en er dus maar heel weinig verdiend wordt.Format-C schreef op donderdag 21 januari 2010 @ 17:41:
Hoezo niet winstgevend? Dat lees ik niet in dat stukje.
1 GF100 chip is (grofweg) een keer zo duur om te maken als een HD5870 chip. Een GF100 kaart zal ongeveer hetzelfde kosten als een HD5970. Als de GF100 net zo snel is als de HD5970, kunnen ze hem qua prijs iets duurder makan als de HD5970, en gewoon winst maken.Aangzien de HD5970 kunstmatig duur gehouden wordt (hij staat te koop voor 470 a 480 euro, alleen wordt verkocht als hij ip voorraad is voor 600), dan zou een GTX380 zo'n 500 tot 550 dollar gaan kosten. Dus zeg maar zo'n 500 euro.
Het is helaas weer een dure chip, maar als hij net zo snel is als een HD5970, dan is er niets mis met 500 imho.
Zo heel goed zijn de yields van de RV870 ook nog niet volgens mij, maar ik kan me vergissen. Al is die chip natuurlijk een stuk kleiner.
Verder heeft nvidia binnen afzienbare tijd helemaal niks relevants (iig qua dx11) in het interessante gebied van, laten we het breed nemen, 0 tot 200 a 300 EUR. Ja ws een oude dx10 rebrand die ze zo marketen dat ie afgeleid lijkt van de Fermi....
Dit terwijl ATI er dan al een komplete zeer competetieve DX 11 productlijn uitgeknald heeft.
Persoonlijk vind ik het Tessellator model dat nVidia gekozen heeft interessant en de Fermi zou voor mij wellicht best een optie zijn. Maar ik denk dat nVidia het grootste deel van dit jaar zeer moeilijk blijft houden op het consumenten GPU gebied.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De mensen die de nieuwe drivers hebben geïnstalleerd, kunnen niet meer overclocken, een bekend probleem langzamerhand. Dit komt doordat nVidia zo leuk is geweest om de Shader-core's voortaan CUDA-core's te noemen. Je kan via EVGA precision nog wel overclocken dankzij een quick-fix van de makers.
Gamertag for Xbox: R0SSI
Anoniem: 263719
Judge rules NVIDIA violates three Rambus patents
Some bad and likely very expensive news for NVIDIA. The International Trade Commission (ITC) ruled today that NVIDIA is violating three patents owned by Rambus. The patents relate to memory controller technology that is used in the company's GeForce, Quadro, nForce, Tesla and Tegra products.
A judge with the U.S. International Trade Commission in Washington said today that Nvidia is violating three patents owned by Rambus. Two other patents are invalid, said Judge Theodore Essex. His decision, which is subject to review by the full commission, may result in a ban on imports of Nvidia chips and products that use them, including some computers made by Hewlett-Packard Co.
Rambus, based in Los Altos, California, has been in litigation for a decade against companies that refused to license its patents. On Jan. 19, Samsung Electronics Co. said it would pay $900 million to end its legal dispute with Rambus and reach a new licensing deal over computer-memory technology.
Dus......... dit gaat eindigen in een juridische strijd met als uitkomst een schikking tussen nVidia Corp. en Rambus waarbij er vet veel betaald gaat worden? Lijkt me niet dat nVidia nogmaals iets tussen haar en de markt gaat laten komen.
Samsung heeft Rambus net een erg leuk bedrag betaald voor een schikking.Jejking schreef op zaterdag 23 januari 2010 @ 15:14:
Dus......... dit gaat eindigen in een juridische strijd met als uitkomst een schikking tussen nVidia Corp. en Rambus waarbij er vet veel betaald gaat worden? Lijkt me niet dat nVidia nogmaals iets tussen haar en de markt gaat laten komen.
nieuws: Samsung schikt met Rambus voor 900 miljoen dollar
nVidia zal wel iets minder moeten betalen maar voor nVidia zal het wel zwaarder vallen als voor Samsung.
Zodat je van meerdere bronnen (PSU's) Stroom kan halen. Sommige High end OC Setups onder LN2 gebruiken wel 3-4 PSU's.dahakon schreef op vrijdag 22 januari 2010 @ 20:55:
[...]
3x 6-pins kan in basis evenveel leveren als 1x 6-pins en 1x 8-pins samen. Het lijkt me dat EVGA de 3x 6-pins oplossing heeft gekozen omdat je dan iets meer controle hebt over het vermogen dat door het bord heen gaat. Wellicht is op die manier stabieler een hoge kloksnelheid te behalen.
Ik heb ook al extreme mods van HD5870's gezien waar ze er twee 6p connectors bij gesoldeerd hadden. Totaal had je dan 4x 6P per kaart. En dan 4 kaarten in CF.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Zou best waar kunnen zijn, ze zijn allang begonnen aan de opvolger, Fermi got delayed, opvolger niet -> Fermi wordt snel opgevolgd. De opvolger zal waarschijnlijk ook op 40nm gebakken worden en die hebben ze rond die tijd al onder de knie!
Ik heb hier zo'n roadmap ingegooid waar Fermi2 op stond in Q4.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Snijden ze zichzelf dan niet ontzettend in de vingers? Te weinig tijd om wat te verdienen met Fermi1 enz..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Zie R600->Rv670.Xenomorphh schreef op maandag 25 januari 2010 @ 13:41:
Snijden ze zichzelf dan niet ontzettend in de vingers? Te weinig tijd om wat te verdienen met Fermi1 enz..
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat wist ik niet, weer iets intressants bijgeleerd zie :]Anoniem: 317606 schreef op donderdag 21 januari 2010 @ 21:49:
[...]
Wat daar staat kloptZodra de partners de chips ontvangen duurt het gemiddeld nog zes weken voor de kaarten zelf klaar zijn. Dus eind maart wordt dat.
Alhoewel ik vermoed dat die partners een gpu core + referentie pcb krijgen + standaard koelertje (daar ik bij de Tesla gezien heb dat het board design redelijk "af" leek vanuit nVidia zijn kant zonder tussenkomst van de partners.
Is die 6 weken dan enkel voor Kwaliteitstesten, stickertjes plakken en transport(opvullen van de voorraden zodat je geen paper launch hebt de eerste dagen)/marketing?
Of moeten partners nog andere zaken in orde krijgen?
Ook Fudzilla bevestigd het feit dat de partners er idd nog een tijdje overdoen voordat we Fermi daadwerkelijk in de winkels kunnen kopen als partner.
Fudzilla: Partners to get Fermi cards in February
Een ander intressant gegeven uit dat artikel is de volgende paragraaf:Ik geloof dat ik dat gerucht/nieuwsfeit hier nog niet heb zien passeren , indien wel mijn excuses ..quote: FudzillaThe mainstream Femi will end up in partners’ hands and they will manufacture these chips on their own, but this is still at least one quarter after the original GF100 Geforce single chip high-end card.
Ook heeft nVidia een nieuw physX benchmark gereleased:
Expreview: Dark Void PhysX Benchmark Available
Nieuwe reclame voor PhysX only feature en een nieuw PhysX ondersteunend spel, dit om DiectX11 een beetje uit te belagstelling te houden? Nu deze game stond al een tijdje in de PhysX tijdslijn diasEn het laatste gerucht dat ik gelezen heb op het forum van Hardocp
Wat inderdaad staat te lezen in het volgende artikel op techreport:quote: forum"By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision"
Gf100 Graphics architecture unveiled: The Tech Report - Page 5
Wat eigenlijk ook totaal onredelijk is
De hobbyist die graag veel DP kracht wil gebruiken gaat toch niet direct een héél dure Tesla kaart kopen ook al is die dan 4 keer zo snel...
Dusja ik denk niet dat dit een goede beslissing is geweest.
Ik geloof ook dat in Q4 van 2010/ Q1 van 2011 ATI al klaar staat met hun volgende generatie kaarten, dus het zal eerder van moetes zijn willen ze niet helemaal achter de feiten aanlopen.Xenomorphh schreef op maandag 25 januari 2010 @ 13:41:
Snijden ze zichzelf dan niet ontzettend in de vingers? Te weinig tijd om wat te verdienen met Fermi1 enz..
ATI komt iets eerder volgens mij al met de RV970(of hoe het ook mag heten tegen die tijd), ik heb Q3 en misschien al zelfs eind Q2 langs horen komen als mogelijke data voor deze serielightdestroyer schreef op maandag 25 januari 2010 @ 14:05:
[...]
Ik geloof ook dat in Q4 van 2010/ Q1 van 2011 ATI al klaar staat met hun volgende generatie kaarten, dus het zal eerder van moetes zijn willen ze niet helemaal achter de feiten aanlopen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Volgens mij doet ATI een refresh van de RV870 wat upgrades/optimalisaties in de architectuur en dan uitbrengen op 28nm.
Zodat ze straks een volwassen productie procedé(ervaring hebben met) hebben voor RV970, want ben eerlijk die 40nm productie bij TSMC zal nooit worden wat het moet zijn zoals 65nm bij AMD CPU's gewoon slechter was dan het 90nm productie procedé.
Wellicht dat ze nu omdat ze een volwassen architectuur(Cypresss) hebben deze op 28nm bij TSMC en Global Foundries produceren/testen.
nVidia zal met hun Fermi gewoon rushen voor 28nm want de chips is nu gewoon veel te groot en ze zullen er dan nog wel het een en ander aan veranderen optimaliseren/upgrade.
Hopen dat de Fermi 28nm variant wel ongeveer op het zelfde tijdstip als RV870 28nm variant uitkomt.
Zal wel niet
Zodat ze straks een volwassen productie procedé(ervaring hebben met) hebben voor RV970, want ben eerlijk die 40nm productie bij TSMC zal nooit worden wat het moet zijn zoals 65nm bij AMD CPU's gewoon slechter was dan het 90nm productie procedé.
Wellicht dat ze nu omdat ze een volwassen architectuur(Cypresss) hebben deze op 28nm bij TSMC en Global Foundries produceren/testen.
nVidia zal met hun Fermi gewoon rushen voor 28nm want de chips is nu gewoon veel te groot en ze zullen er dan nog wel het een en ander aan veranderen optimaliseren/upgrade.
Hopen dat de Fermi 28nm variant wel ongeveer op het zelfde tijdstip als RV870 28nm variant uitkomt.
Zal wel niet
28nm willen ze in GF gaan doen en daar zijn ze pas begin 2011 klaar voor o.i.d.madmaxnl schreef op maandag 25 januari 2010 @ 16:06:
Volgens mij doet ATI een refresh van de RV870 wat upgrades/optimalisaties in de architectuur en dan uitbrengen op 28nm.
40nm bij TSMC is naar mijn weten prima in orde nu, voor de radeon-kaarten in ieder geval.Zodat ze straks een volwassen productie procedé(ervaring hebben met) hebben voor RV970, want ben eerlijk die 40nm productie bij TSMC zal nooit worden wat het moet zijn zoals 65nm bij AMD CPU's gewoon slechter was dan het 90nm productie procedé.
Ik weet eigenlijk niet of dat wel kan/werkt, volgens mij is de éne 28nm de andere 28nm niet, maar ik kan er naast zitten.Wellicht dat ze nu omdat ze een volwassen architectuur(Cypresss) hebben deze op 28nm bij TSMC en Global Foundries produceren/testen.
En dan ergens in 2011 goed verkrijgbaar zijn? Hebben ze tot die tijd de GTX260 en GTX295 om het uit te houdennVidia zal met hun Fermi gewoon rushen voor 28nm want de chips is nu gewoon veel te groot en ze zullen er dan nog wel het een en ander aan veranderen optimaliseren/upgrade.
Heeft geen speciale krachten en is daar erg boos over.
Yields zijn zowel proces- als ontwerpafhankelijk.bwerg schreef op maandag 25 januari 2010 @ 18:52:
[...]
40nm bij TSMC is naar mijn weten prima in orde nu, voor de radeon-kaarten in ieder geval.
[...]
Ja, dat wilde ik daarmee dus zeggenEdmin schreef op maandag 25 januari 2010 @ 18:54:
[...]
Yields zijn zowel proces- als ontwerpafhankelijk.
[ Voor 35% gewijzigd door bwerg op 25-01-2010 19:05 ]
Heeft geen speciale krachten en is daar erg boos over.
True maar hoe willen ze dit doen ? lijkt me nog wat vroeg voor 28nm. Tenzij Fermi2 de G92 versie is van Fermi.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
niet per sé kleiner.. maar gewoon beter?Astennu schreef op dinsdag 26 januari 2010 @ 07:50:
[...]
True maar hoe willen ze dit doen ? lijkt me nog wat vroeg voor 28nm. Tenzij Fermi2 de G92 versie is van Fermi.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ze hebben net de hele boel aangepast en dan al weer grote wijzigingen door voeren ? Ik denk dat die veranderingen dan niet zo heel groot zullen zijn maar dat het net even wat meer is dan een clockspeed boost.
De G92 was trouwens ook een tweaked G80. Alleen door de kleinere memory bus was deze wat trager. Maar verder zaten er wel verbeteringen in zoals meer TMU's.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Je zult denk ik verrast wordenAstennu schreef op dinsdag 26 januari 2010 @ 08:15:
[...]
Ze hebben net de hele boel aangepast en dan al weer grote wijzigingen door voeren ? Ik denk dat die veranderingen dan niet zo heel groot zullen zijn maar dat het net even wat meer is dan een clockspeed boost.
De G92 was trouwens ook een tweaked G80. Alleen door de kleinere memory bus was deze wat trager. Maar verder zaten er wel verbeteringen in zoals meer TMU's.
Heb je daar wat meer onderbouwing voor?
Ik heb persoonlijk weinig vertrouwen in een snelle refresh van een product dat zo veel problemen heeft gegeven. Immers, als de eerste versie nog niet stabiel is, hoe wil je dan doorontwikkelen naar een verbeterde versie?
Ik heb persoonlijk weinig vertrouwen in een snelle refresh van een product dat zo veel problemen heeft gegeven. Immers, als de eerste versie nog niet stabiel is, hoe wil je dan doorontwikkelen naar een verbeterde versie?
Deden ze dat niet precies met NV35?Edmin schreef op dinsdag 26 januari 2010 @ 11:31:
Heb je daar wat meer onderbouwing voor?
Ik heb persoonlijk weinig vertrouwen in een snelle refresh van een product dat zo veel problemen heeft gegeven. Immers, als de eerste versie nog niet stabiel is, hoe wil je dan doorontwikkelen naar een verbeterde versie?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Daar zat wel iets langer tussen dan 6 maanden. Maar goed het kan wel want Fermi had op de markt moeten zijn. Echter is deze vertraagt. Beetje hetzelfde als X1800 > X1900. Zat ook redelijk dicht op elkaar door dat de X1800 serie vertraagt was.spNk schreef op dinsdag 26 januari 2010 @ 12:20:
Zie phenom 1 -> 2 b.v.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is inderdaad mogelijk om relatief snel met een verbeterde versie uit te komen. ATI deed dit niet alleen met X1800 -> X1900, maar ook HD2900 -> HD3870 was een snelle overgang (mei en november 2007). Echter, dat 1 bedrijf dit succesvol doet, betekent niet dat een ander ook die strategy wil toepassen, of daarin zal slagen.Astennu schreef op dinsdag 26 januari 2010 @ 12:59:
[...]
Daar zat wel iets langer tussen dan 6 maanden. Maar goed het kan wel want Fermi had op de markt moeten zijn. Echter is deze vertraagt. Beetje hetzelfde als X1800 > X1900. Zat ook redelijk dicht op elkaar door dat de X1800 serie vertraagt was.
Grootste probleem voor nVidia tot nog toe is om chips van enige omvang te ontwerpen die goed het 40nm proces doorstaan. Geschrapte projecten geven op dat vlak echter weinig hoop, aangezien zelfs een volledige g92-achtige chip op 40nm overboord gegooid werd voor een kleinere.
Grootste uitdaging voor nVidia is dan ook niet om de chip efficienter te maken, zoals het vooral het geval was bij ATI, maar om hem fabriceerbaar te maken (lees yields van ver boven de 50%)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het blijft hier weer akelig stil.... Ben benieuwd wanneer er nu eens wat meer concrete info over de GF100 komt. (en dan bedoel ik niet de roddels)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Na de update over de architectuur, heb ik werkelijk nergens meer een fatsoenlijk beetje info gezien. Ik had in ieder geval gehoopt dat ze nu (ongeveer een maand voor de voorspelde release) toch wel met concretere info over de releasedatum zouden komen.
Kan niet veel goeds betekenen volgens mij. Als er een bedrijf is dat altijd hard loopt te schreuwen als ze iets nieuws hebben is het wel nVidia (Intel kan er ook aardig wat van)
[ Voor 9% gewijzigd door Astennu op 29-01-2010 16:22 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Stilte voor de storm misschien?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Voorzover ik me herinner doet nVidia niet aan de stilte voor de storm marketing, die prijzen hun producten de hoogte in hoe goed ze wel niet zijn en hoeveel ze beter dan de concurrent is.
Lijkt me dat nVidia niet echt vetrouwen in hun product hebben.. maar hoop dat ik het mis heb, want een beetje concurrentie is wel op zen plaats
.
Lijkt me dat nVidia niet echt vetrouwen in hun product hebben.. maar hoop dat ik het mis heb, want een beetje concurrentie is wel op zen plaats
Dit topic is gesloten.
Let op:
Dit is een nVidia Nieuws & Discussietopic, niet een ATi vs. nVidia topic.
Posts over "ATi/nVidia sux/rox" zijn offtopic en sowieso ongewenst want neigen bijna altijd naar trolls & flames.
Hou het dus on-topic, vergelijken met ATi mag, maar het moet je on-topic punt illustreren, en onderbouw het aub.
Dit is een nVidia Nieuws & Discussietopic, niet een ATi vs. nVidia topic.
Posts over "ATi/nVidia sux/rox" zijn offtopic en sowieso ongewenst want neigen bijna altijd naar trolls & flames.
Hou het dus on-topic, vergelijken met ATi mag, maar het moet je on-topic punt illustreren, en onderbouw het aub.