Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Tuurlijk, jij kunt zeker door de IHS heen kijken en meten hoe groot de die-size ishosee schreef op zaterdag 22 november 2008 @ 14:32:
Pure faik. Je ziet het zowiezo al aan de grootte van de GPU. Sukkels....

Kan mij wel vergissen, natuurlijk maar....wordt de IHS ook niet angepast aan de grootte van de die?
[ Voor 17% gewijzigd door hosee op 22-11-2008 14:55 ]
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Wat praat je nou, waar zie jij de GPU danhosee schreef op zaterdag 22 november 2008 @ 14:49:
Je ziet toch duidelijk op de foto dat de grootte van de GPU hetzelfde is? Ik ga ervan uit dat een 55nm chip kleiner is dan een 65nm, of niet dan? Ik heb daarom het idee dat het de zoveelste faik foto is.
Kan mij wel vergissen, natuurlijk maar....
Overigens is een 55nm chip helemaal niet kleiner dan een 65nm chip, als ze er meer transistors instoppen heb je alsnog een grotere chip. Daar ga ik in dit geval niet van uit, maar dat soort dingen kun je niet zomaar aannemen.
Of bedoelde je die kleine chip links? Dat is een FCBGA chip, de RAMDAC.
[ Voor 4% gewijzigd door Avalaxy op 22-11-2008 14:55 ]
In het geval van de GT200 was al bekend dat dit gewoone en shrink zou worden met verder dezelfde specificaties als de oude 65nm chip. Bij processors voegen ze meestal wel dingen toe bij overstap naar een kleiner proces. Bij een GPU is dat wellicht wat complexer.Avalaxy schreef op zaterdag 22 november 2008 @ 14:54:
[...]
Wat praat je nou, waar zie jij de GPU danIk zie geen GPU hoor, ik zie alleen een IHS. En die gaan ze echt niet kleiner maken als de GPU kleiner is.
Overigens is een 55nm chip helemaal niet kleiner dan een 65nm chip, als ze er meer transistors instoppen heb je alsnog een grotere chip. Daar ga ik in dit geval niet van uit, maar dat soort dingen kun je niet zomaar aannemen.
Of bedoelde je die kleine chip links? Dat is een FCBGA chip, de RAMDAC.
Goud is geen geld
Omcirkel hem eens met paint dan, ik zie geen GPU hoorHacku schreef op zaterdag 22 november 2008 @ 14:58:
http://forums.vr-zone.com/showthread.php?t=354923
Ik zie toch echt de GPU, Leon
En de GPU is slechts de Graphics Processing Unit, dus de core, niet de hele kaart
@frankknopers: duidelijk..
[ Voor 5% gewijzigd door hosee op 22-11-2008 15:04 ]
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
[ Voor 44% gewijzigd door hosee op 22-11-2008 15:11 ]
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
http://techgage.com/artic...nvidia_gtx_260216_896mb/1
http://www.guru3d.com/art...ce-gtx-260-core-216-test/NVIDIA has been pushing their GTX 260/216 quite hard lately, and after exhaustively looking at its performance and other factors, it's easy to see why. The card is faster in (almost) every regard to ATI's HD 4870 1GB, more power efficient at idle, runs cooler with a reference cooler design and is $16.67 less expensive on average. If you use mail-in rebates, then you can get a GTX 260/216 for a full $40 less than the least-expensive HD 4870 1GB.
http://www.bjorn3d.com/read.php?cID=1414&pageID=5825If you will allow me to be blunt for a second here: when we tally it up, that's 4 out of 6 wins for NVIDIA with the GeForce GTX 260 core 216. So this round the win goes to team green.
We weren't expecting it, but the Nvidia BFG GTX-260 Core 216 (MaxCore) made it a clean sweep. With every game at every resolution, it took the lead and kept it. If this were a Shootout at the OK Corral the ATI GPU would be sprawled in a pool of blood with five holes in its core and the Nvidia GPU would be left standing unscathed.
You can't get much clearer than that. "The perfect GPU for the 2008 Christmas seasons hottest games, in the $300 dollar price range, is the GTX-260 Core 216.
En het mooie is; de 180.60 driver is nog sneller dan de 180.48.
Download 180.60: http://forums.guru3d.com/showthread.php?t=279567
(180.60 is ook sneller/ beter dan de 180.70 btw.)
[ Voor 34% gewijzigd door Format-C op 27-11-2008 07:36 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 126513
Niet vergeten dat nVidia wel een 216 core moest uitbrengen. Nu kunnen ze iig meer winst maken op 55nm proces. Vergeet ook niet dat AMD makkelijk met de prijs kan zakken, sterker nog de prijzen zijn zelfs iets omhoog gegaan. nVidia heeft hun hele line up aan de concurrent moeten aanpassen qua price en performance.
Ik vind hun oplossing, wel high end gericht want weinig kans in midrange segment, niet slecht over het algemeen ook zijn driver optimalisaties nu juist voor kerst erg belangerijk.
Alleen dat met die naamgevingen vond ik toch echt een afknapper. Ik wil toch weten wat ik koop zonder 2 weken research zeg maar.
Volgens mij komt dat door de dure dollar.Anoniem: 126513 schreef op donderdag 27 november 2008 @ 07:50:
Vergeet ook niet dat AMD makkelijk met de prijs kan zakken, sterker nog de prijzen zijn zelfs iets omhoog gegaan.
Helemaal mee eens... Ik moest eerst goed zoeken om een core 216 versie van de GTX260 te vinden. Het is niet echt duidelijk allemaal... Wat dat betreft doen ze het erg slecht.Anoniem: 126513 schreef op donderdag 27 november 2008 @ 07:50:
Alleen dat met die naamgevingen vond ik toch echt een afknapper. Ik wil toch weten wat ik koop zonder 2 weken research zeg maar.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 126513
Ik vind het iig al beter dat high end niet zo aso duur meer is. Vanaf 250 euro is toch een betere prijs dan 400+.
En na een jaar worden ze weer vervangen als het niet al eerder is, maar dat is de industrie gewoon.
lk verwacht dezelfde inzet trouwens ook van ATi, die zullen nu ook wel hun drivers meer gaan optimaliseren, zeker voor populaire game titels, zou slecht zijn als ze het niet deden iig.
Maar goed, dat zullen ze ook wel doen.
[ Voor 21% gewijzigd door Format-C op 27-11-2008 08:27 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
EDIT:
Na een uurtje benchen klapte t beeld op zwart. No signal. rebooten leverde bij de post ineens al zwarte blokken op
[ Voor 42% gewijzigd door Lampuhkap op 27-11-2008 13:36 ]
Anoniem: 169917
Zojuist een kaart uit het groene kamp aangeschaft

Een GTX260 core 216 is onderweg.
Kan iemand mij vertellen of de 180 drivers echt de moeite waard zijn?
Ik bedoel.. ik lees verwarrende berichten her en der, reviews zijn niet eenduidig en ik kan nergens op GoT een nvidia ervaringen topic vinden

P.S:
Misschien zoek ik lomp, tis al laat

[ Voor 26% gewijzigd door Anoniem: 169917 op 28-11-2008 06:29 . Reden: bla bla ]
* PSN=Chef_NL** *
Anoniem: 120284
Dat zal nog wel meevallen als toch geen geschikte PC ervoor hebbenAnoniem: 126513 schreef op donderdag 27 november 2008 @ 08:18:
Ja klopt de meeste prijzen zijn iets omhoog gegaan sinds de 'crises' kuch kuch, In Afrika en Asie is meer crises, Ok dat terzijde. Toch zouden die gamers daar best blij zijn met een afgedankte 8800GTS of een eerdere versie van de 260.
Ik vind het iig al beter dat high end niet zo aso duur meer is. Vanaf 250 euro is toch een betere prijs dan 400+.
En na een jaar worden ze weer vervangen als het niet al eerder is, maar dat is de industrie gewoon.
lk verwacht dezelfde inzet trouwens ook van ATi, die zullen nu ook wel hun drivers meer gaan optimaliseren, zeker voor populaire game titels, zou slecht zijn als ze het niet deden iig.
Verder: high-end is en blijft duur. Een GTX280 kost nog steeds 400 euro en een HD4870X2 nog een honderdtje meer. Tevens lopen de prijzen altijd af naarmate een serie naar z'n einde loopt.
Voor een lijstje met goeie settings die ik voor Nvidia Control Panel kan gebruiken en die de performance wat kunnen opkrikkenChef_v_leeuwen schreef op vrijdag 28 november 2008 @ 12:13:
2 Speedlink, waarvoor aanmelden?
AA uit, AF uit, en alle optimalisaties aan?Speedlink schreef op vrijdag 28 november 2008 @ 14:23:
[...]
Voor een lijstje met goeie settings die ik voor Nvidia Control Panel kan gebruiken en die de performance wat kunnen opkrikken

Anoniem: 169917
Een PNY GTX260 core 216 voor €257 hier
Een Gainward GTX260 core 216 voor €262 hier
Prima prijsje als je 't mij vraagt.
Ik hoop voor ATi dat hun komende performance driver gepaard gaat met een prijsdaling, want momenteel is de GTX260 core 216 simpelweg sneller en goedkoper dan zijn directe rivaal, de HD4870 1Gb.
De komende 20 dollar prijsdaling van ATI, zoals vermeld op Fudzilla, zal daar denk ik geen verandering in brengen.
Iemand nog iets vernomen van de GTX260X2?
Ben echt zwaar benieuwd!
[ Voor 4% gewijzigd door Anoniem: 169917 op 29-11-2008 03:17 ]
Edit: http://www.google.nl/sear...&btnG=Google+zoeken&meta=
Die andere is wel een 216.
Edit; ATi zal de prijs wel laten dalen omdat de GTX260 216 het met die nieuwe driver zo goed doet.
[ Voor 57% gewijzigd door Format-C op 29-11-2008 01:54 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 120284
Als die dingen nog een paar tientjes in prijs zakken kun je ze BTW-vrij importeren.
Anoniem: 169917
Goed punt, aangepastRappieRappie schreef op zaterdag 29 november 2008 @ 01:48:
Die Gigabyte die je laat zien is geen core 216, maar een gewone.
Edit: http://www.google.nl/sear...&btnG=Google+zoeken&meta=
Die andere is wel een 216.
Edit; ATi zal de prijs wel laten dalen omdat de GTX260 216 het met die nieuwe driver zo goed doet.Nou ja, mooi voor de consument.
Zometeen maar eens benchen
Anoniem: 169917
Inleiding:
Conclusie:Over the past month I have done quite a bit of performance testing in new games such as Fallout 3, FarCry 2, Call of Duty 5 – World at War, Dead Space, and even Sacred 2. What we have noticed is that in many of these new games the GeForce GTX 260 (216SP) is really starting to pull ahead of the Radeon HD 4870 (1GB).
However this has not been because of a new driver, these new games simply appear to have been designed to work better with Nvidia hardware. Already we had been testing with the Forceware 180.43 driver for about a month now. I can honestly say that we have not seen any real improvements over previous drivers for quite some time now.
Therefore, if the Forceware 180.70 for whatever reason had enhanced the performance of the GeForce GTX range in leaps and bounds, then ATI really could be in trouble. So before we take an in-depth look at the performance situation between the GeForce GTX 260 (216SP) and Radeon HD 4870 (1GB) graphics cards, we decided to compare the Forceware drivers first.
This will allow us to determine if it is in fact a new and magical Nvidia driver that is delivering all this extra performance. For this comparison we are going back roughly 4 months to the Forceware 177.79 driver, which will be compared to the new 180.70 driver which is causing all this fuss. Now keep in mind that the Forceware 177.79 driver pre-dates Far Cry 2, Call of Duty 5 – World at War, Dead Space, Sacred 2, and Fallout 3, so if the 180.70 was going to be faster than any driver, it would be this one.
En ja, dat is eigenlijk precies wat ik al had gedacht, kul.Last week when the Forceware 180.43 drivers trickled onto the scene quite a few people made a really big deal out of them, we suspect with a little prodding from Nvidia. Still it interested us enough to investigate, but as it turns out there is nothing all that interesting to be seen. When comparing the Forceware 180.43 driver to the four month old 177.79 version we found almost no difference in performance.
Desalniettemin denk ik dat duidelijk mag zijn dat de GTX260 216SP meer performance levert en toch minder kost dan zijn rivaal, de HD4870 1Gb.
Het heeft alleen vrij weinig (lees: niets) te maken met de Big Bang drivers.
Evenzogoed ben ik wel ontzettend blij met mn aankoop
Anoniem: 218213
ben ik ook wel benieuwd naar , een goede vervanger voor mijn 9800gx2[b][
I
Iemand nog iets vernomen van de GTX260X2?
Ben echt zwaar benieuwd!
Niet helemaal kul, want er zitten natuurlijk ook leuke nieuwe opties in de drivers, maar grotendeels (wat betreft performance) wel. Het laatste zinnetje uit de conclusie en één zinnetje uit de inleiding kan je aan elkaar koppelen. Legion Hardware vat hier precies de kern van de zaak goed samen.Anoniem: 169917 schreef op zondag 30 november 2008 @ 05:17:
Mooi stukje op Legion Hardware over de 180 (Big Bang) drivers, getiteld.. "Just more of the same"
Inleiding:
[...]
Conclusie:
[...]
En ja, dat is eigenlijk precies wat ik al had gedacht, kul.
Desalniettemin denk ik dat duidelijk mag zijn dat de GTX260 216SP meer performance levert en toch minder kost dan zijn rivaal, de HD4870 1Gb.
Het heeft alleen vrij weinig (lees: niets) te maken met de Big Bang drivers.
Evenzogoed ben ik wel ontzettend blij met mn aankoop
Uit de inleiding:
En de laatste zin uit de conclusie:However this has not been because of a new driver, these new games simply appear to have been designed to work better with Nvidia hardware.
Uit de rest van het artikel kan je ook halen wat al min of meer bekend was. nV heeft 5 games er gepushed om getest te worden met de nieuwste drivers. Deze 5 games zijn zoals Legion Hardware al uitlegd ontworpen om NV hardware en zullen daardoor vanaf het begin beter op NV hardware draaien (mede dankzij TWIMTPB). AMD zal voor deze games op een later moment begonnen zijn met optimaliseren. Maar het is erg logisch dat NV wil dat juist deze 5 games getest worden, want daar komen ze erg goed uit de bus.For now it seems that the GeForce GTX 260’s second lease on life is not driver related, and we suspect it has something more to do with the recently released games.
En de grote massa die domweg naar grafiekjes staart trapt er met ogen open in. Alhoewel volgens Fud de verkoop hierdoor slechts een kleine boost heeft gekregen in vergelijking tot de HD4000 Serie en AMD gelijk gereageerd heeft met een prijsverlaging.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En die games zijn zo populair dat dat een reden zou kunnen zijn voor sommige mensen om een nV kaart te nemen ipv een ATi.
En ATi verlaagt de prijzen doordat nV zulke goeie drivers heeft in die games.
Goed gedaan van nV dus.
De taktiek heeft gewerkt.
En de consument plukt er de vruchten van.
[ Voor 12% gewijzigd door Format-C op 01-12-2008 19:44 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Vroeg me af in hoeverre jullie met eVGA precision de boel overklokken.
[ Voor 43% gewijzigd door Omni op 02-12-2008 21:20 ]
Anoniem: 126513
En volgens mij heeft nVidia trouwenst ieder jaar voor de feest dagen een big bang driver, houdt het lekker spannend..alleen dat 'prodden' is ietsjes minder.
En het TWIMTBP en nVidia's manier van reclame maken kennen we ook al langer.
Ook spelen meer mensen meer verschillende games dan vroeger. als je geen WOW addict bent dan.
Dus gewoon testen met meer games, of anders met diversere soorten engines, enkele nV engines, enkele ATi flavoured engines, en liever eigenlijk met onafhankelijke engines. Hoewel dat laatsts bijna onmogelijk is uiteraard.
http://en.expreview.com/2...ed-as-geforce-gtx295.html
Als games de vruchten moet voorstellen. Je plukt dan altijd watever je keist ook rotte vruchten.
Games gaan door GITG en TWIMTBP hardware discrimineren. GitG en TWIMTBP is niet ten voordele van de gamer. Vrijblijvende wederzijdste ondersteuning tussen Developer en GPU firma's wel. En dat was er sowieso al. TWIMTBP met hun logo is puur om competitie te naaien en daarme ook hun doelgroep de gamer.
Nu ATI ook GITG toepast als reactie. Want het werkt, is de twee deling compleet.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Anoniem: 126513
Dus nVidia is ons gewoon aan het naaien, grrr...
Iig het gaat toch om het geld en het intact houden oftewel grote maken van marktpositie en ook winst als het even kan. Van mij mag er ook best iets meer revolutie komen maar de game dev durven ook geen zijstappen te nemen, die willen het ook safe houden.
GITG? TWIMTBP? Wat mis ik?SG schreef op woensdag 03 december 2008 @ 18:02:
[...]
Als games de vruchten moet voorstellen. Je plukt dan altijd watever je keist ook rotte vruchten.
Games gaan door GITG en TWIMTBP hardware discrimineren. GitG en TWIMTBP is niet ten voordele van de gamer. Vrijblijvende wederzijdste ondersteuning tussen Developer en GPU firma's wel. En dat was er sowieso al. TWIMTBP met hun logo is puur om competitie te naaien en daarme ook hun doelgroep de gamer.
Nu ATI ook GITG toepast als reactie. Want het werkt, is de twee deling compleet.

GITG: Get In The Game, deze is van Ati, en bied hulp aan game developpers.
TWIMTBP: The Way Its Meant To Be Played, Deze is van Nvidia en zeer dominant, hierdoor heeft Ati vaak 'slechte' performance bij de launch van een nieuw spel.
Als ik het verkeerd heb, verbeter mij he
Ik denk dat ze dit keer aardig in de goede richting zitten.Anoniem: 120284 schreef op woensdag 03 december 2008 @ 17:20:
Die hebben zeker weer wat pageviews nodig
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niet alleen time hoor. Ook roadmaps laten het zien. Ok, een roadmap is eigenlijk een tijdslijn... dus toch de tijd die het zal zeggen.Anoniem: 120284 schreef op donderdag 04 december 2008 @ 03:54:
Time will tell
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Waar heb je die EVGA kaart gescoord? In de pricewatch zit 'ie boven de 300E.-SambaL- schreef op donderdag 04 december 2008 @ 12:21:
Het wachten op de 55nm versie van de GTX260 duurde mij uiteindelijk te lang dus ben ik maar voor Evga's SC versie van de GTX260 Core 216 gegaan, deze kon ik namelijk voor €261,- meenemen. Nu vroeg ik mij uit twijfel echter nog af in hoeverre de 55nm revisie van de GTX260 beter zal zijn dan deze kaart die ik nu in bezit heb. De voordelen van een kleinere chip weet ik maar hoe zit het prestatie gewijs? Zal dit in wezen ook een Core 216 zijn, en dan wellicht voor een nog lagere prijs?
@EdwardvanGelder
Thanks
Maar als ik het goed begrijp zal de 55nm GTX260 beter moeten gaan presteren dan de huidige GTX260 Core 216 voor een lagere prijs. Niet gelijk op maar dan gewoon wat goedkoper en zuiniger?
Anoniem: 169917
Als je goed zoekt, ook buiten de PW om, dan vind je nog wel eens wat.Omni schreef op donderdag 04 december 2008 @ 23:49:
[...]
Waar heb je die EVGA kaart gescoord? In de pricewatch zit 'ie boven de 300E.
@EdwardvanGelder
Thanks
Sommige online winkels staan het niet toe voor tweakers om prijzen en links van hun artikelen aan de Pricewatch toe te voegen.
Dat betekent nog niet dat er geen goedkopere artikelen te vinden zijn als ze niet in de Pricewatch staan.
Maar evenzogoed hulde voor de PW
Psst: Leadtek GTX260+ voor €251 bij de PChut
Anoniem: 169917 schreef op vrijdag 05 december 2008 @ 02:50:
[...]
Psst: Leadtek GTX260+ voor €251 bij de PChut
Leadtek
Ik blijf het jammer vinden dat er geen duidelijke communicatie is over de 55nm parts onafhankelijk ten opzichte van de 65nm parts en de 196/216 parts. Bijvoorbeeld dit was veel duidelijker geweest:
GTX260 [65nm 196]
GTX260+ [55nm 196]
GTX270 [65nm 216]
GTX270+ [55nm 216]
Ik weet wel dat sommige kaarten nu GTX260 Core216 heten, maar sommige verzuimen het gewoon volledig te vermelden. Laat staan dat 55nm al helemaal niet gemeld wordt terwijl het koeler en beter oc-baar is

De meeste mensen deugen!
Dat klopt. Het is feitelijk dezelfde chip die van 65nm naar 55 nm gaat en omdat ie kleiner is zal je hem waarschijnlijk beter kunnen overclocken . Dat Nvidia de naam niet aanpast is zodat ze oude voorraden voor dezelfde prijs kunnen blijven verkopen.-SambaL- schreef op vrijdag 05 december 2008 @ 00:08:
Bij Paradigit in Zoetermeer, waar het laatste exemplaar nog voor €298,- in de vitrine lag. Voor mij was het echter een personeelsaankoop, vandaar €261,- .
Maar als ik het goed begrijp zal de 55nm GTX260 beter moeten gaan presteren dan de huidige GTX260 Core 216 voor een lagere prijs. Niet gelijk op maar dan gewoon wat goedkoper en zuiniger?
[ Voor 7% gewijzigd door luckyjan op 05-12-2008 12:19 ]
Ik wil nl. nu een systeem met 1 216 core GTX260 kopen en daar, als de 40nm variant beschikbaar is, later een 2e GTX260/270 bij in zetten om dan SLI te doen (op een X58 based mobo)
Volgens mij wil dat niet, en moeten het 2 exact dezelfde chips zijn.The_Big_Easy schreef op vrijdag 05 december 2008 @ 14:16:
Kun je straks klakkeloos een 65/55nm GTX260 (al dan niet met 216 cores) in SLI zetten met een 40nm based GTX260 (heet dan wellicht GTX270)? En maakt het daarbij nog uit van welke fabrikanten de kaarten zijn?
Ik wil nl. nu een systeem met 1 216 core GTX260 kopen en daar, als de 40nm variant beschikbaar is, later een 2e GTX260/270 bij in zetten om dan SLI te doen (op een X58 based mobo)
En voordat die 40nm chips er zijn, dan zijn de kaarten alweer 1,5x zo snel als wat we nu hebben. En ik denk dat er niet eens een 40nm 280 of 260 komt. Alleen een 55nm. Die 40nm's zijn weer nieuwe chips.
Zal wel GT300 serie oid worden.
[ Voor 16% gewijzigd door Format-C op 06-12-2008 17:11 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat is de reden niet. nV heeft winst problemen. Dat heeft preoriteit.luckyjan schreef op vrijdag 05 december 2008 @ 12:18:
Dat klopt. Het is feitelijk dezelfde chip die van 65nm naar 55 nm gaat en omdat ie kleiner is zal je hem waarschijnlijk beter kunnen overclocken . Dat Nvidia de naam niet aanpast is zodat ze oude voorraden voor dezelfde prijs kunnen blijven verkopen.
De Sucses van ATI ligd in een chip die gericht is op de performance markt. Het gebied tussen midrange en high-end. nV GT200 is een big chip gericht op high-end.
Als ATI 'n chip maakt die voor €150 €250 verkocht zou worden. Dan is dit ook door kosten plaatje gedekt. 55nm small chip is een vereiste. nV is een dure op de bewezen oude 65nm chip gemaakt voor €450 á €650. De kosten plaatje is daarop gebaseerd. nV volgt de beproefde bigchip sucses formule. Nu heeft nV vanwege ATI prijzen moeten hakken. Aanzienlijk van hun marge. Wat ze niet verwacht hadden.
GT200 55nm is vooral 'n manier om de marges te verhogen. De winst marges. zodat het bedrijf weer gezond draaid. Vergelijkbaar aan de G92 versie van de G80. Met 40nm gaat de kosten nog verder omlaag en kan het een volume produkt worden. Ook als mobile GPU. Terwijl de GT300 de high-end bestormed.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Expreview meldt dat de GTX 285 en GTX 295 op 8 Januari tijdens CES 2009 gelanceerd wordt. Uit eigen bronnen kan ik dit min of meer bevestigen.
De GTX 285 is een opgevoerde GTX280 op 55nm, terwijl de GTX 295 een GX2 versie is. Als de geruchten kloppen dan is de GTX 295 geen dubbele GTX 260 Core 216, maar ook niet een volledige dubbele GTX 280. De GTX 295 zou het midden houden tussen de GTX 260 Core 216 en GTX280. Het zou een dubbele 448-bit memory interface hebben (overgenomen van de GTX 260), maar wel alle 240 streamprocessors actief hebben (overgenomen van de GTX280). Dat houdt dus in dat er ook 2x80 TMUs in zitten aangezien de TMUs gekoppeld zijn aan de streamprocessors en door de 448-bit memory interface heeft deze kaart 1792MB GDDR3 geheugen.
Bron: http://en.expreview.com/2...ly-to-come-in-ces-09.html
Het nieuwe PCB van de GTX 260 Core 216^2 laat al zien dat we zeer waarschijnlijk weer een sandwich videokaart kunnen verwachten a la GF9800GX2. Alle geheugenchips zitten namelijk aan 1 kant van het PCB zodat ze ook gekoeld kunnen worden door de centrale cooler.
De oorspronkelijke releasedate lag eigenlijk op eind 2008, maar wegens problemen (waarschijnlijk hitte gerelateerd) is dit iets uitgesteld. Van een bron heb ik vernomen dat er al samples de deur uit zijn gestuurd naar partners. Ik verwacht dus binnenkort snel veel meer info.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 218213
ahhh, wil die prijs weten van die x2CJ schreef op dinsdag 09 december 2008 @ 14:30:
Newsflash: GTX 285 & 295 gelanceerd op 8 Januari 2009
Expreview meldt dat de GTX 285 en GTX 295 op 8 Januari tijdens CES 2009 gelanceerd wordt. Uit eigen bronnen kan ik dit min of meer bevestigen.
De GTX 285 is een opgevoerde GTX280 op 55nm, terwijl de GTX 295 een GX2 versie is. Als de geruchten kloppen dan is de GTX 295 geen dubbele GTX 260 Core 16, maar ook niet een volledige dubbele GTX 280. De GTX 295 zou het midden houden tussen de GTX 260 Core 216 en GTX280. Het zou een dubbele 448-bit memory interface hebben (overgenomen van de GTX 260), maar wel alle 240 streamprocessors actief hebben (overgenomen van de GTX280). Dat houdt dus in dat er ook 2x80 TMUs in zitten aangezien de TMUs gekoppeld zijn aan de streamprocessors en door de 448-bit memory interface heeft deze kaart 1792MB GDDR3 geheugen.
Bron: http://en.expreview.com/2...ly-to-come-in-ces-09.html
Het nieuwe PCB van de GTX 260 Core 216^2 laat al zien dat we zeer waarschijnlijk weer een sandwich videokaart kunnen verwachten a la GF9800GX2. Alle geheugenchips zitten namelijk aan 1 kant van het PCB zodat ze ook gekoeld kunnen worden door de centrale cooler.
De oorspronkelijke releasedate lag eigenlijk op eind 2008, maar wegens problemen (waarschijnlijk hitte gerelateerd) is dit iets uitgesteld. Van een bron heb ik vernomen dat er al samples de deur uit zijn gestuurd naar partners. Ik verwacht dus binnenkort snel veel meer info.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
AMD kan snellere 7,5 Gbps GDDR5 chips gaan gebruiken op de HD4870 X2. Ook kunnen ze de kloksnelheid van de RV770 cores verhogen. Maargoed, begin volgend jaar staat ook 40 nm alweer voor de deur, en daarmee zijn ook weer genoeg mogelijkheden. Zo kan AMD weer meer shaders op de chip zetten of aanzienlijk hogere kloksnelheden gaan draaien.EdwardvGelder schreef op dinsdag 09 december 2008 @ 15:47:
Cj, heeft Ati wel iets om de performance kroon weer terug te pakken dan, of heeft Nvidia hem binnenkort weer?
En net als bij de HD3870X2 versus 9800GX2 heeft AMD wederom een enorm kostenvoordeel:
nVidia:
- 2x dik PCB met 448-bits geheugenbus
- 2x een chip van ongeveer 460mm²
- 2x een NVIO chip
- Totaal 28 GDDR3 chips
- Complexer ontwerp met langere assemblagetijd
- 1x een PCB voor een 256-bits geheugeninterface
- 2x een chip van 260mm²
- Totaal 16 GDDR5 chips
- Eén koelblok dat de hele kaart bedekt en dat aan één kant erop geschroefd kan worden.
Goud is geen geld
Ook nV kan natuurlijk 40nm chips gaan maken, en GDDR5 gaan gebruiken, en het ontwerp aanpassen.frankknopers schreef op dinsdag 09 december 2008 @ 16:06:
AMD kan snellere 7,5 Gbps GDDR5 chips gaan gebruiken op de HD4870 X2. Ook kunnen ze de kloksnelheid van de RV770 cores verhogen. Maargoed, begin volgend jaar staat ook 40 nm alweer voor de deur, en daarmee zijn ook weer genoeg mogelijkheden. Zo kan AMD weer meer shaders op de chip zetten of aanzienlijk hogere kloksnelheden gaan draaien.
De die shrink naar 55nm is er alleen maar om de kosten te drukken, een dual kaart te kunnen maken, en om de performancecrown terug te pakken.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dan nog heeft AMD het voordeel dat ze:RappieRappie schreef op dinsdag 09 december 2008 @ 17:27:
[...]
Ook nV kan natuurlijk 40nm chips gaan maken, en GDDR5 gaan gebruiken, en het ontwerp aanpassen.
De die shrink naar 55nm is er alleen maar om de kosten te drukken, een dual kaart te kunnen maken, en om de performancecrown terug te pakken.
- Ervaring hebben met GDDR5 geheugen (ging hand in hand met de ontwikkeling van de RV770 videokaarten en moest tegelijk gereed zijn voor de markt)
- Een hogere prestatie/transistor hebben in hun huidige ontwerp
- Ze reeds twee generaties op DX10.1 pad zitten en dat ze ook al ervaring hebben met de tesselator engine voor DX11.
- CrossfireX flexibel kunnen gebruiken tussen dual-GPU en single-GPU kaarten, bij NV kan dit nog niet
Goud is geen geld
Edit; eigenlijk vind ik de GTX X2 en de GTX295 totaal niet interessant. GTX260 SLi = X2...
Veel sneller dan wat er nu is zal het allemaal niet zijn. Ja, het zal iets hoger klokken. En misschien 10% sneller zijn.

Het wachten is op een nieuwe chip. Van zowel ATi EN nV. Speedbumps zit ik iig niet op te wachten. Geef mij maar 40nm. Dat zal wel verschrikkelijk hoog klokken...
[ Voor 64% gewijzigd door Format-C op 09-12-2008 17:58 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ja, ze hebben iets om de performancekroon terug te pakken. De vraag is echter wanneer brengen ze het uit en is het echt nodig om uit te brengen... Melken ze eerst de RV770 nog uit of willen ze koste wat het koste de performancekroon behouden...EdwardvGelder schreef op dinsdag 09 december 2008 @ 15:47:
Cj, heeft Ati wel iets om de performance kroon weer terug te pakken dan, of heeft Nvidia hem binnenkort weer?
Met uitmelken bedoel ik de prijzen van de videokaarten met RV770 chip nog flink omlaag brengen... zodat een GTX295 erg onaantrekkelijk wordt gezien de prijs/performanceverhouding... of zetten ze in op de Super RV770 (RV770 op 950Mhz) of RV790 (RV770 zonder CFX sideport, maar met meer shaders) of gaan ze gelijk door voor de RV870 (opgepimpte RV770 met allerlei nieuwigheden). De eerste optie lijkt logisch... AMD heeft nu een GPU op de markt van 256mm2 die ze verkopen voor dezelfde prijs als de 576mm2 GPU van nVidia.... je kan je wel voorstellen dat het voor NV dus zaak is om de GT200b op de markt te krijgen en alle 65nm GPUs eruit te faseren. Maar zelfs de GT200b is nog ruim 425mm2 groot... en dus nog veel groter dan de RV770.
Men zal bij NV dus ook hoger moeten gaan klokken om er voor te zorgen dat de prijs/performance verhouding voor de koper interessant blijft... Maar ook bij NV zal men zich bewust zijn van het feit dat de enthusiast markt kleiner en kleiner aan het worden is en dat de performance markt waar AMD zich op richt inmiddels veel en veel interessanter is geworden, zeker ook met de economische situatie van dit moment.
Maar ook de GTX285 en GTX295 zijn in mijn ogen slechts zoethoudertjes. NV heeft meer in het vaatje zitten... een echte opvolger van de G80 (immers de GT200 is niet meer dan een flink opgevoerde G80).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Daarom heb ik mn G80GTX, ofwel A2 silicon, ook nog. Maar kan je hierover nog wat hints geven wanneer de GTX3 serie in ieder geval gepland staat? Heb wel weer eens zin in een -fatsoenlijke- upgradeCJ schreef op dinsdag 09 december 2008 @ 18:37:
[...]
Maar ook de GTX285 en GTX295 zijn in mijn ogen slechts zoethoudertjes. NV heeft meer in het vaatje zitten... een echte opvolger van de G80 (immers de GT200 is niet meer dan een flink opgevoerde G80).
De meeste mensen deugen!
Ik kan me haast niet voorstellen als ATI de RV870 gereed heeft, deze niet uit brengt. Ondanks dat misschien vendors dit niet leuk vinden, is het ook riskant om je nieuwe design op de plank te houden.
Niet op voorraad.
GTX 285 heeft gewoon 240 SP over een 512-bits bus. Hetzelfde dus als de GTX 280. Wellicht is de kloksnelheid hoger, maar het voornaamste doel van de GTX 285 is de kosten omlaag brengen.edward2 schreef op dinsdag 09 december 2008 @ 19:50:
Wat heeft die GTX285 voor specs? Gaan de SP's van 240 naar 384 bv?
Ik kan me haast niet voorstellen als ATI de RV870 gereed heeft, deze niet uit brengt. Ondanks dat misschien vendors dit niet leuk vinden, is het ook riskant om je nieuwe design op de plank te houden.
Echter vernieuwing krijgen we pas met de 40nm generatie denk ik.
Goud is geen geld
Anoniem: 266001
Ik speel vaak UT3 en andere games die Physx ondersteunen.
Nu vroeg ik me af wat ik het beste kan doen.
Een Physx kaart kopen, of een goedkope 8400 GS kopen en deze instellen als Physx kaart
Zo als hier te zien is http://www.slizone.com/object/sli_cuda_learn.html
New: Card 1: Graphics rendering
Card 2: Dedicated to PhysX acceleration
Graphics card 2 is not required to have the same GPU as graphics card 1
Zelf heb ik een 8800 GTS OC 320 MB, Als ik een Physx game speel lag het best erg dus daarom wilde een een Physx kaart bij
Anoniem: 120284
Ik zou eerder een de GTX260 refresh kopen in januari en je 8800 als PhysicsX kaart gebruiken.
Anoniem: 8819
Zo als hier te zien is http://www.slizone.com/object/sli_cuda_learn.html
Daar had ik ook aan gedacht
Je heb namelijk ook 8400gs op pci basis (ja de ouwe geen tik fout)
En dan samen met mijn 2900xt crossfire te laten werken.
Helaas onder windows vista niet mogelijk.
Snap niet waarom microsoft meer vga ondersteuning uit windows vista hebben gesloopt.
Aangezien veel mensen dit gebruiken .
Misschien komt dit weer terug in windows7 (zal wel niet)
Ik heb de indruk dat deze nog helemaal niet beschikbaar zijn. Is er iemand hier die een 55nm GTX 260 (216) heeft? Volgens mij wordt de 55nm versie de GTX270 vanaf januari. Correct me if I'm wrongAnoniem: 120284 schreef op dinsdag 09 december 2008 @ 14:55:
En de 55nm GTX 260?


Twee PCB's á la 9800GX2, grote centrale koeler (voor het afvoeren van max. 289 watt aan hitte), interne SLI verbinding en tweemaal DVI en een HDMI plug.
Op de foto is niet goed te zien of het om een dual slot of triple slot gaat. Dat laatste zou me overigens niet verbazen, tenzij nVidia de temperatuur tot 90C laat oplopen.
[ Voor 24% gewijzigd door frankknopers op 10-12-2008 11:15 ]
Goud is geen geld
Die GX2 / X2 kaarten zijn echt "kijk mij toch de beste hebben" kaarten, meer niet. Ze storten ook altijd heel hard in in waarde, zoals enorm sterk gebeurde met de 7950GX2 en nu aan het gebeuren is met de 9800GX2.
De meeste mensen deugen!
De HD48x0 serie wordt ook dik 90 graden. En dat is een single chip met een dual slot cooler... De X2 haalt ook 90 graden. Dus het temp verhaal vind ik een beetje een nonargument.frankknopers schreef op woensdag 10 december 2008 @ 11:14:
Op de foto is niet goed te zien of het om een dual slot of triple slot gaat. Dat laatste zou me overigens niet verbazen, tenzij nVidia de temperatuur tot 90C laat oplopen.
En wie weet hoe koel deze 55nm chips zijn.
[ Voor 78% gewijzigd door Format-C op 10-12-2008 12:40 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het verschil is echter dat de X2 echt een bewuste keuze is van AMD. Lees het artikel over het ontstaan van de RV770 op Anandtech maar eens. Daarin wordt uitgelegd dat AMD bewust koos voor het performancesegment en niet voor het enthusiast-segment. Die keuze werd al in 2005 gemaakt en men wist dus ook dat men het enthusiast segment dus wilde aanpakken vanuit het performancesegment door er meerdere bij elkaar te stoppen.Cassius schreef op woensdag 10 december 2008 @ 12:14:
Die GX2 / X2 kaarten zijn echt "kijk mij toch de beste hebben" kaarten, meer niet. Ze storten ook altijd heel hard in in waarde, zoals enorm sterk gebeurde met de 7950GX2 en nu aan het gebeuren is met de 9800GX2.
De X2 kost nu al een half jaar ongeveer hetzelfde... dus daar is de waardedaling nog niet echt ingezet. Die zal ook pas komen als de GTX 295 er is... Vergeet niet dat de technieken van multi-GPU de afgelopen jaren steeds verbeterd/verfijnd zijn en dat dit de route is die in ieder geval 2 van de 3 grote fabrikanten gaan volgen. Dus het is niet puur een kwestie van "kijk mij toch de beste hebben". In het geval van NV... ja... in het geval van AMD... nee... niet in eerste instantie.... want dit lag al 3 jaar op de planning.
Edit: Overigens zijn hier echte nude foto's opgedoken van de GT200: http://people.overclockers.ru/Droperidolum/record6 Men heeft de GPU opgemeten en die blijkt dus 25x25mm te zijn... wat dus neer komt op 625mm2 ipv de 576mm2 wat men eerst dacht! That's one huge chip.... dat is gewoon 144% groter dan een RV770.
[ Voor 11% gewijzigd door CJ op 10-12-2008 12:40 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Koeler, stiller, en sneller, indien overklokt.
Voor welk kwartaal staan de 40nm chips op het programma trouwens?
[ Voor 25% gewijzigd door Format-C op 10-12-2008 12:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
kijk eens een paar posts naar boven
Even een kleine correctie:CJ schreef op woensdag 10 december 2008 @ 12:35:
[...]
Edit: Overigens zijn hier echte nude foto's opgedoken van de GT200: http://people.overclockers.ru/Droperidolum/record6 Men heeft de GPU opgemeten en die blijkt dus 25x25mm te zijn... wat dus neer komt op 625mm2 ipv de 576mm2 wat men eerst dacht! That's one huge chip.... dat is gewoon 144% groter dan een RV770.
Als je dat artikel goed leest (met b.v. google vertaling) dan zie je dat de 25x25mm op de zwarte "verpakking" van de chip slaat en niet op de inhoud van de chip zelf.
Normaliter kijk ik altijd uit naar je posts en kan ik me erin vinden maar deze moest ik toch echt even corrigeren.
Ik vond de GX2 wel een goed kaartje hoor. Alleen nekte de 512 mb vidram de perf. met aa in sommige spellen.RappieRappie schreef op woensdag 10 december 2008 @ 12:42:
Ik ben trouwens nooit een fan van GX2 kaarten van nV geweest. Ik heb liever SLi.
Koeler, stiller, en sneller, indien overklokt.
Voor welk kwartaal staan de 40nm chips op het programma trouwens?
Niet op voorraad.
Hmm. Volgens mijn Russische bron was de vertaling dat de "core" een afmeting had van 25x25mm en hij meldde dat het groter was dan iedereen tot nu toe dacht. Ook even door verschillende translators gehaald en die bevestigen wat mijn bron vermeldde...denheer schreef op woensdag 10 december 2008 @ 13:17:
[...]
Even een kleine correctie:
Als je dat artikel goed leest (met b.v. google vertaling) dan zie je dat de 25x25mm op de zwarte "verpakking" van de chip slaat en niet op de inhoud van de chip zelf.
Normaliter kijk ik altijd uit naar je posts en kan ik me erin vinden maar deze moest ik toch echt even corrigeren.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Misschien hebben wij het hier over wat anders? Met de "core" wordt duidelijk de zwarte package bedoeld. Immers, deze wordt niet opengemaakt, enkel de heatspreader is verwijderd. De zwarte package bevat dan weer de "die" waarvan de grootte als 576mm2 bekend staat (24x24mm). Om de "die" te zien zal je de "core" moeten openmaken of er een rontgenfoto van moeten maken.CJ schreef op woensdag 10 december 2008 @ 13:59:
[...]
Hmm. Volgens mijn Russische bron was de vertaling dat de "core" een afmeting had van 25x25mm en hij meldde dat het groter was dan iedereen tot nu toe dacht. Ook even door verschillende translators gehaald en die bevestigen wat mijn bron vermeldde...
Van een open "core" zie ik geen plaatje noch zie ik een rontgenfoto daarvan. Op deze bevindingen basseer ik mijn conclusie dat de "die"-grootte welke bekend staat als 576mm2 niet groter is dan verwacht maar dat men het hier heeft over de grootte van de zwarte package welke in het bericht "core" wordt genoemd.
Ondertussen heb ik een mailtje gestuurd naar mijn Georgische collega of hij het stuk over de "core" kan vertalen, wie weet brengt dat meer aan het licht.
De vorige metingen van de GT200 kwamen uit op 24x24 (576mm2). De nieuwe meting (van inderdaad het zwarte gedeelte dat overblijft wanneer de heatspreader verwijderd wordt) door deze site komt uit op 25x25 wat dus 625mm2 is.
Aangezien in het artikel deze afmetingen bij het kopje "core" genoemd worden en er een plaatje onderstaat van de GPU (het zwarte vierkante vlak) kan je er van uit gaan dat de core-size/die-size dus 625mm2 is.
Overigens kwam Beyond3D uit op 24.5x24.5 wat dus 600mm2 is. Core/die... waar het mij om ging gaat om de GPU en die is dus groter dan verwacht aldus de nieuwe meting.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als een package gemaakt wordt zijn dat niet alleen de naakte onderdelen. Er wordt vaak gesproken over 576mm2 als effectief oppervlak; maar dat is de ontwerp oppervlakte. Ofwel dat zijn de maximale grenzen van het daadwerkelijke fysieke ontwerp en zijn onderdelen [de stream procs, cache, memory controller, rops, etc]. Als dat eenmaal geplaatst is op dat "plaatje", wordt er -uiteraard- nog een adhesive achtig spul als coating opgeplaatst die de core beschermt. Hoe dun deze ook is, dit is verder geen actief materiaal - de package.CJ schreef op woensdag 10 december 2008 @ 15:00:
In de GPU wereld worden "die" en "core" zo'n beetje als synoniemen van elkaar gebruikt. Sites gebruiken het als ze hetzelfde bedoelen (nl de GPU) en zelfs NV en AMD gebruiken de termen door elkaar heen.
De vorige metingen van de GT200 kwamen uit op 24x24 (576mm2). De nieuwe meting (van inderdaad het zwarte gedeelte dat overblijft wanneer de heatspreader verwijderd wordt) door deze site komt uit op 25x25 wat dus 625mm2 is.
Aangezien in het artikel deze afmetingen bij het kopje "core" genoemd worden en er een plaatje onderstaat van de GPU (het zwarte vierkante vlak) kan je er van uit gaan dat de core-size/die-size dus 625mm2 is.
Overigens kwam Beyond3D uit op 24.5x24.5 wat dus 600mm2 is. Core/die... waar het mij om ging gaat om de GPU en die is dus groter dan verwacht aldus de nieuwe meting.
Ik ben het dus eens met een van de posters boven mij. Je zou de echte CORE, ik vind DIE ook een prima woord, pas zien als je een röntgenfoto maakt van deze package
Edit: lijkt me ook sterk dat een GPU "ineens" groter is na een half jaar erna gestaard te hebben. Het echte getal is uiteraard al lang bekend bij nVidia en ik gok dat 576 gewoon correct is. En tuurlijk strooit nVidia niet met die gegevens, maar je kent het leksysteem ook wel.
[ Voor 8% gewijzigd door Cassius op 10-12-2008 15:15 ]
De meeste mensen deugen!
Voor de launch van de GT200 lekte ik als eerste een x-ray van de GT200 GPU. Deze is dus 25mmx25mm groot. Als men het in de GPU wereld over groottes heeft van de GPU dan heeft men het dus over hetgeen je hieronder ziet.

En deze is natuurlijk nog iets overzichtelijker:

De RV770 heeft een GPU size 256mm2 (dit is wel een officieel getal). De GT200 heeft dan afhankelijk van degene die hem gemeten heeft een GPU size ofwel 576mm2 (24x24), 600mm2 (24,5x24,5) of 625mm2 (25x25). Zelf ben ik geneigd om Beyond3D als meest accurate aan te duiden vanwege hun kennis en staat van dienst.
[ Voor 5% gewijzigd door CJ op 10-12-2008 15:29 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Precies zoals CJ eerder al zei is het dual GPU pad iets wat in AMD's productlijn ingebakken zit. De HD3870 X2 en de HD4870 X2 stonden al een langere tijd in de planning en AMD heeft ook serieus de moeite genomen om ze aantrekkelijk te maken voor de massa. Ze weten alles op één PCB te krijgen, wat de assemblage en productiekosten aanzienlijk terugdringt. De roadmaps van AMD gaven de laatste tijd ook al aan dat ze het enthousiast segment willen gaan bedienen met meerdere videochips ipv één grote chip zoals de G80 en de GT200.Cassius schreef op woensdag 10 december 2008 @ 12:14:
Zucht, die dubbelkaarten is altijd hetzelfde verhaal. Ze maken ze puur en alleen om de kroon te pakken, vervolgens worden ze stikheet, zijn er bijna nihil echt goede stille aftermarket koelers, is er bijna geen voorraad en betaal je vaak meer dan 2x de prijs voor de losse kaarten.
Die GX2 / X2 kaarten zijn echt "kijk mij toch de beste hebben" kaarten, meer niet. Ze storten ook altijd heel hard in in waarde, zoals enorm sterk gebeurde met de 7950GX2 en nu aan het gebeuren is met de 9800GX2.
De HD4870 X2 is ook goed geintegreerd in de rest van de HD4800 line-up, zo is de kloksnelheid van de HD4870X2 core en mem gelijk aan die van de HD4870,zodat ze perfect op elkaar passen in flexibele triple of quad Crossfire oplossingen. Als je kijkt naar nVidia is dit absoluut niet het geval. Daar staat de dual-GPU kaart los van de rest van de line-up, puur om de prestatiekroon binnen te halen. Dit komt ook overeen met de visie van nVidia om altijd koste wat kost de snelste chip te hebben (zonder te kijken naar TDP of die size restricties).
Zo was de 7950GX2 in het leven geroepen om de X1950XTX van de troon te stoten en deed de 9800GX2 dat met de HD3870X2. In beide gevallen van nVidia was het puur de prestatiekroon pakken,want support voor die dual GPu kaarten is nooit echt goed geweest.
nVidia hanteert nog altijd een strategie van een grote monolithische chip waar alles in zit. Dit werd een groot probleem bij de GT200,wantnVidia had niet meteen een antwoord op de HD4870 X2. Eerst moesten ze nog naar 55nm en daarmee nog een dual PCB ontwerp in elkaar drukken. In de tussentijd verkocht AMD de HD4870X2 voor de hoofdprijs en konden ze de prijs zelfs ietsje verhogen. Er was toch geen weerstand van NV.
Goud is geen geld
Ik neem aan dat als wij het in het algemeen hebben over de grootte van de "die" of "core" dat wij, zoals Cassius het noemt, het hebben over het "effectieve oppervlak". We willen immers vergelijken hoeveel chips er uit een wafer gemaakt kunnen worden. Hoe groot daarna de package wordt is minder van belang omdat de kosten daarvan op het totaal vrijwel nihil zijn.CJ schreef op woensdag 10 december 2008 @ 15:00:
In de GPU wereld worden "die" en "core" zo'n beetje als synoniemen van elkaar gebruikt. Sites gebruiken het als ze hetzelfde bedoelen (nl de GPU) en zelfs NV en AMD gebruiken de termen door elkaar heen.
De vorige metingen van de GT200 kwamen uit op 24x24 (576mm2). De nieuwe meting (van inderdaad het zwarte gedeelte dat overblijft wanneer de heatspreader verwijderd wordt) door deze site komt uit op 25x25 wat dus 625mm2 is.
Aangezien in het artikel deze afmetingen bij het kopje "core" genoemd worden en er een plaatje onderstaat van de GPU (het zwarte vierkante vlak) kan je er van uit gaan dat de core-size/die-size dus 625mm2 is.
Overigens kwam Beyond3D uit op 24.5x24.5 wat dus 600mm2 is. Core/die... waar het mij om ging gaat om de GPU en die is dus groter dan verwacht aldus de nieuwe meting.
Navraag bij mijn Georgische collega leverde overigens het resultaat op dat met de "core" de zwarte package bedoeld wordt. Zo wordt er namelijk verteld dat men er bij het losmaken van het "kapje" op moet letten om deze niet te draaien omdat anders de "core" op zijn onderplaat mee kan draaien.
Edit: Heeft de package echt maar zo'n dunne rand aan de zijkanten dat als de package 25x25mm is dat de "die" daarin ook vrijwel dezelfde afmeting heeft, bv een .1mm dunne zijkant? Is er iemand die daar een zinnig antwoord op kan geven?
Edit2: Op deze site kan je zien dat de "dies" al op de wafer al ingepakt kunnen worden (wafer level chip size package, WLCSP), in dat geval zou het dus goed kunnen zijn dat de package size precies gelijk is aan de "die" size. Als dit zo is met de GT200 dan heeft CJ gelijk dat de "die" size groter is dan verwacht. Vraag is nu of de GT200 daadwerkelijk zo wordt ingepakt.
Edit3: Hier is een bijzonder interessant artikel over de GT200, zeer technisch maar geeft goed inzicht in deze chip. Op pagina 11 staat dat de die-size 583.2mm2 is en dat deze confirmed is. Of dat laatste waar is weet ik niet maar het is een interessant gegeven, zéker bij een artikel dat zo diep ingaat op een GPU.
[ Voor 27% gewijzigd door denheer op 10-12-2008 16:31 ]
Volgens mij heeft AMD de prijzen nooit verhoogd, en was dit een gevolg van de dure dollar tov de euro.frankknopers schreef op woensdag 10 december 2008 @ 15:28:
In de tussentijd verkocht AMD de HD4870X2 voor de hoofdprijs en konden ze de prijs zelfs ietsje verhogen. Er was toch geen weerstand van NV.
-Tevens begrijp ik het niet helemaal dat mensen zich zo druk maken om de kosten die een kaartenbakker maakt of moet maken om een kaart te maken.
Als we er als consument een redelijke prijs voor betalen boeit dat toch niet? Al betalen ze er 1000 euro voor om een kaart te produceren, en verkopen ze de kaart voor 250. Ik lig er niet wakker van, en het boeit me ook niet.
Dat ATi goedkoper kaarten kan/ kon maken dan nV is zo. Maar dat vind ik niet interessant.
De consumentenprijs is het enige wat mij boeit.
[ Voor 6% gewijzigd door Format-C op 10-12-2008 16:07 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
24x24 is 576mm2, dus het zou misschien een package van ongeveer 1mm dik kunnen zijn ?Edit3: Hier is een bijzonder interessant artikel over de GT200, zeer technisch maar geeft goed inzicht in deze chip. Op pagina 11 staat dat de die-size 583.2mm2 is en dat deze confirmed is. Of dat laatste waar is weet ik niet maar het is een interessant gegeven, zéker bij een artikel dat zo diep ingaat op een GPU.
Maar de consumentenprijs is afhankelijk van de productieprijs, aangezien Nvidia echt niet altijd onder de productieprijs kan verkopen want dan gaan ze failliet.RappieRappie schreef op woensdag 10 december 2008 @ 16:05:
[...]
Volgens mij heeft AMD de prijzen nooit verhoogd, en was dit een gevolg van de dure dollar tov de euro.
-Tevens begrijp ik het niet helemaal dat mensen zich zo druk maken om de kosten die een kaartenbakker maakt of moet maken om een kaart te maken.
Als we er als consument een redelijke prijs voor betalen boeit dat toch niet? Al betalen ze er 1000 euro voor om een kaart te produceren, en verkopen ze de kaart voor 250. Ik lig er niet wakker van, en het boeit me ook niet.
Dat ATi goedkoper kaarten kan/ kon maken dan nV is zo. Maar dat vind ik niet interessant.
De consumentenprijs is het enige wat mij boeit.
Als dus beide bedrijven productiekosten laag zouden hebben en niet alleen Ati, dan zouden de prijzen waarschijnlijk nog een stukje dalen dus als ik jou was zou het me toch nog wel een beetje boeien.
Het is nog niet super veel upgedate, maar linken naar drivers en vorige topics zouden al ok moeten zijn.
linkje naar deel 35 dus:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 35
Het gaat mij om de prestaties.EdwardvGelder schreef op woensdag 10 december 2008 @ 17:02:
[...]
Maar de consumentenprijs is afhankelijk van de productieprijs, aangezien Nvidia echt niet altijd onder de productieprijs kan verkopen want dan gaan ze failliet.
Als dus beide bedrijven productiekosten laag zouden hebben en niet alleen Ati, dan zouden de prijzen waarschijnlijk nog een stukje dalen dus als ik jou was zou het me toch nog wel een beetje boeien.
[ Voor 88% gewijzigd door Format-C op 10-12-2008 17:26 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit topic is gesloten.
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!