- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Yeah yeah - maar het gaat even over consistency across the board
De meeste mensen deugen!
Anoniem: 203140
Laten we er van uit gaan dat dit de eerste echte DX 10 kaart word, die wel AA Q16 op HD reloluties aan kan. Leuk zo'n FullHD tv, maar als je alleen maar 1024x768 kan gamen met een 9800GX2?
Anoniem: 104819
http://www.dailytech.com/article.aspx?newsid=11842justifire schreef op dinsdag 20 mei 2008 @ 17:39:
Als de GTX 280 daadwerkelijk geen tri-sli ondersteund, zal het mij niet verbazen als hij intern sli gebruikt (als de 9800X2 maar dan op de processor zelf)
2 van deze zou dan weer een quad opstelling zijn.
Kan alleen maar hopen van niet en dat we straks lekker 3 van deze beestjes in sli kunnen zetten.
Hier staat dat hij wss wel tri sli ondersteunt
Het zou zeg maar de nieuwe mainstream chipset worden met Hybrid SLI enzo, gepositioneerd onder de 790i/780i, maar wel beter dan de 750i. Hij zou rond April komen.
Iemand een idee? Ik lust wel een MCP7A-SLI nu Nehalem Mainstream pas rond 2009 gaat komen...
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik heb boardshots gezien met 2 connectors. Dus lijkt me dat hij wel Tri SLI zou moeten ondersteunen.Anoniem: 104819 schreef op woensdag 21 mei 2008 @ 14:51:
[...]
http://www.dailytech.com/article.aspx?newsid=11842
Hier staat dat hij wss wel tri sli ondersteunt, weet niet of het geruchten zijn...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Kan me zelf ook niet voorstellen waarom ze het niet zouden ondersteunen, immers 3 kaarten verkopen levert meer op dan 2 kaartenCJ schreef op woensdag 21 mei 2008 @ 15:22:
[...]
Ik heb boardshots gezien met 2 connectors. Dus lijkt me dat hij wel Tri SLI zou moeten ondersteunen.
Of het is toch het interne sli lulverhaaltje van mij wat roet in het eten gooit.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
edit:
http://www.dailytech.com/article.aspx?newsid=11842NVIDIA's upcoming Summer 2008 lineup gets some additional details
Later this week NVIDIA will enact an embargo on its upcoming next-generation graphics core, codenamed D10U. The launch schedule of this processor, verified by DailyTech, claims the GPU will make its debut as two separate graphics cards, currently named GeForce GTX 280 (D10U-30) and GeForce GTX 260 (D10U-20).
The GTX 280 enables all features of the D10U processor; the GTX 260 version will consist of a significantly cut-down version of the same GPU. The D10U-30 will enable all 240 unified stream processors designed into the processor. NVIDIA documentation claims these second-generation unified shaders perform 50 percent better than the shaders found on the D9 cards released earlier this year.
The main difference between the two new GeForce GTX variants revolves around the number of shaders and memory bus width. Most importantly, NVIDIA disables 48 stream processors on the GTX 260. GTX 280 ships with a 512-bit memory bus capable of supporting 1GB GDDR3 memory; the GTX 260 alternative has a 448-bit bus with support for 896MB.
GTX 280 and 260 add virtually all of the same features as GeForce 9800GTX: PCIe 2.0, OpenGL 2.1, SLI and PureVideoHD. The company also claims both cards will support two SLI-risers for 3-way SLI support.
Unlike the upcoming AMD Radeon 4000 series, currently scheduled to launch in early June, the D10U chipset does not support DirectX extentions above 10.0. Next-generation Radeon will also ship with GDDR5 while the June GeForce refresh is confined to just GDDR3.
The GTX series is NVIDIA's first attempt at incorporating the PhysX stream engine into the D10U shader engine. The press decks currently do not shed a lot of information on this support, and the company will likely not elaborate on this before the June 18 launch date.
After NVIDIA purchased PhysX developer AGEIA in February 2008, the company announced all CUDA-enabled processors would support PhysX. NVIDIA has not delivered on this promise yet, though D10U will support CUDA, and therefore PhysX, right out of the gate.
NVIDIA's documentation does not list an estimated street price for the new cards.

http://forums.vr-zone.com/showthread.php?t=278769
[ Voor 90% gewijzigd door edward2 op 21-05-2008 18:24 ]
Niet op voorraad.
G80: 4 x 8 SP clusters = 32 TMUs
G92GTS/GTX: 8 x 8 SP clusters = 64 TMUs
G92GT: 8 x 7 SP clusters = 56 TMUs
G92GS: 8 x 6 SP clusters = 48 TMUs
G94: 8 x 4 SP clusters = 32 TMUs
G84/G96: 8 x 2 SP clusters = 16 TMUs
DX10.1 inbouwen in de huidige architectuur (dus G8x, G9x, GT200) vergt een aanpassing van de ROPs om bepaalde DX10.1 functies zoals Gather4 te ondersteunen. Dit zou veel meer ruime in beslag nemen dan bv het simpelweg toevoegen van streamprocessors of TMUs.
AMD had het geluk dat ze de ROPs al vanaf de R580/RV515/RV530 geschikt hadden gemaakt voor deze functies en het toevoegen van DX10.1 dus een peuleschilletje was.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit is in mijn ogen toch een minpunt. Als ik nu een nieuwe dikke kaart koop dan wil ik ook dat die 10.1 ondersteund. Is het al bekent wanneer de volgende generatie kaarten uitkomt?CJ schreef op woensdag 21 mei 2008 @ 19:21:
DX10.1 inbouwen in de huidige architectuur (dus G8x, G9x, GT200) vergt een aanpassing van de ROPs om bepaalde DX10.1 functies zoals Gather4 te ondersteunen. Dit zou veel meer ruime in beslag nemen dan bv het simpelweg toevoegen van streamprocessors of TMUs.
AMD had het geluk dat ze de ROPs al vanaf de R580/RV515/RV530 geschikt hadden gemaakt voor deze functies en het toevoegen van DX10.1 dus een peuleschilletje was.
[ Voor 5% gewijzigd door Bart1983 op 21-05-2008 19:38 ]
De volgende generatie zal wel weer meteen dx 11 worden denk ik zo.Bart1983 schreef op woensdag 21 mei 2008 @ 19:37:
[...]
Dit is in mijn ogen toch een minpunt. Als ik nu een nieuwe dikke kaart koop dan wil ik ook dat die 10.1 ondersteund. Is het al bekent wanneer de volgende generatie kaarten uitkomt?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Nu zal het niet echt warmlopen van de devs ook wel een beetje te maken hebben met het TITWMTBP programma
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Ik zie niet in waarom iets een minpunt is als het toch niet gebruikt wordt. Je zou het beter overbodig kunnen noemen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 259941
Als ze het gewoon vanaf het begin erin hadden gebouwt hadden de ontwikkelaar misschien dat extra duwtje gekregen om hun spel met DirectX 10.1 te ontwikkelen. Waardoor zowel de gebruikers van ATI als nVidia kaarten van betere framerates zouden kunnen genieten.
Als nV dx10.1 wel had ondersteund, zouden de developers dx10.1 dan wel in hun game stoppen.....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat vrees ik ook. En laat dx10.1 nu juist wel leuke dingen zien. (op AA gebied)Anoniem: 259941 schreef op woensdag 21 mei 2008 @ 22:51:
Als ze het gewoon vanaf het begin erin hadden gebouwt hadden de ontwikkelaar misschien dat extra duwtje gekregen om hun spel met DirectX 10.1 te ontwikkelen. Waardoor zowel de gebruikers van ATI als nVidia kaarten van betere framerates zouden kunnen genieten.
Niet op voorraad.
Zelfs al ondersteunt NV DX10.1 niet... er zijn al developers die DX10.1 wel in hun game stoppen, juist omdat DX10.1 de dingen fixed die DX10 verkeerd heeft gedaan (bv AA).Help!!!! schreef op woensdag 21 mei 2008 @ 22:59:
Retorische vraag:
Als nV dx10.1 wel had ondersteund, zouden de developers dx10.1 dan wel in hun game stoppen.....
Bron: http://www.tgdaily.com/content/view/37326/98/We received a second reply from another game developer, who is currently a DirectX 10.1 title that fully compliant with DX10.0 hardware:
“Of course it removes the render pass! That's what 10.1 does! Why is no one pointing this out, that's the correct way to implement it and is why we will implement 10.1. The same effects in 10.1 take 1 pass whereas in 10 it takes 2 passes.”
A third email reply reached us from a developer a multiplatform development studio:
“Our port to DX10.1 code does not differ from DX10.0, but if you own DX10.1-class hardware from either Nvidia or ATI, FSAA equals performance jump. Remember "Free FSAA"?”
Ubisoft is niet de enige die met DX10.1 aan de slag is gegaan. Overigens zegt Ubisoft er zelf dit over:
Dus helemaal overgeslagen wordt het niet. NV zal DX10.1 wel moeten ondersteunen in hun next-gen DX11 GPU simpelweg omdat elke DX versie volledig backwards compatible moet zijn.the way how DX10.1 works is to remove excessive passes and kill overhead that happened there. That overhead wasn't supposed to happen - we all know that DX10.0 screwed AA in the process, and that 10.1 would solve that [issue].
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het lijkt me dat al deze reacties van developers eens en voor altijd dat debacle van 10.1 including assasin's creed neerschieten in het nadeel van nVidia - eerlijk is eerlijk punt uitCJ schreef op donderdag 22 mei 2008 @ 00:36:
[...]*knip*
Kwam vandaag een klant in de winkel: "Ik heb gehoord dat ATi kaarten technisch eigenlijk altijd beter zijn, maar in spellen toch niet goed presteren?" ... kan ik moeilijk zeggen dat hij volledig ongelijk heeft
De meeste mensen deugen!
Ik bedoel;
- een keer zoveel shaders, die ook nog eens 50% efficienter zijn
- een keer zoveel geheugen
- een keer zoveel geheugenbandbreedte als de 9800 serie
- een keer zoveel ROP's
Misschien is ie wel een keer zo snel als een 9800GTX!
[ Voor 4% gewijzigd door Format-C op 22-05-2008 09:13 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het gaat echter meer om de dingen die bijvoorbeeld fout zijn gegaan bij DX10.0 wat gefixed wordt door DX10.1, zoals:
- verbeterde AA
- verbeterde texture & shadingmogelijkheden
- hogere precisie
De GeForce GT X280 is theoretisch gezien vaak wel een keer zo snel als de 9800GTX en dit zie je in sommige benchmarks ook wel terug straks.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar daar gaat het toch niet om? Je kan toch niet zeggen "ze hebben toch wel brute kracht dus laten we de juiste en nette code maar achterwege / slecht geïmplementeerd" ...CJ schreef op donderdag 22 mei 2008 @ 10:06:
Zo is een GeForce9800GTX zelfs zonder DX10.1 nog sneller dan een HD3870 die een 20% performanceboost krijgt met DX10.1


Dat de chip groot werd wisten we al, ik hoop alleen dat ze het klaar spelen een fatsoenlijke dual-slot koeler te fabriceren die stil is, al zij het met een beetje hoge temps.De GeForce GTX280 is theoretisch gezien vaak wel een keer zo snel als de 9800GTX en dit zie je in sommige benchmarks ook wel terug straks.De chip is wel enorm groot trouwens... damn... nog groter dan de G80.
De meeste mensen deugen!
Dan zal hij ook wel 500+ euro zijn...CJ schreef op donderdag 22 mei 2008 @ 10:06:
De chip is wel enorm groot trouwens... damn... nog groter dan de G80.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Reken de eerste 2 maanden maar op 650 euro.CJ schreef op donderdag 22 mei 2008 @ 14:03:
Klopt ja.Maar dat is toch niet iets nieuws? Is bij NV altijd zo geweest.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙

De bovenste is de nieuwe en de onderste de G80 ....biobak schreef op donderdag 22 mei 2008 @ 18:51:
Nou, ik heb net m'n vakantiegeld binnen dus ik heb alvast wat budget voor deze gpu met het formaat van een stoeptegel gereserveerd![]()
[afbeelding]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Lijkt er wel op, maar m'n 7600GT heeft echt zo'n chipje van 1x1 cmHelp!!!! schreef op donderdag 22 mei 2008 @ 19:09:
[...]
De bovenste is de nieuwe en de onderste de G80 ....
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Yep. Kan je zien aan het aantal geheugenchips aan de voorkant (12 voor de G80, 8 voor de GT200), het grotere GPU oppervlak en het veel complexere PCB van de GT200.Help!!!! schreef op donderdag 22 mei 2008 @ 19:09:
[...]
De bovenste is de nieuwe en de onderste de G80 ....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
NVIDIA Acquires Rayscale, Raytracing Start-up
De GT200 heeft net als de G80 een losse FCBGA chip waarin de RAMDAC zit. Deze hebben ze expres apart gezet omdit dit de chip anders nog complexer maakt (en die is al zo groot). Dit zorgt er dus voor dat de yields niet nog verder droppen.
Er zitten meer transistoren in en de inner-die is vast groter, maar de uiteindelijke chip zelf is voor zover ik gelezen en vooral gezien heb niet groter? Zeker niet met dat plaatje wat nu overal rondzweeft en redelijk geaccepteerd lijkt.CJ schreef op donderdag 22 mei 2008 @ 10:06:
De chip is wel enorm groot trouwens... damn... nog groter dan de G80.
Maar kan iemand dit dan uitleggen?Yep. Kan je zien aan het aantal geheugenchips aan de voorkant (12 voor de G80, 8 voor de GT200), het grotere GPU oppervlak en het veel complexere PCB van de GT200.

De onderste is een G80 core van een GTX/Ultra PCB. Deze herken je zeer duidelijk aan de rim om de core heen om overdruk op de randen van de core op te vangen. Ik gok dat deze uiteindelijk ook op de GT200 komt - maar zo niet wordt het wat voorzichtiger te werk gaan met aftermarket koelers. Ook is het PCB van de GT200 links en rechts van de GPU aanzienlijk drukker/complexer.
Ik heb een trace gedaan over de cores met een semi-transparant vak en deze exact gekopieërd; het maakt niet uit bij welke ik begin (duh
[ Voor 3% gewijzigd door Cassius op 22-05-2008 21:37 ]
De meeste mensen deugen!
Om de core te zien moet je eerst de heatspreader verwijderen.Cassius schreef op donderdag 22 mei 2008 @ 21:36:
[...]
Ik heb een trace gedaan over de cores met een semi-transparant vak en deze exact gekopieërd; het maakt niet uit bij welke ik begin (duh) maar ze zijn echt even groot ...
?
Net als bij de 7800 destijds?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ja dat begrijp ik wel, maar waarom zou nVidia in dit geval dan een "te grote" heatspreader op de G80 geplaatst hebben? Lucht tussen de randen van je core en je heatspreader is niet goed voor de warmtedoorgifte naar de koeler toe; dat weten die engineers al wat langer dan dat ik het weet zullen we maar zeggen/hopenbiobak schreef op donderdag 22 mei 2008 @ 21:40:
[...]
Om de core te zien moet je eerst de heatspreader verwijderen.
Vandaar dat ik die conclusie maakte, maar zouden ze het opgevuld hebben met spul dan die lege ruimte van de G80 heatspreader?
De meeste mensen deugen!
Kijk eens naar CPU'sCassius schreef op donderdag 22 mei 2008 @ 21:43:
[...]
Ja dat begrijp ik wel, maar waarom zou nVidia in dit geval dan een "te grote" heatspreader op de G80 geplaatst hebben? Lucht tussen de randen van je core en je heatspreader is niet goed voor de warmtedoorgifte naar de koeler toe; dat weten die engineers al wat langer dan dat ik het weet zullen we maar zeggen/hopen.
Vandaar dat ik die conclusie maakte, maar zouden ze het opgevuld hebben met spul dan die lege ruimte van de G80 heatspreader?
Overigens zou er naast de core ook gewoon lucht zitten wanneer er geen IHS op zou zitten maar een heatsink direct op de core gemonteerd.
[ Voor 7% gewijzigd door Avalaxy op 22-05-2008 21:55 ]
Hmm good point I suppose, dus de lege ruimte zit gewoon lucht tussen. En veel groter kan de spreader niet want je moet met schroeven wel kunnen garanderen dat het oppervlak strak contact maakt - I see. Maar een grotere core brengt in dit principe toch altijd meer warmte met zich mee dan (als we de specificaties mogen geloven)? Aangezien het warmte afgifte "oppervlak" hetzelfde is (de IHS) maar het aantal transistors groter is geworden en volgens "geruchten" ook sneller schakelt. Ofwel de koeler zal weer een tandje mogen bijzettenleonpwner1 schreef op donderdag 22 mei 2008 @ 21:54:
[...]
Kijk eens naar CPU'sKleine core, enorme IHS. Het punt van een heatspreader is juist om de heat te spreaden, dat doe je dus met een groot oppervlak. Daarnaast is het om de druk van een heatsink te verdelen over de die, dat doe je dus ook met een zo groot mogelijke IHS
Overigens zou er naast de core ook gewoon lucht zitten wanneer er geen IHS op zou zitten maar een heatsink direct op de core gemonteerd.
De meeste mensen deugen!
Hier wat cijfertjes...Cassius schreef op donderdag 22 mei 2008 @ 21:36:
[...]
Er zitten meer transistoren in en de inner-die is vast groter, maar de uiteindelijke chip zelf is voor zover ik gelezen en vooral gezien heb niet groter? Zeker niet met dat plaatje wat nu overal rondzweeft en redelijk geaccepteerd lijkt.
484mm2 voor de G80
576mm2 voor de GT200
1x raden welke groter is.
NV werkt met 64-bits kanalen. Aan elk kanaal zijn twee geheugenmodules gekoppeld. Bij de G80 zie je 12 geheugenmodules aan de voorkant, wat dus neerkomt op 6 x 64-bits kanalen. En 6 x 64-bit = 384-bits memory interface.Maar kan iemand dit dan uitleggen?
Bij de GT200 zie je 8 geheugenmodules. Je mag er van uit gaan dat NV niet ineens is overstapt op 32-bits kanalen, maar bij 64-bits kanalen. Daarom is het zeer aannemelijk dat aan de andere kant ook 8 geheugenmodules zitten. Dat zijn dus 8 x 64-bits kanelen.... en dat maakt een 512-bit memory interface.
Zouden er aan de achterkant geen 8 chips zitten, dan had je een 256-bit memory interface en dat heeft de GT200 echt niet (tenzij ze ineens met 32-bits kanalen werken en chips van 128MB).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
SourceThe time for bigger GTX 280 pictures has finally arrived. And this time we are talking about the entire card and a decent picture size.
The pictures are coming from PCPOP.com and show the GTX 280 in its full glory. The big chip and the big PCB are all that can be seen so far, but at least the pictures are at decent size. The PCB is black, again, and the card needs two power connectors.
Without further delay, here are the pictures. Let's hope they are the real deal.
Doe Praemel!
Niet op voorraad.
Altijd eerste die fotoschietende japanners en chinezen heedward2 schreef op vrijdag 23 mei 2008 @ 09:53:
Stukje bij beetje wordt er iedere keer weer wat ontrafelt. Volgende week vage benchmarks van een Oesbekistaanse website.
De meeste mensen deugen!
Dan heeft nVidia PhysX en ATi DX10.1.
Het zal mij benieuwen of het PhysX gebeuren nu wel van de grond komt... Het zou iig een doorn in het oog van ATi zijn dan. PhysX in TWIMTBP.
[ Voor 41% gewijzigd door Format-C op 23-05-2008 13:16 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 259941
Toch als het inderdaad van de grond komt, zullen alle kaarten vanaf de 8800 serie toch wel een verbetering in Physics zien.
NV gaat er voor zorgen dat PhysX ook op ATI kaarten werkt.RappieRappie schreef op vrijdag 23 mei 2008 @ 13:07:
Ik neem aan dat de GTX280 en 260 ook PhysX aan boord hebben?Met zoveel power is er vast nog wel een shadertje vrij om wat Physx te berekenen. En ik neem aan dat ze nadat ze Ageia hebben overgenomen er ook gebruik van willen maken.
Dan heeft nVidia PhysX en ATi DX10.1.
Het zal mij benieuwen of het PhysX gebeuren nu wel van de grond komt... Het zou iig een doorn in het oog van ATi zijn dan. PhysX in TWIMTBP.
Ze willen namelijk een doorn in het oog zijn van Intel die de grootste physicsleverancier Havok heeft overgenomen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hoe gaat NVIDIA daar precies voor zorgen dan? NVIDIA heeft Ageia aangekocht om de PhysX engine hardwarematig te versnellen met CUDA, maar heeft AMD een equivalent waarmee je hetzelfde kunt bereiken?CJ schreef op vrijdag 23 mei 2008 @ 13:51:
[...]
NV gaat er voor zorgen dat PhysX ook op ATI kaarten werkt.
Ze willen namelijk een doorn in het oog zijn van Intel die de grootste physicsleverancier Havok heeft overgenomen.
En wat gaat een dergelijke deal AMD kosten, want ik kan me niet voorstellen dat NVIDIA gaat betalen en AMD gratis licenties geeft
http://www.custompc.co.uk...-support-to-amd--ati.html
Overigens hoorde ik net dat de GTX 280 de TFLOP barriere niet doorbreekt. Het blijft hangen op 933GFLOPs.
[ Voor 7% gewijzigd door CJ op 23-05-2008 17:35 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
is dat gat van 66gflops niet te vullen met wat overklokken? is tenslotte maar ruim 10% hoewel dat niet 10% hogere clock betekend.CJ schreef op vrijdag 23 mei 2008 @ 17:33:
NV gaat van PhysX een open platform maken om zo veel mogelijk support te krijgen. Allereerst zijn hun eigen GPUs aan de beurt, maar het is de bedoeling dat op elk platform PhysX zou moeten werken. Of het nou een Xbox360 is, een PS3, een GeForce 8800GTX of een Radeon HD4870. Alleen op die manier krijgen ze de markt achter zich en kunnen ze voorkomen dat Intel straks roet in het eten gooit door Havok te optimaliseren voor hun CPU + GPU combinaties. En daarnaast moeten ze wel voor een open standaard gaan... want Microsoft komt er aan met DirectPhysics.
http://www.custompc.co.uk...-support-to-amd--ati.html
Overigens hoorde ik net dat de GTX 280 de TFLOP barriere niet doorbreekt. Het blijft hangen op 933GFLOPs.
En dan?PainkillA schreef op vrijdag 23 mei 2008 @ 19:17:
[...]
is dat gat van 66gflops niet te vullen met wat overklokken? is tenslotte maar ruim 10% hoewel dat niet 10% hogere clock betekend.
knou gewoon leuk "for the record" om ff die grens te halen maar verder boeid het mij ook weinig

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik moet het eerst nog zienCJ schreef op zaterdag 24 mei 2008 @ 13:32:
Voorheen besteden ze er weinig aandacht aan omdat hun GPUs gewoon op dat gebied minder presteerden dan AMD/ATI GPUs.

Waterblok voor GT-200 serie

je kan dat ook omdraaien, en zeggen dat nvidia's gpu's minder presteerde, ómdat ze er weinig aandacht aan besteedde (lees: ze vonden het (nog) niet belangrijk genoeg)[b][message=30122468,noline] Voorheen besteden ze er weinig aandacht aan omdat hun GPUs gewoon op dat gebied minder presteerden dan AMD/ATI GPUs.
Denk niet dat ze daar rekening mee hebben gehouden maar dat het gewoon het complete design is wat anders is. NVIDIA doet meer met minder imho, ze optimaliseren alles goed en hebben geen monster specs nodig. Dat kost ze dan wel weer wat FLOPS, maar who cares, GeForce kaarten zijn toch om te gamen, en dat doen ze prima.Mr. Detonator schreef op zaterdag 24 mei 2008 @ 15:46:
[...]
je kan dat ook omdraaien, en zeggen dat nvidia's gpu's minder presteerde, ómdat ze er weinig aandacht aan besteedde (lees: ze vonden het (nog) niet belangrijk genoeg)
Geloof me, als de vorige GPUs monsters waren op het gebied van General Purpose Processing dan hadden ze het echt wel geadverteerd. Ze zijn nu eenmaal NVIDIA. Elk persoon uit de industrie kan je dat bevestigen. De GTX 280 is in feite een geoptimaliseerde opgepimpte G80 waar eindelijk ook de missing MUL aan het werk is in games.Mr. Detonator schreef op zaterdag 24 mei 2008 @ 15:46:
[...]
je kan dat ook omdraaien, en zeggen dat nvidia's gpu's minder presteerde, ómdat ze er weinig aandacht aan besteedde (lees: ze vonden het (nog) niet belangrijk genoeg)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.tweakpc.de/har..._treibervergleich/s01.php
Een vergelijk van tien setjes driversoftware. Vooral de 175.xx doen het goed, op een DNF na in Call of Juarez voor de 175.16. Over het algemeen toch zo'n 5-10% extra performance. Enjoy.
http://benchmarkreviews.c...id=1&limit=1&limitstart=3After catching Jen-Hsun alone in the parking lot after the event, he wasn't at all apprehensive of what I might ask or hurried in his response. My question: "When do you foresee the next NVIDIA GPU to be produced using a smaller fabrication process?" To my complete surprise, Mr. Huang answered: "We count our blessing every time a product is designed." He went on to explain that the upcoming (unreleased) GeForce GPU is already riding the edge of technical boundaries (after the 17 June 2008 NDA is lifted, you will get a completely detailed explanation here), and that a reduced die process doesn't always translate into better performance or higher efficiency. It caught me a little of guard to hear the top NVIDIA rank tell me a completely genuine answer, without the slightest tone of marketing gloss.
If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.
[ Voor 54% gewijzigd door Format-C op 25-05-2008 09:19 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit is de reden waarom het gat niet valt op te vullen met overklokken. Schijnbaar vallen de clock frequencies wat tegen.PainkillA schreef op vrijdag 23 mei 2008 @ 19:17:
[...]
is dat gat van 66gflops niet te vullen met wat overklokken? is tenslotte maar ruim 10% hoewel dat niet 10% hogere clock betekend.
[ Voor 6% gewijzigd door Indy91 op 25-05-2008 09:18 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dat stukje hebben ze rechtstreeks gejat van een fanboy van The Inq. Wat een praatjesmaker...Indy91 schreef op zondag 25 mei 2008 @ 09:15:
[...]
Dit is de reden waarom het gat niet valt op te vullen met overklokken.
http://www.theinquirer.ne...05/24/gtx260-280-revealed
LOL.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit belooft wat
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
uiteraard...alleen was het toen nog niet nodig, dus waarom een kaart maken die het wel goed kan, en er mee gaan adverteren...CJ schreef op zaterdag 24 mei 2008 @ 16:35:
[...]
Geloof me, als de vorige GPUs monsters waren op het gebied van General Purpose Processing dan hadden ze het echt wel geadverteerd.
want om nou aminozuren en eiwitten te gaan berekenen voor het goede doel met je videokaart vind ik een beetje te ver gaan.....want daar kwam het voorheen wel op neer
nvidia implementeerd het pas als het ''nodig'' is in games
[ Voor 3% gewijzigd door Mr. Detonator op 25-05-2008 13:50 ]
Ik heb een vraag over mobiele gpu`s & drivers
Goed, ik heb een 8700m GT in men laptop (toshiba)
Mijn driver voor die kaart is nogal out-dated, maar op de site van nvidia staat alleen een beta driver voor 8700m gt sli (ik heb dus een single).
Heeft iemand hier een suggestie, van welke driver ik zou kunnen downloaden?
mvg,
laptopvideo2goSzaby schreef op zondag 25 mei 2008 @ 15:47:
Heeft iemand hier een suggestie, van welke driver ik zou kunnen downloaden?
"The people who are crazy enough to think they could change the world, are the ones who do." -- Steve Jobs (1955-2011) , Aaron Swartz (1986-2013)
Er zijn nu nieuwe details uit maar zover ik zie zit het er niet op.
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Zover ik kan zien zit het er wel opJim423 schreef op dinsdag 27 mei 2008 @ 22:12:
Heeft iemand enig idee of die GTX 280 kaarten Tri SLI ondersteunen ? Met het oog op de voeding die ik wil kopen.
Er zijn nu nieuwe details uit maar zover ik zie zit het er niet op.
Nvidia heeft bevestigd dat beide kaarten (260 en 280) allebei 2 sli connectors hebben.
Ze zouden dus allebei in tri-sli kunnen draaien.
Op de gelekte foto's word dit nog eens bevestigd.
Voor voeding is de thermaltake toughpower 1500 erg aantrekelijk.
Al hoop ik dat mijn enermax galaxy 1000w het ook wel trekt.
Deze heeft in ieder geval 3x6 en 3x8 pins pci-e connectors.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ik twijfel namelijk tussen de 8800GT en de 9600GT deze laatste is zelfs ook nog goedkoper... Het belangrijkste dat ie niet zoveel herrie maakt want ik ga hem toch niet over clocken of dergelijk..
8800GT ( Link : http://www.alternate.nl/h...Details.html?artno=JBXVL1 )
9600GT ( Link : http://www.alternate.nl/h...?baseId=4490&artno=jbxxj4 )
Ik heb zo ff 2 verschillende fabrikanten gepakt maar als ie maar stil is... ik heb er namelijk geen ervaring mee!
Enjoy the joy
Daar kan je heel goed zelf achter komen door een aantal reviews te lezen van beide kaarten. Succes!Wippien schreef op woensdag 28 mei 2008 @ 09:42:
Zou iemand mij advies kunnen geven ????
Ik twijfel namelijk tussen de 8800GT en de 9600GT deze laatste is zelfs ook nog goedkoper... Het belangrijkste dat ie niet zoveel herrie maakt want ik ga hem toch niet over clocken of dergelijk..
8800GT ( Link : http://www.alternate.nl/h...Details.html?artno=JBXVL1 )
9600GT ( Link : http://www.alternate.nl/h...?baseId=4490&artno=jbxxj4 )
Ik heb zo ff 2 verschillende fabrikanten gepakt maar als ie maar stil is... ik heb er namelijk geen ervaring mee!
Anoniem: 134818
Waarom neem je geen silent editie? En ik zou niet bij alternate bestellen, duur en slechte service.Wippien schreef op woensdag 28 mei 2008 @ 09:42:
Zou iemand mij advies kunnen geven ????
Ik twijfel namelijk tussen de 8800GT en de 9600GT deze laatste is zelfs ook nog goedkoper... Het belangrijkste dat ie niet zoveel herrie maakt want ik ga hem toch niet over clocken of dergelijk..
8800GT ( Link : http://www.alternate.nl/h...Details.html?artno=JBXVL1 )
9600GT ( Link : http://www.alternate.nl/h...?baseId=4490&artno=jbxxj4 )
Ik heb zo ff 2 verschillende fabrikanten gepakt maar als ie maar stil is... ik heb er namelijk geen ervaring mee!
pricewatch: Gigabyte GV-NX96T512HP
pricewatch: Sparkle SF-PX96GT512D3-HP Cool-pipe
of
pricewatch: Sparkle SF-PX88GT512D3-HP Cool-pipe 3
Future proof bestaat niet in computerland.tomcatha schreef op woensdag 28 mei 2008 @ 10:39:
Ik denk ook dat de 8800gt wel een stuk beter future proof is dan de 9600gt door de grotere aantal shaders.
Wat vandaag nieuw is, is morgen oud, wat vandaag snel is, is morgen traag. En wat vandaag duur is kost morgen niets meer.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Meestal is het zo dat als iets nét uit is, je er ongeveer een jaar mee kan doen. Soms iets langer. En dan is er weer iets nieuws dat veel sneller en veel goedkoper is.
Maar goed. Dit HOEFT niet. Je kan er ook langer mee doen, maar dan moet je na 3 jaar een compleet nieuw systeem hebben als je games wil spelen.
[ Voor 66% gewijzigd door Format-C op 28-05-2008 11:03 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Jah idd maar zijn die goed gekoeld dan ? Mn videokaart flipt nu ook omdat ie te warm wordt en dat is dus de reden dat ik nieuwe haal..Anoniem: 134818 schreef op woensdag 28 mei 2008 @ 10:40:
[...]
Waarom neem je geen silent editie? En ik zou niet bij alternate bestellen, duur en slechte service.
pricewatch: Gigabyte GV-NX96T512HP
pricewatch: Sparkle SF-PX96GT512D3-HP Cool-pipe
of
pricewatch: Sparkle SF-PX88GT512D3-HP Cool-pipe 3
Nou ik had ff benchmark opgezocht :http://xtreview.com/addcomment-id-4270-view-9600-GT-benchmark.html
Het wordt de 8800GT , ik denk 1tje van Asus!
Enjoy the joy
Of je upgrade steeds 1 onderdeel per jaar.RappieRappie schreef op woensdag 28 mei 2008 @ 10:59:
Dat is zo. Maar over het algemeen gaat het zo snel dat het niet is bij te houden.
Meestal is het zo dat als iets nét uit is, je er ongeveer een jaar mee kan doen. Soms iets langer. En dan is er weer iets nieuws dat veel sneller en veel goedkoper is.
Maar goed. Dit HOEFT niet. Je kan er ook langer mee doen, maar dan moet je na 3 jaar een compleet nieuw systeem hebben als je games wil spelen.

Kom op mensen... dit is niet de plaats voor dit type vragen. Terug ontopic alstublaft.
Krijg deze week een nieuwe laptop van Asus omdat ze me oude niet konden maken, daar zat een Go7600 in. Ik heb al een hoop gelezen over de kaartjes maar kom er niet echt helemaal uit. Deze HD2600Pro is 20% 'beter' ?
Sowieso:
- HD Hardware support, dus minder cpu belasting
- Directx 10
- 512 MB i.p.v. 256 MB
[ Voor 31% gewijzigd door dion_b op 30-05-2008 12:02 ]
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9

[ Voor 29% gewijzigd door hosee op 29-05-2008 15:29 ]
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
tja blijkt dus dat de opvolger weinig spectaculair is en te duur gaat worden. Weet dat theinquirer nooit echt betrouwbaar is kwa info. Als dit allemaal waar is dan gaat er denk ik een mooie prijzenslag komen om nog te kunnen concurreren.
Big momma!
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
After packaging, shipping and add-ins, there is almost nothing left for the OEMs, quite possible explaining why one of their biggest one is teetering on the verge of bankruptcy, kept alive because NV won't call their debt while still shiping to them.
-> Het gaat hier over XFX. Gerucht gaat al een paar maanden dat deze nagenoeg failliet is en dat zij niet de rekeningen aan nVidia kunnen betalen. Als deze omvalt dan is nVidia een erg grote nVidia only partner kwijt, iets dat niet goed is voor hun machts positie want met de echt grote jongens die naar nVidia ook ATI voeren valt dan niet makkelijk te onderhandelen. Dit is dan ook de reden dat nVidia het laatste half jaar druk probeert om nieuwe kleine nVidia partners te helpen om groter te worden. Beter 10 kleine klanten dan een paar grote jongens. Overigens ook een nadeel voor AMD want ATI was volgens sommige al erg lang met XFX in gesprek om te starten met ATI chips... volgende week is het Computex en dan komen ook veel interessante roddels naar buiten.
Are you shitting me?CJ schreef op donderdag 29 mei 2008 @ 19:58:
Misschien dat ik vanavond nog een wereldprimeur heb in dit topic... x-ray dieshot van de GT200.
Big momma!
X-ray dieshot zou wel vet zijn.
Anoniem: 134818
XFX dusThe Source schreef op donderdag 29 mei 2008 @ 20:20:
[...]
After packaging, shipping and add-ins, there is almost nothing left for the OEMs, quite possible explaining why one of their biggest one is teetering on the verge of bankruptcy, kept alive because NV won't call their debt while still shiping to them.
-> Het gaat hier over XFX. Gerucht gaat al een paar maanden dat deze nagenoeg failliet is en dat zij niet de rekeningen aan nVidia kunnen betalen. Als deze omvalt dan is nVidia een erg grote nVidia only partner kwijt, iets dat niet goed is voor hun machts positie want met de echt grote jongens die naar nVidia ook ATI voeren valt dan niet makkelijk te onderhandelen. Dit is dan ook de reden dat nVidia het laatste half jaar druk probeert om nieuwe kleine nVidia partners te helpen om groter te worden. Beter 10 kleine klanten dan een paar grote jongens. Overigens ook een nadeel voor AMD want ATI was volgens sommige al erg lang met XFX in gesprek om te starten met ATI chips... volgende week is het Computex en dan komen ook veel interessante roddels naar buiten.
Dat heeft Evga ook hoor alleen zijn de kaarten daar wel nog iets duurder dan die van XFX.ownage maxim schreef op donderdag 29 mei 2008 @ 21:06:
XFX heeft ook een dure business strategie lijkt mij. Velen kiezen XFX om gebruik te maken van de step-up program. Ik kon al nooit begrijpen dat een fabrikant dat zomaar voor elkaar kon krijgen.
Zit vooral erg groot in Amerika en super service dat wel
WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream
En ja... x-ray dieshot heb ik binnen alsook alle andere shitzooi die er bij een launch komt kijken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Lijkt me sterk dat het XFX is, volgens mij heeft meer dan de helft XFX als Nvidia merk.
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
TADAA! Meet GT200:

Misschien laat ik binnenkort wel wat slides zien als het vanavond/morgen nog niet is uitgelekt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heeft niets te maken dat ze een keer slechte service bieden, ze bieden wellicht ook genoeg goede service, geen reden om hun goede naam door het slijk te halen. Reden is dat de marges op VGA filterdun zijn, en zij verkopen enkel VGA. Andere fabrikanten verkopen ook servers, notebooks, etc, etc.Anoniem: 134818 schreef op donderdag 29 mei 2008 @ 21:00:
[...]
XFX dus. Ik moet zeggen dat ik het laatste jaar ook wat negatievere berichten hoor over hun service... Hoeft natuurlijk niets met elkaar te maken hebben.
Dit soort programma's worden door nVidia gesponsord, het zijn ook enkel de nVidia only partners die zoiets aanbieden.ownage maxim schreef op donderdag 29 mei 2008 @ 21:06:
XFX heeft ook een dure business strategie lijkt mij. Velen kiezen XFX om gebruik te maken van de step-up program. Ik kon al nooit begrijpen dat een fabrikant dat zomaar voor elkaar kon krijgen.
Er zijn er genoeg die het erg moelijk hebben, vooral kleinere jongens, VGA is niet meer de marge business die het jaren geleden was. Als het om de grotere jongens gaat en om nVidia only partner gaat dan zijn er niet zoveel. Natuurlijk weet ik niet wie Charlie bedoelt maar hij beschikt over goede bronnen en ik weet dat XFX de laatste maanden geen GPU's meer kan betalen. nVidia zal ook enkel een nVidia only partner zulke creditlines geven en zo soepel mee omgaan anders hadden ze allang exit gezegd. Ach ja, we shall see.CJ schreef op donderdag 29 mei 2008 @ 21:11:
Weet je zeker dat het XFX is? Ik kreeg net namelijk te horen dat het om een andere ging...
En ja... x-ray dieshot heb ik binnen alsook alle andere shitzooi die er bij een launch komt kijken.
Edit: je dieshot komt uit de NV presentatie
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 134818
http://www.porticus.org/bell/images/transistor1.jpg
[ Voor 48% gewijzigd door dion_b op 30-05-2008 11:55 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik vond mn R600 er al groot uit zien, en is ook amper te koelen. De GT200 is dus nog groter + dat er nog eens een heatspreader overheen zit. Lijkt mij eerlijk gezegd maar niks.
http://au.youtube.com/watch?v=opHKhw75vuY
Zou best kunnen dat ze nVidia al lang niet meer kunnen betalen, maar tot op vandaag zijn XFX kaarten nog steeds vlot leverbaar. nVidia zal wel een grote credit verlenen, iets waar partners met ATI chips naar kunnen fluiten. nVidia heeft altijd al veel geld in XFX gepompt, maar volgens mij is het een zinkend schip (buiten videokaarten hebben ze niks anders). Videokaarten (en moederborden!) is een bloody market. En er zullen nog koppen rollen.The Source schreef op donderdag 29 mei 2008 @ 20:20:
[...]
After packaging, shipping and add-ins, there is almost nothing left for the OEMs, quite possible explaining why one of their biggest one is teetering on the verge of bankruptcy, kept alive because NV won't call their debt while still shiping to them.
-> Het gaat hier over XFX. Gerucht gaat al een paar maanden dat deze nagenoeg failliet is en dat zij niet de rekeningen aan nVidia kunnen betalen. Als deze omvalt dan is nVidia een erg grote nVidia only partner kwijt, iets dat niet goed is voor hun machts positie want met de echt grote jongens die naar nVidia ook ATI voeren valt dan niet makkelijk te onderhandelen. Dit is dan ook de reden dat nVidia het laatste half jaar druk probeert om nieuwe kleine nVidia partners te helpen om groter te worden. Beter 10 kleine klanten dan een paar grote jongens. Overigens ook een nadeel voor AMD want ATI was volgens sommige al erg lang met XFX in gesprek om te starten met ATI chips... volgende week is het Computex en dan komen ook veel interessante roddels naar buiten.
Dit topic is gesloten.