Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik vermoed dus dat er iets mis is met m'n videokaart, dus ga ze los testen. Stel dat er nu 1 kapot is, wat ik vrees, is het qua performance verstandiger er een nieuwe 8800 gtx naast te gooien of een nieuwe videokaart te kopen? Ik weet dat de 2e optie een stuk duurder is, maar qua warmteontwikkeling/stroomverbruik zal van een 8800GTX in SLI overstappen naar iets anders altijd wel positief zijn.
En ik bedenk me net nu ik aan het typen ben, werkt een 8800 GTX altijd samen met een andere 8800 gtx in sli, of zijn er nog extra dingen waarmee ik rekening mee moet houden?
@rik86 ik zie de nieuwswaarde van jouw post niet.
Inno3D single PCB GTX 295 pictured
Inno3D GeForce GTX 295 Platinum Edition
Inno 3D is the first company to show a picture of a single PBC GTX 295 and the card comes with a new fan while the specification looks just as the dual PCB card.
GPU works at standard 576MHZ core, shader clock is still at 1242MHz while the memory works at 2000MHz.
The card still has 480 cores, 240 per chip, and the total amount of memory is still at 1892MB with a 896-bit memory interface. What Nvidia now calls cores, we still prefer to call shaders.
The card should be available shortly, we expect it this month and we expect that you should be able to overclock it just nicely.


Bron: Fudzilla
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
je kan gewoon een 2e 8800gtx ernaast zetten merk boeit niet echt maar het liefste de zelfde natuurlijk.rik86 schreef op dinsdag 12 mei 2009 @ 11:35:
Ik draai al bijna 2 jaar de 8800 GTX in sli, maar sinds afgelopen weekend wordt m'n scherm paars en loopt alles vast. Dit onder Vista en Windows 7, met de nieuwste drivers.
Ik vermoed dus dat er iets mis is met m'n videokaart, dus ga ze los testen. Stel dat er nu 1 kapot is, wat ik vrees, is het qua performance verstandiger er een nieuwe 8800 gtx naast te gooien of een nieuwe videokaart te kopen? Ik weet dat de 2e optie een stuk duurder is, maar qua warmteontwikkeling/stroomverbruik zal van een 8800GTX in SLI overstappen naar iets anders altijd wel positief zijn.
En ik bedenk me net nu ik aan het typen ben, werkt een 8800 GTX altijd samen met een andere 8800 gtx in sli, of zijn er nog extra dingen waarmee ik rekening mee moet houden?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Als je dus 2 van deze kaarten in je kast hebt zitten, blijft de hitte van 2 gpu's in de kast hangen, wat neerkomt op het tdp van 1 gtx295 (=289 watt).
Dan heb ik toch liever de oude versie....
Goed koper is duurder dan slecht koper
Ik kan de andere kant niet zien, en het staat nergens.
mooie post btw, en een van de weinige met nieuwswaarde

[ Voor 88% gewijzigd door ownage maxim op 12-05-2009 19:35 ]
Ook wel logisch, de hitte van 1 GPU kan de lucht te warm maken om een tweede goed te koelen...
Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Helaas blijkt de GTX260 niet te passen, wel in mijn kast, maar niet op mijn moederbord.
Ik heb een anderhelf jaar geleden een Abit IN9 32x-MAX gekocht aan de hand van de best buy van tweakers.
(ik denk dat wel meer mensen dit gedaan hebben)
De standaard GTX200 kaarten van nvidia zitten allemaal zo in elkaar dat geen van die kaarten op dit moederbord past. De reden is dit:

aan de onderkant van de kaart bevindt zich een klein zwart uitsteksel. dit zwarte uitsteksel is breder dan bij de andere kaarten, hierdoor komt het tegen onderdelen van het moederbord aan(de kleine tonnetjes op het moederbord).
Dus mocht je een Abit IN9 32x-MAX hebben en van plan zijn een GTX200 kaart te kopen zorg dan in ieder geval dat je niet de standaard cooling kiest.(ps de aangepaste 2 fan cooling maakt erg veel lawaai in idle).
Verwijderd
Ik ben dan zo iemand die gewoon de dremel pakt en het wel passend maakt
Jammer dan van nieuwe kaart maar die capacitors op je moederbord zijn belangrijker.
ook kunnen fabrikanten nu een aftermarket koeler er voor maken. (vind ik een voordeel)
maar qua snelheid is hij hetzelfde.
(was hij nou ook minder warm?)
Welke aangepaste 2 fan cooling maakt veel geluid? Ik heb zelf een Gainward GTX260 GS en deze heeft een custom 2 fan cooling en maakt niet veel herrie. Met rivatuner kan je de fan nog terugschroeven ook, zonder dat de kaart te heet wordt.REDSD schreef op woensdag 13 mei 2009 @ 15:40:
Dus mocht je een Abit IN9 32x-MAX hebben en van plan zijn een GTX200 kaart te kopen zorg dan in ieder geval dat je niet de standaard cooling kiest.(ps de aangepaste 2 fan cooling maakt erg veel lawaai in idle).
Deze heeft inderdaad geen raar blokje aan de onderzijde.
Het blokje is afwerking gok ik.Verwijderd schreef op woensdag 13 mei 2009 @ 17:37:
Wat voor materiaal is dat blokje en waar dient het voor ?
Ik ben dan zo iemand die gewoon de dremel pakt en het wel passend maakt
Jammer dan van nieuwe kaart maar die capacitors op je moederbord zijn belangrijker.
en erafhalen zou betekenen dat ik er in moet gaan zagen, dat doe ik liever niet, of de cooling aanpassen.
Die heb ik ook gehad, maar bij mij klonk die juist als een kleine stofzuiger zelfs op 20% fan speed.KarlMarX schreef op woensdag 13 mei 2009 @ 19:12:
[...]
Welke aangepaste 2 fan cooling maakt veel geluid? Ik heb zelf een Gainward GTX260 GS en deze heeft een custom 2 fan cooling en maakt niet veel herrie. Met rivatuner kan je de fan nog terugschroeven ook, zonder dat de kaart te heet wordt.
Deze heeft inderdaad geen raar blokje aan de onderzijde.
Beide GTX295's zijn dual-GPU kaarten. Het verschil zit hem in het PCB en niet de GPU. Met 1 (duur) PCB minder, kunnen ze ook af van de speciale dure koeling die nodig is voor het sandwich model. Voordeel is, zoals Adramalech ook al melde, dat het een stuk goedkoper te produceren is. Of de klant hier daadwerkelijk iets van terug gaat zien vraag ik me af, aangezien het oude model nou niet bepaald een economisch aantrekkelijk product was om te produceren. Wellicht kunnen ze nu met redelijk gelijkende prijzen er ook nog een beetje aan over houden.Rixos schreef op woensdag 13 mei 2009 @ 18:54:
Wat is nou eigenlijk precies het voordeel van de single gpu 295 gtx tegenover een dual gpu. Ik heb zelf pas een nieuw systeem gekocht waar een dual gpu BFG 295 gtx in zit. Het lijkt mij dat het enige voordeel is dat de kaart kleiner is , dus dat je meer ruimte overhoud in je kast, maar das voor mij gelukkig geen probleem. Ik heb het beestje in een Coolermaster Haf 932 zitten dus ruimte genoeg
Ik zit dus gewoon goed met mijn videokaart.
Ik verwacht dan ook niet dat Larrabee in 1 keer nVidia en ATi weg blaast.
En ook nog: NVIDIA’s GT300 Packs More Transistors on Smaller Space?
[ Voor 27% gewijzigd door -The_Mask- op 14-05-2009 11:39 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
[ Voor 16% gewijzigd door dion_b op 15-05-2009 23:18 ]
Met games die SLi ondersteunen zul je idd meer FPS zien.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ga eind dit jaar waarschijnlijk upgraden, mocht ik geld hiervoor over hebben. Dit wordt dan een i7 setupje, waar de videokaart dan heen kan verhuizen.
De wijzen komen uit het Oosten!
Los van bovenstaande moet Dual 3.6 Ghz voldoende zijn om geen bottleneck te vormen.NoepZor schreef op vrijdag 15 mei 2009 @ 09:39:
Zou een E6600 @ 3,6Ghz voldoende prestaties bieden en de GTX 275 voldoende vooruitgang bieden om mijn 8800GT 512 te vervangen? Ik vind het een zeer interessant kaartje, echter weet ik niet in hoeverre mijn cpu de bottleneck gaat vormen. Daarnaast heb ik een 22" scherm, dus een maximale resolutie van 1680x1050.
Ik ga eind dit jaar waarschijnlijk upgraden, mocht ik geld hiervoor over hebben. Dit wordt dan een i7 setupje, waar de videokaart dan heen kan verhuizen.
Zou meteen ff doorsparen voor een 285. Heb zelf een 260 en die 275 scheelt er niet veel mee maar is wel een stuk duurder. Het verschil tussen een 260 en een 285 is wel weer interessant.NoepZor schreef op vrijdag 15 mei 2009 @ 09:39:
Zou een E6600 @ 3,6Ghz voldoende prestaties bieden en de GTX 275 voldoende vooruitgang bieden om mijn 8800GT 512 te vervangen? Ik vind het een zeer interessant kaartje, echter weet ik niet in hoeverre mijn cpu de bottleneck gaat vormen. Daarnaast heb ik een 22" scherm, dus een maximale resolutie van 1680x1050.
Ik ga eind dit jaar waarschijnlijk upgraden, mocht ik geld hiervoor over hebben. Dit wordt dan een i7 setupje, waar de videokaart dan heen kan verhuizen.
En toch wordt deze super military MSI 260 in de helft van de scores ingemaakt door de bottom-of-the-bin kikkerverse palit versie van de 260. MSI = altijd bagger geweest.The Source schreef op woensdag 06 mei 2009 @ 19:04:
[...]
Leuk om te zien dat er weer eens iets echt speciaals op de markt komt. Vroeger had je meer van dit soort kaarten van vendors maar tegenwoordig is het allemaal reference design en koeler, afgezien daarvan weinig speciale dingen.
Deze kaart is echt gericht op overclockers als ik de conclusie lees "As far as hardware components go, this is one of the most hardcore and focused products that we've ever seen. It is truly built with the overclocker in mind, with nothing spared." maar ik weet nog genoeg andere features die op mijn wishlist staan voor een goede vga kaart. Ik zou extra geld overhebben voor een goede hybrid CF of SLI oplossing, dus in idle made onboard VGA of mega trage discrete graphics met lage power consumption. En als ik ga gamen dan max performance. Die Lighnting heeft wel profielen die dynamish werken maar ik wil dat het automatisch werk. Probleem is dat de meeste mensen enkel naar prijs kijken .
Dit zou ik niet doen.chimo schreef op vrijdag 15 mei 2009 @ 12:45:
[...]
Zou meteen ff doorsparen voor een 285. Heb zelf een 260 en die 275 scheelt er niet veel mee maar is wel een stuk duurder. Het verschil tussen een 260 en een 285 is wel weer interessant.
De 275 is hoger te klokken dan meeste standaard overgeklokte 285's.
Lees de 275 shootout, google.
En nu weer ontopic het is een nieuwsdiscussie topic.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Sowieso jammer dat het dan ook niet gelijk ene passief gekoelde kaart is als het zo low power is...
Zijn ook twee verschillende kaarten lees de review maar eens.KarlMarX schreef op zaterdag 16 mei 2009 @ 22:05:
Die eerste foto heeft een hdmi (of displaypoort) poort en de tweede foto een dvi poort. Beetje vreemd.
Sowieso jammer dat het dan ook niet gelijk ene passief gekoelde kaart is als het zo low power is...
De bovenste is de Green versie de onderste is de Low power low profile versie (LPLP).
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Maar goed, is verder ook niet zo belangrijk.

[ Voor 5% gewijzigd door KarlMarX op 17-05-2009 11:41 ]
[ Voor 4% gewijzigd door -The_Mask- op 18-05-2009 11:56 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
According to our sources, nVidia got the silicon a while ago, meaning that the chip taped out between January and March. The silicon is A1, but neither of our sources wanted to confirm is this the final silicon or will nVidia be forced to tape out A2 silicon to get production-grade yields. We heard that both ATI and nVidia have issues with TSMC's 40nm, and both companies are testing with the alternative company.
Verwijderd
vandaar de 9600 ts die ik zag jaren geleden.Hacku schreef op dinsdag 19 mei 2009 @ 22:31:
Weer typisch dat de Aldi wil afwijken qua benaming op grafische kaarten.
Hoezo? Ik meen hier toch ergens gelezen te hebben dat de rebranding met 1x0 e 2x0 benaming voor OEM's zou gaan gelden? Dus wat dat betreft hoeft het niet afwijkend te zijn (tov andere OEM's).Hacku schreef op dinsdag 19 mei 2009 @ 22:31:
Weer typisch dat de Aldi wil afwijken qua benaming op grafische kaarten.
Even ter info: dus namen als 120/130/230/250 voor huidige 9x00 generatie...
[ Voor 11% gewijzigd door toimoi op 20-05-2009 14:23 ]
Hmm rebranding ..henkdetrucker schreef op woensdag 20 mei 2009 @ 14:19:
[...]
Hoezo? Ik meen hier toch ergens gelezen te hebben dat de rebranding met 1x0 e 2x0 benaming voor OEM's zou gaan gelden? Dus wat dat betreft hoeft het niet afwijkend te zijn (tov andere OEM's).
Even ter info: dus namen als 120/130/230/250 voor huidige 9x00 generatie...
Ik zou zeggen bekijk de TS eens goed..
De 1xx reeks zijn in mijn ogen wel degelijk "nieuwe" kaarten maar horende bij de G92 technologie en niet bij de GT2xx tech tree. Daarvoor heten ze dan ook GT1xx
Deze kaarten zijn dan ook inderdaad enkel voor OEM's bedoeld, en geloof me mensen die een discrete gpu aankopen in de winkel zullen ook totaal geen behoefte hebben aan deze kaartjes. (Kostprijs van shipping/(reselling) zal percentueel zo hoog liggen dat de iets goedkopere pcb's/koelers/core/geheugen der niet voor zullen zorgen dat deze kaarten goed zijn voor een gewone klant.) Voor een OEM liggen deze zaken natuurlijk totaal anders.
Zij kopen rechstreeks in het groot aan, hebben geen behoefte aan een bijkomende doos met cd-roms , extra kabeltjes en boekjes ..
Dit is misschien wel spijtig voor de htpc owners maar ik vrees dat de GT1xx kaarten daarvoor toch te zwak zullen zijn ern zijn nu een paar mooie commerciele low profile kaarten uitgebracht voor deze functie (natuurlijk hopen de fabrikanten hierop ook weer zoveel mogelijk winst te maken)
Om aan te tonen dat deze gpu's wel degelijk geen rebrands zijn is het gemakkelijk gewoon te kijken naar de specs van de GT130: Unified shaders: 48
Tot nu toe was er zover ik het weet nog geen enkele kaart met de g92 gpu kern uitgebracht met dat aantal shaders
De GT 200-250 reeks daarentegen zijn een ander verhaal, alles onder de GT260 zijn duidelijk rebrands van oude G92 kaarten en kadert in de strategie van nVidia om alle beschikbare kaarten een 1-duidige naamgeving te geven.
Hierin zijn ze echter jammerlijk in gefaald en heeft men al dan niet express (neem maar aan van wel
Een 9600GT omdopen naar een GT230 is in die strategie niet meer dan normaal .. net zoals men de 9800GT ook wou omdopen naar een GT240 ... Wat dan weer is afgeblokt door de OEM's/gpu fabrikanten die deze zet totaal niet meer zagen zitten ...
De 9800GTX+ was de eerste in het rijtje en heet na een kleine snelheidsboost + paar tweaks gewoon weg GT250
Dus er is een fundamenteel verschil tussen de GT1xx reeks en de lage helft van de GT2xx reeks. Ik zou deze reeksen dus zeker niet over dezelfde kam scheren
Daarop aansluitend:Mr.Chinchilla schreef op maandag 18 mei 2009 @ 11:51:
Nieuws (gerucht?) over de GT300: nVidia G(T)300 already taped out
[...]
http://techreport.com/discussions.x/16959
Rumor: Nvidia G300 to be big, hugely powerful
Last we heard, both AMD and Nvidia were prepping next-gen graphics processors for the fourth quarter of this year. The guys at Hardware-Infos now say Nvidia has taped out its upcoming G300 graphics chip, and they've posted some specifications for the product.
If the Google translation hasn't warped the post's meaning beyond recognition, Hardware-Infos says the G300 will have 512 stream processors, almost 2.5 teraFLOPS of number-crunching power, 1-2GB of memory, and 281.6GB/s of bandwidth. The memory will supposedly run at 1,100MHz, so assuming GDDR5, that would mean a 512-bit interface width.
As for the gigaFLOPS figure, the site goes on to say the G300's stream processors are no longer SIMD elements but "MIMD-like" (multiple-instruction, multiple-data) units. That could imply more complex, more flexible hardware, although the report doesn't talk about gaming performance.
With that said, a graphics processor with that much floating-point power and memory bandwidth probably isn't going to be small. And indeed, a previous post from the same source talks of a whopping 2.4 billion transistors—a billion more than the GT200.
Verwijderd
Dat is ziekHardware-Infos says the G300 will have 512 stream processors, almost 2.5 teraFLOPS of number-crunching power, 1-2GB of memory, and 281.6GB/s of bandwidth. The memory will supposedly run at 1,100MHz, so assuming GDDR5, that would mean a 512-bit interface width.
[ Voor 7% gewijzigd door Verwijderd op 23-05-2009 21:57 ]
AMD Ryzen 9 5800X3D, 2x16 GB G.Skill Ripjaws V 3600MHZ CL16 DDR4, Gigabyte B550i Aorus Pro AX, AMD Radeon RX 6900 XT, 1x Samsung PM9A1 1TB nvme SSD, 1x Crucial C300 256 GB, 1x Crucial MX500 1TB, 1x WD 2.5 Inch 1TB, SSUPD Meshlicious, Corsair SF-750
Je moet je wel bedenken dat toen die prijzen zo hoog waren Ati geen goed antwoord had op de prestaties van die kaarten.MrDucky schreef op zondag 24 mei 2009 @ 00:56:
ach de 8800GTX en Ultra zijn ook erg populair geweest en die waren ook niet bepaalt goedkoop. de 8800GTS en GT waren ook erg populair en die waren toch ook erg duur maar sinds er meer concurentie is tussen ati en nvidia zijn de prijzen voor highend zo erg gedaald dat ik denk dat deze kaart niet veel duurder wordt als de GTX295 aangezien GDDR5 dan ook goedkoper zou moeten worden en dit een enkele gpu is en niet twee
Dat hebben ze nu hoogst waarschijnlijk wel en zij kunnen het waarschijnlijk ook goedkoper produceren wat betekent dat Nvidia de kaarten met een kleine marge of zelfs met een beetje verlies moet verkopen.
Als je de laatste geruchten mag geloven, krijgen we het zelfde verhaal als HD4X (klein/goedkoop) en GT200(Groot/duur)EdwardvGelder schreef op zondag 24 mei 2009 @ 02:06:
[...]
Je moet je wel bedenken dat toen die prijzen zo hoog waren Ati geen goed antwoord had op de prestaties van die kaarten.
Dat hebben ze nu hoogst waarschijnlijk wel en zij kunnen het waarschijnlijk ook goedkoper produceren wat betekent dat Nvidia de kaarten met een kleine marge of zelfs met een beetje verlies moet verkopen.
Nvidia mag daar wel mee oppassen imo, of hun performance moet echt stukken hogen komen te liggen als ATI's HD5x
Hello there
Tja, dat zou ook deze generatie geen probleem zijn geweest, als G200 niet zo tegen was gevallen. De prestaties van G200 waren zwaar beneden peil, terwijl RV770 een uitmuntende perf/mm ratio had.Sinester schreef op zondag 24 mei 2009 @ 11:43:
[...]
Als je de laatste geruchten mag geloven, krijgen we het zelfde verhaal als HD4X (klein/goedkoop) en GT200(Groot/duur)
Nvidia mag daar wel mee oppassen imo, of hun performance moet echt stukken hogen komen te liggen als ATI's HD5x
Vergeet niet dat RV670 van ATI ook een klein/goedkope chip was, en daar had ATI niet bepaald succes mee. Dus ja, NVIDIA moet oppassen, maar ATI net zo goed.
Geloof er zo nog geen bal van. Alle info over specs wijst terug naar 1 bron, namelijk hardware-infos. En nou nou, die staan toch echt bekend als bron van betrouwbare insider-infoEnvy007 schreef op vrijdag 22 mei 2009 @ 10:40:
[...]
Daarop aansluitend:
http://techreport.com/discussions.x/16959
Rumor: Nvidia G300 to be big, hugely powerful
[...]
Het feit dat iedereen nog steeds zit te herkauwen op die bullsh*t over MIMD, terwijl hier geen enkel bewijs (en reden) voor is vind ik al genoeg zeggen. Bovendien denk ik dat hoewel de specs best mogelijk zijn qua chipgrootte, het echt niet zomaar in het verbruiksbudget (max 300 Watt) gaat passen, zeker niet op de genoemde snelheden. Maar goed, we zullen zien.
Lijkt me makkelijk toch? Als de perf twee keer zo hoog is als die van RV870 lijkt me een hoge prijs prima gerechtvaardigd. Het idee van een gigantische, monsterlijk snelle chip is natuurlijk dat je er een hoge prijs voor kan vragenHacku schreef op zaterdag 23 mei 2009 @ 22:01:
Stel dat het klopt, dan spreken we waarschijnlijk weer over een joekel van een GPU. Hoe willen ze dat qua prijs meten met AMD, wetende dat AMD kleine GPU's heeft en veel goedkoper in de markt kan zetten.
Ik denk dat je je daar erg in vergist. De RV670 was een erg succesvolle chip voor ATi, waarmee de 8800GTS 320MB/640MB en de 8600GTS in een klap van de markt geveegd werden. Deze chip was ook de eerste in de reeks klein/betaalbaar en versloeg ATi's oude, grote, dure en stuk minder succesvolle R600 voor de helft van de prijs.Snoitkever schreef op zondag 24 mei 2009 @ 13:26:
Vergeet niet dat RV670 van ATI ook een klein/goedkope chip was, en daar had ATI niet bepaald succes mee. Dus ja, NVIDIA moet oppassen, maar ATI net zo goed.
Zoek maar eens wat reviews op van de HD3870 en HD3850, dan zal je zien dat zo'n beetje elke site er erg enthousiast over was.
Absoluut, excuus, ik was wat overtrokken in mijn reactie. RV670 was in de low/mid-range zeker succesvol, maar het was zelf in X2 vorm geen enkele bedreiging aan de top. Dat is een beetje mijn punt, RV870 mag dan nog zo klein en goedkoop zijn, als G300 een performancemonster is hebben ze toch een probleem in dat segment.Depep schreef op zondag 24 mei 2009 @ 13:53:
[...]
Ik denk dat je je daar erg in vergist. De RV670 was een erg succesvolle chip voor ATi, waarmee de 8800GTS 320MB/640MB en de 8600GTS in een klap van de markt geveegd werden. Deze chip was ook de eerste in de reeks klein/betaalbaar en versloeg ATi's oude, grote, dure en stuk minder succesvolle R600 voor de helft van de prijs.
Zoek maar eens wat reviews op van de HD3870 en HD3850, dan zal je zien dat zo'n beetje elke site er erg enthousiast over was.
Ze staan wel voor deze prijs....maar kijk eens bij dat rode tekentje op de site....niet op voorraad bij de leverancier.
Zal dus wel in z'n geheel niet geleverd worden.
https://www.youtube.com/@Klunssmurf-zc3yd/featured

De meeste mensen deugen!
Prijs van de 9800GX2 is misschien waarschijnlijk fout, of iemand had er nog een schuur vol van liggen en wil ze kwijt.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Een grote hobby van me is om de meest onmogelijke combinaties hardware aan het draaien te krijgen en het zolang mogelijk rekken van de levensduur van m'n geliefde Athlon MP machientjes...(Win7 draait zonder problemen)
Zo kwam dus ook het idee.....nVidia PhysX op m'n Athlon MP
Als videokaart gebruik ik nu een Gainward 6800GT AGP, het idee is om nu op een pci slot een 8xxxGT serie pci kaartje te donderen en dan kijken of we Physx kunnen activeren.
Iemand enig idee of we bij voorbaat kansloos zijn?
Anders is het natuurlijk zonde om hier die paar euro aan uit te geven.
Het gaat me dus niet om framerates enz. omdat ik verder toch geen gebruik maak van Physx, maar of het daadwerkelijk ook kan.
Greetz Kluns
(met een BFG Ageia Pysx PPU heeft het wel gewerkt...maar da's toch nog ff wat anders)
[ Voor 0% gewijzigd door Klunssmurf op 24-05-2009 23:00 . Reden: Op verkeerde plek gepost ]
https://www.youtube.com/@Klunssmurf-zc3yd/featured
Als jij een nVidia GeForce 8xxx hebt met een PCI aansluiting kan het werken, alleen ik heb er nog nooit 1 gezien. Maar waarom niet in je eigen topic dit is een nieuwsdiscussie topic.Klunssmurf schreef op zondag 24 mei 2009 @ 22:18:
Als videokaart gebruik ik nu een Gainward 6800GT AGP, het idee is om nu op een pci slot een 8xxxGT serie pci kaartje te donderen en dan kijken of we Physx kunnen activeren.
Een 8400GS is er dus met PCI, wel duur ding trouwens.
[ Voor 6% gewijzigd door -The_Mask- op 24-05-2009 22:40 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
GoT the message.....als ik het draaiend krijg post ik 't wel ff in eigen topic
(heb het al in m'n eigen topic geplakt)
[ Voor 11% gewijzigd door Klunssmurf op 24-05-2009 22:59 ]
https://www.youtube.com/@Klunssmurf-zc3yd/featured
LOL. Zo denderend waren de HD3850 en HD3870 niet...Depep schreef op zondag 24 mei 2009 @ 13:53:
[...]
Ik denk dat je je daar erg in vergist. De RV670 was een erg succesvolle chip voor ATi, waarmee de 8800GTS 320MB/640MB en de 8600GTS in een klap van de markt geveegd werden. Deze chip was ook de eerste in de reeks klein/betaalbaar en versloeg ATi's oude, grote, dure en stuk minder succesvolle R600 voor de helft van de prijs.
Zoek maar eens wat reviews op van de HD3870 en HD3850, dan zal je zien dat zo'n beetje elke site er erg enthousiast over was.
Vooral met AA aan.
De RV770, díe is wel goed. En daarover is iedereen wél enthousiast.
De RV770 is de chip die de RV670 "had moeten zijn"...
[ Voor 11% gewijzigd door Format-C op 25-05-2009 09:40 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wat dacht je van de uitmelkerij van Nvidia dan? De 9 serie die een totaal nieuwe chip had moeten zijn maar gewoon renamed is. Er is zelfs geen ene shit aan de chips zelf. Zo kunnen we wel blijven doorgaan. Ik kan alleen wel zeggen dat nvidia Ati sterk onderschat heeft en daar nu nog de naeffecten van voelt.RappieRappie schreef op maandag 25 mei 2009 @ 09:37:
[...]
LOL. Zo denderend waren de HD3850 en HD3870 niet...En zo enthousiast werd men er niet van... De 8800 serie van nVidia was beter.
Vooral met AA aan.
De RV770, díe is wel goed. En daarover is iedereen wél enthousiast.
De RV770 is de chip die de RV670 "had moeten zijn"...
MSI komt met 9800GT zonder power connector
.Met 512MB of 1GB geheugen.
De nieuwe 9800GT van is een stuk zuiniger en hoeft zo niet gevoed te worden door een extra power connector. Het verbruik zal dus onder de 75 Watt zitten. Als de prijs zo rond de 75 euro komt te liggen is dit een mooie concurrent voor de ATi Radeon HD 4770. Al denk ik dat de ATi kaart beter over te klokken is. Maar ben bang dat de prijs toch wat hoger komt te liggen.
De twee nieuwe kaarten krijgen de namen N9800GT-MD512 en N9800GT-MD1G mee. Ze hebben alle twee 112 stream-processors en een 256 bits geheugen interface. Er zit een dual-slot koeler op en er is natuurlijk ondersteuning voor SLi. De videokaarten hebben een VGA, DVI en HDMI aansluiting.
Om het verbruik wat terug te dringen hebben ze de clocks iets verlaagd naar 550MHz voor de GPU, 1375MHz voor de shaders en 1800MHz voor het GDDR3 geheugen.
Over de beschikbaarheid is nog niets bekend, maar het zal waarschijnlijk niet lang meer duren.

[ Voor 5% gewijzigd door -The_Mask- op 25-05-2009 14:40 . Reden: foto ;) ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
wat wel handig is is natuurlijk het ontbreken van de extra power connector. Zal deze kaart dan ook nog over te clocken zijn? of is dat not done zonder extra voeding?
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
De HD 4770 staat imo tegenover de 9800GT, deze 9800GT is idd iets trager, maar denk niet dat het heel veel zal verschillen.
En het verbruik van de 2 videokaarten zal nu ook aardig gelijk zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
inderdaad, en de 4770 tegenover de gts250 512 a.k.a. 9800gtx (toch?) zie: xbitlabs en anandtech-The_Mask- schreef op maandag 25 mei 2009 @ 14:30:
Ik vindt de HD 4850 meer tegenover de 9800GTX+ staan.
De HD 4770 staat imo tegenover de 9800GT, deze 9800GT is idd iets trager, maar denk niet dat het heel veel zal verschillen.
En het verbruik van de 2 videokaarten zal nu ook aardig gelijk zijn.
dus in dat opzicht lijkt me de 4770 hier nog wel boven staan qua prestaties neemt niet weg dat je veel performance krijgt voor weinig stroom en vooral zonder extra connector. Zo'n kaartje lijkt mij erg handig als backup bijvoorbeeld
[ Voor 16% gewijzigd door superwashandje op 25-05-2009 14:49 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
GTS 250 is idd een 9800GTX+, maar jij vindt dus niet dat de HD 4850 daar tegenover staat maar de HD 4770 of wat bedoel je precies?superwashandje schreef op maandag 25 mei 2009 @ 14:46:
[...]
inderdaad, en de 4770 tegenover de gts250 512 a.k.a. 9800gtx (toch?) zie: xbitlabs en anandtech
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Dus de prijs van de MSI kaart hoort nog iets lager te liggen zo'n 70 euro en ik denk niet dat die zo laag komt te liggen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kan ja maar dan hoeft dit forum niet te bestaan. Maar goed ik ben wel meer tegen dat "zoek zelf" We komen hier tenslotte om te discussieren.. maar goed zo ben ik wel tegen wel meer dingen van het beleid hier. Doe je eraan? Niks dus houd ik nu op-The_Mask- schreef op woensdag 27 mei 2009 @ 12:32:
Ja je kan er gewoon een andere GTX 216 met 216 streamprocessors naast zetten. Had je ook wel kunnen googlen.
Anyway, het ging mij meer om de kloksnelheden niet zo zeer om de stream processors.
Verwijderd
Google search levert ook vrij weinig op.
nog niet allemaal de oude versies worden ook nog verkocht dus je moet wel goed oppassenVerwijderd schreef op maandag 01 juni 2009 @ 01:27:
Zijn trouwens alle GTX260's nou met 216 SP's ? Want bij bijv salland.eu kan ik ze niet echt herkennen.
Google search levert ook vrij weinig op.
Nvidia 40nm mobiles are DirectX 10.1
Computex launch
Nvidia is preparing to launch a new 40nm mobile generation and we hear that they might have a lot of design wins with this generation. Sources believe that ATI didn’t manage to deliver 40nm chips on time and that is why Nvidia won so many design wins.
If you remember RV740 in mobile variation 40nm was out in March at Cebit, but so far we haven’t seen a single notebook shipping with it.
Nvidia’s 40nm notebook stuff is DirectX 10.1 and you can expect very good performance per watt, something that is very important for notebook users. Many Calpella notebooks will jump for Nvidia’s 40nm as Calpella has to have discrete graphics to work as its P55 mobile chipset doesn’t have any integrated graphics.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat ding ziet er enorm lang uit.. eens zien of ik die afmetingen ergens kan vinden.Hacku schreef op maandag 01 juni 2009 @ 16:39:
MSI's single PCB GTX295:
edit: overigens vind ik het erg opvallend dat er de afgelopen tijd twee nieuwe GTX295's uit zijn gekomen; die van Asus en deze MSI. Zou dat erop wijzen dat de fabrikanten erop rekenen dat dit nog wel even de top NV-kaart zal blijven, waardoor ze hem moeten uitmelken?
[ Voor 38% gewijzigd door Edmin op 02-06-2009 00:53 ]
Verwijderd
Inderdaad, het zou ook niet bepaald de eerste keer zijn dat Fudzilla er naast zat.ownage maxim schreef op dinsdag 02 juni 2009 @ 00:36:
Nogal een vreemd artikel als je het mij vraagt. Ik ben benieuwd wat anderen erover te zeggen hebben.
Ander nieuws. In Augustus komt NVIDIA met de G210 DDR3/DDR2 ($30-35) en GT220 DDR3/DDR2 ($55-60). De eerste 40nm GPUs van NVIDIA dus.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Aangezien de verkoop vast niet helemaal gestokt zal zijn is het gewoon voordeliger om single PCB GTX295's te produceren-verkopen. Oude voorraden lagen toch niet schrikbarend hoog zoals we weten.Edmin schreef op dinsdag 02 juni 2009 @ 00:51:
edit: overigens vind ik het erg opvallend dat er de afgelopen tijd twee nieuwe GTX295's uit zijn gekomen; die van Asus en deze MSI. Zou dat erop wijzen dat de fabrikanten erop rekenen dat dit nog wel even de top NV-kaart zal blijven, waardoor ze hem moeten uitmelken?
en?CJ schreef op dinsdag 02 juni 2009 @ 01:45:
Ik hoorde eind vorig jaar van mijn contacten bij AMD al dat NVIDIA waarschijnlijk met een DX10.1 kaart kwam... en wel in de GT21x generatie... met het oog op een uitstel van DX11 zouden ze dit voor de zekerheid klaar hebben staan.... De kans is groot dat het waar is. Ik hoor hier deze week meer over. Waarschijnlijk vannacht al.
Grootgebruiker van MS Word. Maar het wordt nooit perfect...
Sorki#2242
Ik heb wel iets over een 40nm videokaart maar dat is geen GT300.Sorki schreef op donderdag 04 juni 2009 @ 09:44:
Had wat GT300 nieuws verwacht vanuit computex... niet dus (of heb ik iets gemist?)
First retail 40nm from Nvidia is GT220
Shipping this month
Nvidia is finalizing its 40nm chips and it is about to start shipping the card codenamed on NV216 40nm chip. We are talking about the cheap board branded as Geforce GT220 and most likely, this card should replace the Geforce 9500 series.
The card has 128-bit memory interface and it comes with 1GB of DDR3 memory. It should cost slightly over $50 and the first shipments should be available in late June.
It might happen that you'll see these cards in retail / etail only in early July but at least they are real and Nvidia has at least some 40nm chips to show and sell.
ASUS Mars dual-GTX 285 cards benchmarked
ASUS Mars runs Far Cry 2 smoothly at 3840x2160p
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Enige 'interessante' nieuws van Computex tot nu toe zijn over GT216 en GT218, die, zoals ik hierboven op dinsdag al had gezegd, uit komen als de GeForce GT220 (GT216 GPU) en GeForce G210 (GT218 GPU).
Het 'vermoeden' bestaat dat deze volledig DX10.1 ondersteunen, maar dat NVIDIA er misschien voor kiest om dit niet te activeren en slechts DX10 aan te bieden (eventuele activatie via drivers wanneer DX11 uit komt). Ergens lijkt dit logisch, aangezien ze tot nu toe altijd erg negatief zijn geweest over het belang van DX10.1. Maar goed, dit laatste is nog slechts speculatie op de beursvloer.
Edit: @ Hierboven. Fudzilla post wat dingen die niet kloppen. De designkits van de GT220 en G210 gaan pas deze maand richting de partners. In Augustus begint de mass production en is de lancering volgens de confidential productstack slide die ik hier voor me heb liggen.
De kans is dus erg klein dat je in Juli al wat ziet verschijnen in de winkels.
[ Voor 17% gewijzigd door CJ op 04-06-2009 10:04 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als ze dat doen zijn ze wel heel erg eigenwijs en houden ze wel heel goed vol dat DX 10.1 niks voorsteld.CJ schreef op donderdag 04 juni 2009 @ 10:00:
Het 'vermoeden' bestaat dat deze volledig DX10.1 ondersteunen, maar dat NVIDIA er misschien voor kiest om dit niet te activeren en slechts DX10 aan te bieden (eventuele activatie via drivers wanneer DX11 uit komt). Ergens lijkt dit logisch, aangezien ze tot nu toe altijd erg negatief zijn geweest over het belang van DX10.1. Maar goed, dit laatste is nog slechts speculatie op de beursvloer.
En voor de consument is dat ook niet echt fijn, heb je een DX10.1 game en een DX10.1 videokaart, maar kun je het niet eens gebruiken in het begin.

Misschien een paperlauch.De kans is dus erg klein dat je in Juli al wat ziet verschijnen in de winkels.
[ Voor 9% gewijzigd door -The_Mask- op 04-06-2009 10:27 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Omdat dat beter verkoopt dan 512MB DDR3?Edmin schreef op donderdag 04 juni 2009 @ 10:39:
1GB DDR3? Waarom in hemelsnaam? Dat maakt die 9500GT alleen maar duurder dan noodzakelijk.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
linkje: http://www.nvidia.com/Download/Find.aspx?
Vanavond dan meer eens installeren, hoop dat hij beter is als de 185.85 op WXP X64 nogal last van framedrops.Ghost81 schreef op donderdag 04 juni 2009 @ 11:13:
Nvidia has released the Beta Forceware 186.08 driver for Windows XP, Vista and Windows 7. These drivers are for all GeForce 6, 7, 8, 9, 100, 200 and ION series cards and contain various bug fixes. The package also contains the 9.09.0428 PhysX drivers.
linkje: http://www.nvidia.com/Download/Find.aspx?
Ik heb 'm al wel even geprobeerd met Race Driver GRID, maar die schokt af ten toe.... dan staat hetbeeld heel even stil en dan gaat ie in 1x weer verder. Of soms dan gaat het allemaal in 1x een stukje sneller....Napo schreef op donderdag 04 juni 2009 @ 12:07:
[...]
Vanavond dan meer eens installeren, hoop dat hij beter is als de 185.85 op WXP X64 nogal last van framedrops.
Ik ben weer even teruggegaan naar een oudere versie. Eens kijken hoe de rest de nieuwe driver bevalt.
Nog even hierover. Hoorde net van m'n contactpersoon op Computex dat NV de GT300 naar volgend jaar heeft verschoven. Hij hoorde dit van een van de grote AIC partners van NV. Kan een smokescreen zijn... maar denk dat de kans erg groot is dat het waar is.CJ schreef op donderdag 04 juni 2009 @ 10:00:
NVIDIA is angstvallig stil over DX11... erger nog... ze downplayen het belang van DX11 achter de schermen bij OEMs... zeggen dat bepaalde DX11 API functies ook op DX10 hardware kan... Waar duidt dat op?
NV houdt haar lippen stevig op elkaar, maar zit nu dus echt DX11 met de grond gelijk te boren bij partners. "Dit kunnen we ook wel met DX10 hardware" etc. Ik wist dit al wat langer, maar mocht het nog niet zeggen... maar nu ik het ook van meerdere kanten bevestigd heb gekregen, mag het nu wel. Ongetwijfeld zullen andere sites dit vroeger of later ook oppikken.
Van developers hoorden we dat NV erg verbaasd was over de DX11 paraatheid van AMD... en niet alleen developers gaven deze feedback, ook Microsoft liet weten dat NV nogal schrok toen ze doorhadden hoe ver AMD al was met hun DX11 GPUs. Dus downplayen ze nu het belang van DX11, ook bij grote OEMs.
Als je de roadmap van NVIDIA mag geloven dan komt de eerste DX11 notebook GPU in Q3 2010 uit. Kijk je naar de gang van zaken in het verleden wat betreft releases... dan komt een kwartaal eerder vaak de midrange/budget variant uit (dus in dit geval zou dat Q2 2010 zijn) en een kwartaal er voor de highend... dus Q1 2010 of in het beste geval een (paper)launch eind Q4 2009.
Zo eindelijk mocht ik de beans spillen waar ik al een paar weken op zit te broeden.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zo te horen dus precies hetzelfde als met de 185.85. Zal zelf nog wel testen en morgen kijken wat ik merk in Team Fortress 2.Ghost81 schreef op donderdag 04 juni 2009 @ 13:59:
[...]
Ik heb 'm al wel even geprobeerd met Race Driver GRID, maar die schokt af ten toe.... dan staat hetbeeld heel even stil en dan gaat ie in 1x weer verder. Of soms dan gaat het allemaal in 1x een stukje sneller....
Ik ben weer even teruggegaan naar een oudere versie. Eens kijken hoe de rest de nieuwe driver bevalt.
Als het hetzelfde is als 185.85 dan maar weer terug naar 185.50.
Alhoewel je imo altijd erg moet opletten met dit soort voorspellingen lijkt het me aannemelijk. Mocht het uitkomen, dan ben ik wel erg verbaasd dat nVidia zo heeft zitten slapen.CJ schreef op donderdag 04 juni 2009 @ 14:14:
[...]
Nog even hierover. Hoorde net van m'n contactpersoon op Computex dat NV de GT300 naar volgend jaar heeft verschoven. Hij hoorde dit van een van de grote AIC partners van NV. Kan een smokescreen zijn... maar denk dat de kans erg groot is dat het waar is.
NV houdt haar lippen stevig op elkaar, maar zit nu dus echt DX11 met de grond gelijk te boren bij partners. "Dit kunnen we ook wel met DX10 hardware" etc. Ik wist dit al wat langer, maar mocht het nog niet zeggen... maar nu ik het ook van meerdere kanten bevestigd heb gekregen, mag het nu wel. Ongetwijfeld zullen andere sites dit vroeger of later ook oppikken.
Van developers hoorden we dat NV erg verbaasd was over de DX11 paraatheid van AMD... en niet alleen developers gaven deze feedback, ook Microsoft liet weten dat NV nogal schrok toen ze doorhadden hoe ver AMD al was met hun DX11 GPUs. Dus downplayen ze nu het belang van DX11, ook bij grote OEMs.
Als je de roadmap van NVIDIA mag geloven dan komt de eerste DX11 notebook GPU in Q3 2010 uit. Kijk je naar de gang van zaken in het verleden wat betreft releases... dan komt een kwartaal eerder vaak de midrange/budget variant uit (dus in dit geval zou dat Q2 2010 zijn) en een kwartaal er voor de highend... dus Q1 2010 of in het beste geval een (paper)launch eind Q4 2009.
Zo eindelijk mocht ik de beans spillen waar ik al een paar weken op zit te broeden.
Het zou best kunnen dat nV te laat heeft zien aankomen dat Windows 7 relatief snel in retail zou komen en dus gedacht heeft dat ze "nog wel even hadden" voor DX11.
Hopelijk zit DX11 idd gelijk meegebakken in de W7 retailversie en komt AMD heel snel met de DX11 chips.
Ze verdienen een goede verkoop omdat ze tenminste niet de vooruitgang tegen proberen te houden zoals nV met DX10.1 en al hun verdere lock in software ideeen
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Daar ben ik al verbaast over sinds de 8xxx serie. Met die serie troefden ze ATi op alle vlakken af. De 9xxx serie ging eigenlijk helemaal nergens over, allemaal dezelfde G92 core die ook al in de 8800GT zat. Toen kwam de GTX2xx serie, te groot, te duur, te weinig performance winst. De release van de 8800GTX is al bijna 3 jaar geleden en nVidia heeft nog steeds geen kaart die 2 keer zo snel is.Help!!!! schreef op donderdag 04 juni 2009 @ 16:03:
[...]
Alhoewel je imo altijd erg moet opletten met dit soort voorspellingen lijkt het me aannemelijk. Mocht het uitkomen, dan ben ik wel erg verbaasd dat nVidia zo heeft zitten slapen.
GT216 aka D10M2 - opvolger van G96
Streamprocessors: 48
MC: 128-bit
Memory: 800Mhz DDR3
Engine clock: 600-650Mhz
Shader clock: 1300-1400MHz
Vantage scores: E ~13K, P ~3K, H < 2K
GT218 aka D10M1 - opvolger van G98
Streamprocessors: 24
Memory: 500MHz DDR2
MC: 64-bit
Engine clock: ~600MHz
Shader clock: 1300-1400MHz
Vantage scores: E ~5.5, P <1K, H ~500
Dus G98 naar GT218 is een sprong van 16 shaders naar 24 shaders. G96 naar GT216 is een sprong 32 naar 48 shaders. 30% meer shaders en ook 30% meer performance.
Het ziet er naar uit dat de GT216 en GT218 dus de GT200 architectuur volgen. De G9x generatie werkte met clusters van 16 streamprocessors. De GT200 werkt met clusters van 24 streamprocessors (10 in totaal voor 240 SPs). Het lijkt er dus op dat GT216 nu 2 clusters van 24 SPs heeft en de GT218 er eentje van 24 SPs. Waarschijnlijk is het aantal texture units per cluster verdubbeld van 8 naar 16, dus 16 TMUs voor GT218 en 32 TMUs voor GT216, maar dit laatste heb ik niet bevestigd gekregen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Disclaimer: zelfde gaat op voor AMD/ATi uiteraard.
De meeste mensen deugen!
Dit topic is gesloten.