Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Vaak houdt de 3850 de 3870 netjes bij, totdat de wat hogere resoluties aan bod komen. Dan stort de performance van de 3850 totáál in, en neemt het procentuele verschil met de 3870 drastisch toe. De 3870 is dan ineens 70-80% sneller. Enkel de ene review heeft dat verschijnsel wel, en de andere niet. Hoe moet ik dit zien, wordt de 3850 gewoon tegengehouden door de bandbreedte?
In theorie zou een 3850 + GDDR4 @ 3870-speeds gelijk moeten zijn aan een 3870, maar vaak is de laatste toch iets sneller. Strakkere latencies anyone?
VR-Zone has learned that Radeon display driver 8.45 v1.3 will improve performance and compatibility on the Radeon HD 3870 X2 over the current 8.45 v1.0 driver. The current set of driver is facing performance issues with games right now so benchmarks on this set of drivers are not reflective on the actual gaming performance yet. The new set of driver will be out before 28th January according to AMD.
Updates : We got to know that the RC drivers will be available on 28th Jan while the WHQL drivers will be available on 30th Jan.
|2600k|Asus 290|
Toch wel. Ik vind het een vrij zwakke review.IceEyz schreef op maandag 28 januari 2008 @ 17:44:
reviews: ATI Radeon HD 3870 X2 review
Heeft verder geen tekst nodig
CPU is bij veel tests de bottleneck. Een E6600 op 2.4Ghz is niet voldoende om een HD3870X2 te voeden. HD kaarten schalen vrij goed mee met processors... dus minimaal een QuadCore op 3Ghz of hoger was toch wel gewenst. Je mag er van uit gaan dat de enthusiast die een HD3870X2 (of GF8800Ultra) toch wel een redelijk dikke CPU heeft.
Ook het beperkte gebruik van games is jammer: 3 van de 4 zijn TWIMTBP titels waar NV altijd al duidelijk beter scoorde. Ook hier wordt trouwens weer de CPU bottleneck duidelijk. De prestaties van de kaarten ligt dicht op elkaar. Beter zou het zijn als men ook met 8xAA zou benchen omdat je mag verwachten dat dat een echte enthusiast instelling is en alle kaarten dat aan kunnen.
Daarnaast worden er wat conclusies getrokken die - met een beetje research doen - duidelijk niet gemaakt hadden mogen worden. Een voorbeeldje:
Als ze zelf met een HD3870 CF setup hadden getest, dan waren ze misschien wel tot dezelfde conclusie gekomen als vele andere sites, namelijk dat de X2 het net iets beter doet dan een CF opstelling. Dit komt voornamelijk door de hogere coresnelheid, want het verschil in geheugen doet nagenoeg bijna niks. GDDR4 heeft veel hogere latencies dan GDDR3. AMD heeft zelf in het verleden al eens aangegeven dat 1.2 Ghz GDDR4 geheugen ongeveer dezelfde bandbreedte oplevert en ongeveer hetzelfde presteert als 900~1000Mhz GDDR3.Verder moeten we ons afvragen: waarom een Radeon HD 3870 X2 kopen als we ook twee losse Radeon HD 3870-kaarten kunnen aanschaffen? Twee losse kaarten zijn goedkoper en waarschijnlijk ook nog net iets sneller gezien het verschil in geheugenkloksnelheid.
Ook een gemiste kans is het gebruik van een enkele HD3870, HD3850 en/of HD2900XT. Zeker die laatste was misschien niet verkeerd geweest, omdat de HD3870X2 voor dezelfde prijs gelanceerd wordt als de HD2900XT.
Pluspuntje is wel het gebruik van de meest recente drivers. Maar al met al vind ik het een karige review die nog net een zesje van me zou krijgen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De meeste HD3850s hebben maar 256MB geheugen aan boord. Daardoor stort deze vaak in op hogere resoluties of met veel eyecandy. Enkele reviews testen de 512MB versie en daar zie je dat procentueel gezien, deze minder veel instort dan de 256MB versies.Jejking schreef op maandag 28 januari 2008 @ 18:07:
Overigens, wat ik me afvraag. Hardwarematig is het enige verschil tussen de HD3850 en 3870 slechts de kloksnelheden van GPU en mem.
Vaak houdt de 3850 de 3870 netjes bij, totdat de wat hogere resoluties aan bod komen. Dan stort de performance van de 3850 totáál in, en neemt het procentuele verschil met de 3870 drastisch toe. De 3870 is dan ineens 70-80% sneller. Enkel de ene review heeft dat verschijnsel wel, en de andere niet. Hoe moet ik dit zien, wordt de 3850 gewoon tegengehouden door de bandbreedte?
In theorie zou een 3850 + GDDR4 @ 3870-speeds gelijk moeten zijn aan een 3870, maar vaak is de laatste toch iets sneller. Strakkere latencies anyone?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Alleen met dit puntje ben ik het niet eens. Ja, op 1280x1024 kun je 8xAA gebruiken. Maar er is bijna geen enkele RECENTE game waarmee je op bijvoorbeeld 1920x1200 met 8xAA kan spelen. Met 4xAA mag je heel blij zijn, en als je pech hebt kan je maar 2xAA gebruiken of zelfs helemaal geen AA. Maar dit geldt net zo goed voor bijvoorbeeld dual 8800GT's of GTS kaartjes.CJ schreef op maandag 28 januari 2008 @ 18:15:
De prestaties van de kaarten ligt dicht op elkaar. Beter zou het zijn als men ook met 8xAA zou benchen omdat je mag verwachten dat dat een echte enthusiast instelling is en alle kaarten dat aan kunnen.
1920x1200 met AA is echt mega zwaar... Voor elke kaart of kaarten. Vooral Bioshock en CoD4, en STALKER (bijvoorbeeld) zijn echt zo zwaar dat je 4xAA echt kan schudden op zulke reso's. In de wat oudere games is het meestal wel te doen. HL2 of Splinter Cell Chaos Theory bijvoorbeeld of BF2.
Soms denk ik wel eens bij mezelf dat ik beter een 22 inch monitor had kunnen kopen met een native res van 1680x1050.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Company of heroes draait hier anders retesnel op die reso, met 4x AA en daarop 16x AF. Alles maxed out, wel DX9 en niet dx10, die performance zakt gewoon te erg dan tegen weinig winst in eye candy. 2x 3870 hiero, stock.RappieRappie schreef op maandag 28 januari 2008 @ 18:23:
[...]
Alleen met dit puntje ben ik het niet eens. Ja, op 1280x1024 kun je 8xAA gebruiken. Maar er is bijna geen enkele RECENTE game waarmee je op bijvoorbeeld 1920x1200 met 8xAA kan spelen. Met 4xAA mag je heel blij zijn, en als je pech hebt kan je maar 2xAA gebruiken of zelfs helemaal geen AA. Maar dit geldt net zo goed voor bijvoorbeeld dual 8800GT's of GTS kaartjes.
1920x1200 met AA is echt mega zwaar... Voor elke kaart of kaarten. Vooral Bioshock en CoD4, en STALKER (bijvoorbeeld) zijn echt zo zwaar dat je 4xAA echt kan schudden op zulke reso's. In de wat oudere games is het meestal wel te doen. HL2 of Splinter Cell Chaos Theory bijvoorbeeld of BF2.
Soms denk ik wel eens bij mezelf dat ik beter een 22 inch monitor had kunnen kopen met een native res van 1680x1050.Maar als ik dan op 1920x1200 BF2 of CSS speel ben ik er blij om dat ik een 24" inch heb. Dan raak ik mijn tegenstander iets makkelijker omdat ze wat groter zijn.
Zit hier trouwens net Crysis te spelen, 1680x1050 (ja want hier trekt ie 1920x1200 MET aa echt niet soepel), met 2x AA en alles high, speelt goed hoor, wederom 2x 3870 en stock core/mem en het draait echt soepel genoeg om lekker te kunnen spelen zonder hapering of iets.
[ Voor 8% gewijzigd door peakaboo op 28-01-2008 18:29 ]
COH gaf iig problemen met SLI op 1920x1200. Screen corruption. Van de week maar eens met deze kaart proberen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Mijn opmerking over 8xAA was specifiek gericht op deze review waar de CPU duidelijk de bottleneck is. Door hogere AA instellingen te gebruiken op bv 1280x1024 en 1600x1200 wordt de CPU bottleneck meer weggenomen, omdat de druk dan op de GPU(s) komt te liggen. Nu ligt alles te dicht bij elkaar, wat grotendeels aan de gebruikte CPU te danken is.RappieRappie schreef op maandag 28 januari 2008 @ 18:23:
[...]
Alleen met dit puntje ben ik het niet eens. Ja, op 1280x1024 kun je 8xAA gebruiken. Maar er is bijna geen enkele RECENTE game waarmee je op bijvoorbeeld 1920x1200 met 8xAA kan spelen. Met 4xAA mag je heel blij zijn, en als je pech hebt kan je maar 2xAA gebruiken of zelfs helemaal geen AA. Maar dit geldt net zo goed voor bijvoorbeeld dual 8800GT's of GTS kaartjes.
1920x1200 met AA is echt mega zwaar... Voor elke kaart of kaarten. Vooral Bioshock en CoD4, en STALKER (bijvoorbeeld) zijn echt zo zwaar dat je 4xAA echt kan schudden op zulke reso's. In de wat oudere games is het meestal wel te doen. HL2 of Splinter Cell Chaos Theory bijvoorbeeld of BF2.
Soms denk ik wel eens bij mezelf dat ik beter een 22 inch monitor had kunnen kopen met een native res van 1680x1050.Maar als ik dan op 1920x1200 BF2 of CSS speel ben ik er blij om dat ik een 24" inch heb. Dan raak ik mijn tegenstander iets makkelijker omdat ze wat groter zijn.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
CPU maakt weinig tot niets uit bij high-end gaming. Dat is inmiddels al zo vaak besproken en getest. De enige game die momenteel trouwens een quadcore benut is Supreme Commander, en die zat niet in de test.CJ schreef op maandag 28 januari 2008 @ 18:15:
Toch wel. Ik vind het een vrij zwakke review.
CPU is bij veel tests de bottleneck. Een E6600 op 2.4Ghz is niet voldoende om een HD3870X2 te voeden. HD kaarten schalen vrij goed mee met processors... dus minimaal een QuadCore op 3Ghz of hoger was toch wel gewenst. Je mag er van uit gaan dat de enthusiast die een HD3870X2 (of GF8800Ultra) toch wel een redelijk dikke CPU heeft.
Dit is trouwens ook precies een van de redenen dat hier zo regelmatig gemeld wordt dat het irl weinig uitmaakt of je een Intel Core2 of AMD X2 in je gamepc hebt. De enige andere plek waar een dikke CPU wat uitmaakt is 3DMark06. En dat is nou precies het grote kritiekpunt op de benchmark
Dat de nV kaarten zo dicht tegen elkaar aan presteren heeft ook niets met de CPU te maken. Dit is een algemene trend bij deze serie kaarten GT -> GTS/GTX -> Ultra liggen niet dramatisch ver van elkaar. Sterker nog, de verschillen vallen precies binnen verwachting. Enige dat tegenvalt zijn de X2 prestaties ten opzichte van die kaarten... en ook dat heeft niets met de CPU te maken.
<edit>
Voor de duidelijkheid hier een CPU Scaling Test.
Verschil tussen een E6300 (@1.86Ghz) en een Core2 Duo @3.47Ghz (dus bijna 2x zo snel) is precies 1fps op 1920x1200 zonder AA/AF. Enige reso die behoorlijk wat verschil laat zien is 1024x768 zonder AA/AF
</edit>
Het is een review die veel zegt over prestaties onder Windows XP... veelal wordt getest onder Vista.Maar al met al vind ik het een karige review die nog net een zesje van me zou krijgen.
Resultaten zijn trouwens grofweg in lijn met de ingame benchmarks van o.m. [H] en diverse andere reviews die ik heb gelezen. Het lijkt er trouwens weer op dat e.e.a. misgaat bij de performancebeta's voor de benchmarks. Tweakers meldt graphicglitches in de Crysis performancedriver. Wel typisch dat dit andere sites blijkbaar niet opgevallen is.
Ik wacht nu i.i.g. zeker weten de 9800GX2 af voordat ik een beslissing neem.
Als het goed is zouden de 3870X2 drivers tegen die tijd ook aardig verbeterd moeten zijn.
[ Voor 13% gewijzigd door Cheetah op 28-01-2008 19:00 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Big and chunky come to mind, and we're not talking about Ruby here. The card measures an impressive 266mm x 112mm x 34mm (w x h x d). Somewhat worryingly, it tips the scales at just over 1kg - 1,024g, to be exact.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
UT3 maakt ook goed gebruik van Quadcore CPU's.Cheetah schreef op maandag 28 januari 2008 @ 18:46:
[...]
CPU maakt weinig tot niets uit bij high-end gaming. Dat is inmiddels al zo vaak besproken en getest. De enige game die momenteel trouwens een quadcore benut is Supreme Commander, en die zat niet in de test.
Dit is trouwens ook precies een van de redenen dat ier zo regelmatig gemeld wordt dat het irl weinig uitmaakt of je een Intel Core2 of AMD X2 in je gamepc hebt. De enige andere plek waar een dikke CPU wat uitmaakt is 3DMark06. En dat is nou precies het grote kritiekpunt op de benchmark
Dat de nV kaarten zo dicht tegen elkaar aan presteren heeft ook niets met de CPU te maken. Dit is een algemene trend bij deze serie kaarten GT -> GTS/GTX -> Ultra liggen niet dramatisch ver van elkaar. Sterker nog, de verschillen vallen precies binnen verwachting. Enige dat tegenvalt zijn de X2 prestaties ten opzichte van die kaarten... en ook dat heeft niets met de CPU te maken.
[...]
Het is een review die veel zegt over prestaties onder Windows XP... veelal wordt getest onder Vista.
Resultaten zijn trouwens grofweg in lijn met de ingame benchmarks van o.m. [H] en diverse andere reviews die ik heb gelezen. Het lijkt er trouwens weer op dat e.e.a. misgaat bij de performancebeta's voor de benchmarks. Tweakers meldt graphicglitches in de Crysis performancedriver. Wel typisch dat dit andere sites blijkbaar niet opgevallen is.
Ik stapte onlangs over van een E6600@3 ghz naar een Q6600 3 ghz en merkte een groot verschil (48 vs 70 fps op bepaalde plaatsen)
CPU invloeden merk je echter vooral bij real world performance vs fly-by (AI-loze GPU) benchmarks en dan vervlakt een evt. performance verschil tussen GPU's, al hangt het van de game af en de snelheid van de GPU.
Ik heb al een tijd lange ervaring met CF en het hangt erg af van de gebruikte game en CCC instellingen.
Het grootste gedeelte (~65-70%) van mijn games is nu duidelijk sneller met CF dan met de 8800Ultra. Ik gebruik altijd zoveel mogelijk de ingame instellingen voor AA en AF, dat maakt vreemd genoeg bij ATI veel meer uit dan NV. (in het voordeel van de eerste BTW).
Niet op voorraad.
Verwijderd
Sapphire drivers net geinstalleerdVerwijderd schreef op zondag 27 januari 2008 @ 00:39:
Nou na veel drivers verwijderen en herinstalleren ,en opnieuw opstarten en hotfixes en dergelijke eindelijk de X2 op de 8.1 drivers aan de praat![]()
![]()
![]()
1e run
18144 3Dmark06
2e run
18344
Q6600 @3600
3e Run
18927
Q6600 @3800
Kaart standaard
Q6600 @3600mhz
en naar 18441
http://service.futuremark.com/compare?3dm06=4941685
The Flying Dutchman schreef op zondag 27 januari 2008 @ 22:46:
Over een klein half jaar wil ik een nieuwe pc aanschaffen, als ATi dit inderdaad waar kan maken en eindelijk weer eens indruk kan maken, dan stijgt de kans weer dat het een Ati grafische kaart wordt.
De grootste hindernis voor mij zijn echter de Linux drivers... Het gaat wat dat betreft de goede kant op, maar ik draai 80% van de tijd Linux en ik ontwikkel daar (als hobby en voor studie) ook nog eens OpenGL applicaties voor. Op dit moment wil je dan écht geen ATi kaart in je bak hebben hangen (puur vanwege de drivers).
Gelukkig gaan ook de drivers de goede kant op en heb ik wel hoop dat er over een aantal releases een goed bruikbare driver voor Linux beschikbaar is die ook nog eens redelijke performance levert. Echter houdt ik mijn hart vast voor de nieuwe generaties kaarten met meerdere GPU's. Ik heb geen idee of de Linux drivers nu al Crossfire ondersteunen, maar Ati kennende kan ik het me bijna niet voorstellen...
Iemand hier die iets weet over Crossfire ondersteuning in Linux??
Last time I checked werkt Crossfire nogsteeds niet in Linux...
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Verwijderd
omdat er ook zat gamers zijn die een AMD setup hebben en niet alleen zo'n intel setup, gewoon om ook aan de anderen te denken het is me allemaal te pro Intel, sorry maare dat is mijn mening.

een Phenom @ 3600 Mhz is sneller aangezien dat de K10 per Mhz sneller is als een CDQ alleen met die TLB bug kan de performance wat minder zijn maar dan nog zal het niet veel elkaar zich omver lopen.
[ Voor 15% gewijzigd door Verwijderd op 28-01-2008 19:24 ]
Ik ben bang dat hier niets van waar is, ik kan me niet voorstellen dat een AMD-chipset beter zal samenwerken met een R680. Zeker niet nu, want dan verkoopt ATi ook gelijk geen enkele kaart meer omdat AMD-chips nu gewoon helemaal niet in trek zijn..Verwijderd schreef op maandag 28 januari 2008 @ 19:22:
ik wil een benchmark zien van de X2 op een AMD 790FX chipset een chipset die gemaakt is van AMD voor dit soort kaarten ik denk dat nog beter werkt dan zo'n intel chipset, aangezien ATi/AMD VGA kaarten op een AMD chipset met een AMD CPU beter samen zal werken, dan met een Phenom 9500 Black Edition, ik vraag me af hoe dit tekeer zal gaan.
omdat er ook zat gamers zijn die een AMD setup hebben en niet alleen zo'n intel setup, gewoon om ook aan de anderen te denken het is me allemaal te pro Intel, sorry maare dat is mijn mening.
een Phenom @ 3600 Mhz is sneller aangezien dat de K10 per Mhz sneller is als een CDQ alleen met die TLB bug kan de performance wat minder zijn maar dan nog zal het niet veel elkaar zich omver lopen.
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Kijk das een mooie bench, neem aan dat dit representatief is voor alle game kaarten he. Maar dan is hiermee het CPU probleem uit de wereld.Cheetah schreef op maandag 28 januari 2008 @ 18:46:
[...]
Voor de duidelijkheid hier een CPU Scaling Test.
Trouwens even een andere vraag over het MultiView. Ik kan 2 TFT's gebruiken met CrossFire aan, wil ik echter een 3e aansluiten dan moet de CrossFire uit. Iemand enig idee of hier ook nog een oplossing voor komt? Ik weet het, allemaal luxe problemen
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
CoolIT Systems liquid cooling for HD3870 X2

http://www.coolitsystems....&task=view&id=89&Itemid=1
Check onderstaand YouTube filmpje voor een testje
http://www.youtube.com/watch?v=VeHgoyGRbuI
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Wat is dat, een muizenval?Apoca schreef op maandag 28 januari 2008 @ 19:38:
Nou de mensen bij CoolIT Systems zijn weer lekker bezig![]()
CoolIT Systems liquid cooling for HD3870 X2
[afbeelding]
http://www.coolitsystems....&task=view&id=89&Itemid=1
Check onderstaand YouTube filmpje voor een testje![]()
http://www.youtube.com/watch?v=VeHgoyGRbuI
Opzich is waterkoeling een effectieve methode, maar met de regelmaat waarin ik gfx-kaarten versluit, niet de moeite waard.
Niet op voorraad.
Verwijderd
Sja dat weet je pas als ze het testen en niet zo maar uit het niets en ATi is van AMD dus een 100% AMD setup presteerd beter denk ik van zoOet schreef op maandag 28 januari 2008 @ 19:26:
[...]
Ik ben bang dat hier niets van waar is, ik kan me niet voorstellen dat een AMD-chipset beter zal samenwerken met een R680. Zeker niet nu, want dan verkoopt ATi ook gelijk geen enkele kaart meer omdat AMD-chips nu gewoon helemaal niet in trek zijn..
You're missing the point dude.
Ik dacht het niet. Een AMD kaart is geen NV kaart. De een heeft meer profijt van een snellere CPU dan een ander, net zoals de een beter mee schaalt dan de ander wanneer men de PCIe bus overklokt.Apoca schreef op maandag 28 januari 2008 @ 19:29:
[...]
Kijk das een mooie bench, neem aan dat dit representatief is voor alle game kaarten he. Maar dan is hiermee het CPU probleem uit de wereld.
Daarnaast is dat een review uit November 2006 toen er nog weinig Vista was. Vista is beter geoptimaliseerd voor multi-core CPUs dan XP. De drivers van videokaarten zijn ook anders geschreven voor Vista (immers een compleet ander drivermodel) en zijn bij zowel NV als AMD meer gericht op multi-core CPUs. Performancescaling op multi-core systemen is sinds de lancering steeds stukje bij beetje beter geworden met allerlei patches.
Ook een factor is het gebruik van bv de hoeveelheid AI en physics. Dit wordt tot nu toe vooral op CPUs uitgevoerd en kan dus in modernere games er voor zorgen dat een snellere CPU dus eerder klaar is met z'n werk en tijd over heeft voor andere zaken, terwijl een langzamere CPU hierdoor de vertragende factor kan zijn.
Elke game engine zit weer anders in elkaar. Zo is bv de HL2 engine vrij CPU afhankelijk, terwijl een Doom3 engine dat weer een stuk minder is. De ene game zal sneller z'n CPU limiet of GPU limiet bereiken dan een ander.
Zie bv deze userscaling tests van een 8800Ultra:
Half-Life 2
1600 x 1200 x 4 x MS
E6600: 166
E6850: 194
Verschil: 17%
1920 x 1440 x 8xS x SS
E6600: 113
E6850: 114
Verschil: 1%
Fear
1600 x 1200 x 4 x MS
E6600: 96
E6850: 97
Verschil: 1%
1920 x 1440 x 4 x SS
E6600: 69
E6850: 70
Verschil: 1%
Bron: http://episteme.arstechni...f/67909965/m/492007078831
De HL2 engine is dus op 1600x1200 nog niet CPU limited (immers 17% verschil met dezelfde GPU), terwijl FEAR dat al wel is op dezelfde resolutie (beide CPUs presteren al even snel). Zo zal dit per game weer verschillen. Een bekend gegeven is bijvoorbeeld ook dat RTS games en Flight Simulators veel meer CPU limited zijn dan FPS games (FSX gebruikt bv alle 4 cores van een Quadcore en performance verdubbelt daar zo'n beetje wanneer je van Dual Core naar Quad gaat). Dus pin je niet vast op zo'n kleine scalingtest als die op Guru3D.
CF zou tot op 8 monitoren moeten kunnen ondersteunen met Quad CrossFire (zie ook het filmpje van FSX op Youtube). Dus 4 monitoren met Dual CrossFire zou ook moeten kunnen en drie zou dan geen probleem moeten zijn. Misschien kunnen ze je beter helpen op het forum van http://game.amd.com?Trouwens even een andere vraag over het MultiView. Ik kan 2 TFT's gebruiken met CrossFire aan, wil ik echter een 3e aansluiten dan moet de CrossFire uit. Iemand enig idee of hier ook nog een oplossing voor komt? Ik weet het, allemaal luxe problemen
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bevalt me best moet ik zeggen; FEAR op 1920x1200 4xAA 16xAF alles max softshadows aan en V-Sync AAN.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Verwijderd
Nee ok maar ik wil graag overclocken en het schijnt dat je met alleen 2 x 6 pins aansluitingen het Overdrive menu niet krijgt! Of zou het misschien wel lukken met een ander progje, zoals Overclocker, die ik momenteel nog gebruik met mijn X1900XTX?pimpimmers schreef op maandag 28 januari 2008 @ 15:16:
[...]
Ik heb de zelfde voeding als jou en heb 2x 3870 en een AMD FX60 heb mijn pc laatst ff op de energie meter ding gehad en had een piek van 350Watt tijdens 3D Mark meestal zat die er een stuk onder rond de 300Watt. Dus ik denk dat je wel genoeg hebt.
Dat OC model van Gecube heeft volgens mij als enige 2 x 6 pins aansluitingen!
Trouwens echt een vette kaart alleen jammer van het dure prijskaartje
[ Voor 11% gewijzigd door Verwijderd op 28-01-2008 21:03 ]
Ben nogsteeds opzoek naar de MSI versie
Urhm. Klopt. Als je het zo stelt heb je gelijk.Getah schreef op maandag 28 januari 2008 @ 20:40:
Eeehm.. Dan is Half Life 2 op 1600x1200 toch juist wél CPU limitedHij wordt immers sneller met een snellere CPU met dezelfde GPU...

Maar het klopt wat je zegt. Op 1600x1200 is HL2 inderdaad CPU limited op een E6600. Maar niet op een E6850 omdat de performance omhoog gaat.
Waar ik eigenlijk op doelde met mijn variant op "CPU limited" is meer vanuit het oogpunt van de engine wat gekoppeld is aan de resolutie. Als je kijkt naar de game-engine op zich en dit koppelt aan de resolutie, dan is de Source Engine nog lang niet CPU gelimiteerd op 1600x1200. Het kan immers nog veel beter met een snellere CPU. Een overgang van E6600 -> E6850 resulteert immers in een performancewinst. Als blijkt dat een QX9650 nog meer fps oplevert, dan is de engine op zich nog niet gelimiteerd op 1600x1200, maar was de E6850 wel de begrensende factor omdat er meer in zat.
Maar dit is niet de gangbare uitleg, dus ik zal eens kijken of ik mijn stukje nog even kan herschrijven.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit heeft een logische verklaring.Jejking schreef op maandag 28 januari 2008 @ 18:07:
Overigens, wat ik me afvraag. Hardwarematig is het enige verschil tussen de HD3850 en 3870 slechts de kloksnelheden van GPU en mem.
Vaak houdt de 3850 de 3870 netjes bij, totdat de wat hogere resoluties aan bod komen. Dan stort de performance van de 3850 totáál in, en neemt het procentuele verschil met de 3870 drastisch toe. De 3870 is dan ineens 70-80% sneller. Enkel de ene review heeft dat verschijnsel wel, en de andere niet. Hoe moet ik dit zien, wordt de 3850 gewoon tegengehouden door de bandbreedte?
Bij de reviews is in de meese gevallen een HD3870 met 512mb en een HD3850 met slechts 256mb gebruikt. Op hoge resoluties komt de HD3850 met de halve hoelveelheid grafisch geheugen ten opzichte van zijn iets hoger geklokte broertje dan ook snel in de problemen. Zou je er echter een HD3850 met 512mb naast zetten dan zul je zien dat die wel gelijke tred houdt met de HD3870 en dat de absurde verschillen op de hoge resoluties verdwijnen.
Ik zag CJ hierboven al antwoord geven, toch bedankt voor de aandacht. Met de hoeveelheid geheugen had ik even geen rekening gehouden. Ach... het is maandag he?JazzySOB schreef op maandag 28 januari 2008 @ 21:30:
[...]
Dit heeft een logische verklaring.
Bij de reviews is in de meese gevallen een HD3870 met 512mb en een HD3850 met slechts 256mb gebruikt. Op hoge resoluties komt de HD3850 met de halve hoelveelheid grafisch geheugen ten opzichte van zijn iets hoger geklokte broertje dan ook snel in de problemen. Zou je er echter een HD3850 met 512mb naast zetten dan zul je zien dat die wel gelijke tred houdt met de HD3870 en dat de absurde verschillen op de hoge resoluties verdwijnen.


Hier meer info over de PEX4547
http://www.plxtech.com/products/expresslane/switches.asp
Deze chip verbruikt 4.9W, en er zijn ook nog andere versies.
Nu betwijfel ik of er custom versies komen van de 3870X2 maar het zou dus mogelijk zijn dat er ook andere PCI-E switch chips gebruikt gaan worden, of BV DDR4 versies qua geheugen.
Er komen overigens wel 256MB versies (x2 = 512MB), echter betwijfel ik of deze een succes worden, deze kosten iets van 30$ minder maar het zal een aardige performance impact hebben.
[ Voor 17% gewijzigd door The Source op 28-01-2008 22:07 ]
Volgens de specs van die chip is die chip PCI-Express 1.1 compliant. Volgens Ati is de 3870X2 PCI-E 2.0 compliant. Hoe valt dat te rijmen als die chip de beperkende factor is?The Source schreef op maandag 28 januari 2008 @ 22:05:
Deze had ik nog niet gezien
[afbeelding]
Hier meer info over de PEX4547
http://www.plxtech.com/products/expresslane/switches.asp
Deze chip verbruikt 4.9W, en er zijn ook nog andere versies.
Nu betwijfel ik of er custom versies komen van de 3870X2 maar het zou dus mogelijk zijn dat er ook andere PCI-E switch chips gebruikt gaan worden, of BV DDR4 versies qua geheugen.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Ja die komen er. AMD gaat straks langzaam over op de 2.0 versies van de switch chips. De reden dat ze nu voor de 1.1 versie gekozen hebben is omdat AIBs heel erg hongerig waren naar de R680. Dus was 1.1 de veilige optie. AMD zegt zelf dat er weinig performance verschil zal zijn tussen de 2.0 en 1.1 switchchip. Waarschijnlijk wordt deze gewoon geruisloos geintroduceerd. En als het goed heb begrepen dan heeft AMD straks helemaal geen switchchips meer nodig omdat dit in de GPU geintegreerd zit.The Source schreef op maandag 28 januari 2008 @ 22:05:
Nu betwijfel ik of er custom versies komen van de 3870X2 maar het zou dus mogelijk zijn dat er ook andere PCI-E switch chips gebruikt gaan worden
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://mediazone.brightta...c2348b8354-6448-1172-6022
Hoe moet ik dit zien, krijg je als reviewer zo je persmapje?
[ Voor 80% gewijzigd door Apoca op 28-01-2008 22:50 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
je pics doen nietCJ schreef op maandag 28 januari 2008 @ 22:36:
[...]
[...]
Check ook de GeCube HD3870X2... Niet zo maar een reference: HD3870X2...
GeCube HD3870X2:
[afbeelding]
Reference HD3870X2:
[afbeelding]
Forbidden
You don't have permission to access /video3/images/rv670-3/gecube-3870x2-scan-front.jpg on this server.
[ Voor 12% gewijzigd door Raven op 28-01-2008 23:01 ]
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde


Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Wow, die van GeCube is behoorlijk 'kaal' en ziet er ook wat korter uit. Enig idee of dat invloed heeft op de prijs?CJ schreef op maandag 28 januari 2008 @ 22:36:
[...]
[...]
Check ook de GeCube HD3870X2... Niet zo maar een reference: HD3870X2...
GeCube HD3870X2:
[afbeelding]
Reference HD3870X2:
[afbeelding]
Nee, die bedoelde ik niet.
Ik heb ze effe ergens anders gehost....
GeCube HD3870X2:

Reference design HIS HD3870X2:

Zoek de 10 verschillen.
Edit: En hier de non reference van Unika. Geen nude shot, maar je kan wel zien dat de geheugenlayout ook weer compleet anders is dan de GeCube non-reference en de reference design:

[ Voor 16% gewijzigd door CJ op 28-01-2008 23:51 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Das wel erg veel non-reference PCB zeg maar.
Ziet der wel erg clean uit trouwens, iemand enig idee wat deze redesign voor voordelen heeft?
* En ze hebben geen 8 pins stekker nodig zie ik..
[ Voor 64% gewijzigd door Apoca op 28-01-2008 23:43 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
@Apoca. Ik denk dat het goedkoper is
[ Voor 17% gewijzigd door Taenadar op 28-01-2008 23:49 ]
Iemand trouwens al de 23 januari drivers gespot?
[ Voor 8% gewijzigd door ormagon op 28-01-2008 23:55 ]
Ze worden nog voor het einde van de maand vrijgegeven als ik het goed heb. Da's een beetje het nadeel van een early adopter zijn.... kinderziektes he?ormagon schreef op maandag 28 januari 2008 @ 23:54:
Iemand trouwens al de 23 januari drivers gespot?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De WHQL zou de 30ste moeten uitkomenormagon schreef op maandag 28 januari 2008 @ 23:54:
Iemand trouwens al de 23 januari drivers gespot?
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ook de E6850 kan nog CPU Limited zijn, alleen wat minder dan de E6600. De GPU kan waarschijnlijk nog sneller op die resolutie en settings, met een snellere CPU. Volgens mij is dat echter niet zo interressant, daar de FPS al hoog genoeg is; ook met een E6600.CJ schreef op maandag 28 januari 2008 @ 21:18:
[...]
Maar het klopt wat je zegt. Op 1600x1200 is HL2 inderdaad CPU limited op een E6600. Maar niet op een E6850 omdat de performance omhoog gaat.
Waar de FPS echt begint te tellen, zijn de hogere resoluties vanaf 1920x1200 en hoger met max. settings. Juist daar zie je dat de snelheid van de CPU er veel minder toe doet en het de GPU(s) zijn die de botteneck zijn.
Wat dus betekent dat je in feite altijd beter af ben met een snellere videokaart en een iets tragere cpu dan andersom. Als je op een budget zit is dat waardevolle info, anders koop je een ubersneller cpu en een 8600GTS, ipv. dat "slome" midrange cpu'tje met een 8800GT
Duurt dan wel verdomd lang eer we daar de resultaten van zienVista is beter geoptimaliseerd voor multi-core CPUs dan XP. De drivers van videokaarten zijn ook anders geschreven voor Vista (immers een compleet ander drivermodel) en zijn bij zowel NV als AMD meer gericht op multi-core CPUs.

Want ik heb nog geen reviews gezien waar multi-gaming (multi-core cpu/sli/CF) beter schaalt onder Vista dan onder XP. Wel zie ik dat spellen vaak beter scoren onder XP.
[ Voor 19% gewijzigd door Madrox op 29-01-2008 01:36 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Bij mij draait World of Warcraft iig beter op Vista dan op XP. Niet slecht voor een 'oud' spel. Wel geldt het trouwens meer voor nieuwere spellen dan voor oudere spellen. Ook Hellgate London en Guild Wars lopen op Vista iets soepeler dan op XP. Maar ook genoeg spellen waar het verschil nihil is.... waar het verschil aan het begin van de launch erg groot was.Madrox schreef op dinsdag 29 januari 2008 @ 01:31:
[...]
Duurt dan wel verdomd lang eer we daar de resultaten van zien![]()
Want ik heb nog geen reviews gezien waar multi-gaming (multi-core cpu/sli/CF) beter schaalt onder Vista dan onder XP. Wel zie ik dat spellen vaak beter scoren onder XP.
En probeer straks maar eens Quad SLI of Quad CrossFire op XP te draaien. Oh.... wacht....
En ja, het klopt dat een E6850 nog de bottleneck kan zijn bij HL2 op die instellingen. Maar daar kom je pas achter als je en QX9650 oid gaat gebruiken. Is er winst, dan is de engine nog lang niet tegen z'n limiet aangelopen.
[ Voor 12% gewijzigd door CJ op 29-01-2008 08:14 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zodra de 2GB versies leverbaar zijn ga ik er ook eentje bestellen denk ik.
In het FAQ gedeelte zou wat mij betreft alles uit het pre R600 tijdperk wel weg mogen. Echter alle uitleg over technologie zoals z-buffers e.d. moet wel blijven en met de DX10.1 info in de FAQ toegevoeg lijkt het me mooi overzichtelijk alle technologie info bij elkaar.CJ schreef op dinsdag 29 januari 2008 @ 00:06:
Ik ga proberen deze week de FAQ eens gigantisch op te schonen. Al die informatie kan ook opgezocht worden in oudere topics en ik kan de ruimte wel wat beter gebruiken. Ben eigenlijk van plan om alle DX10.1 info in het FAQ-gedeelte te stoppen, zodat de first post wat overzichtelijker kan worden en meer op de kaarten zelf gericht kan worden. Maar ik ben bang dat we hier straks overspoeld worden door al die basic-vragen... maar goed, moet het risico maar nemen want ik zit al tegen de karakter-limiet aan in de first post.
[ Voor 3% gewijzigd door Help!!!! op 29-01-2008 10:33 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
En genoeg spellen waar het performance verschil groot genoeg is - tegen een verwaarloosbaar IQ verschil - om de overstap momenteel niet te rechtvaardigen.CJ schreef op dinsdag 29 januari 2008 @ 08:13:
Bij mij draait World of Warcraft iig beter op Vista dan op XP. Niet slecht voor een 'oud' spel. Wel geldt het trouwens meer voor nieuwere spellen dan voor oudere spellen. Ook Hellgate London en Guild Wars lopen op Vista iets soepeler dan op XP. Maar ook genoeg spellen waar het verschil nihil is.... waar het verschil aan het begin van de launch erg groot was.
Verreweg de meeste mensen/gamers zitten trouwens nog op XP.
Laten ze eerst standaard CrossFire eens goed krijgen voordat we over Quad gaan nadenkenEn probeer straks maar eens Quad SLI of Quad CrossFire op XP te draaien. Oh.... wacht....
Voor Quad CF/SLI is trouwens sowieso maar een miniscuul kleine markt.
Over dat hele CPU scaling verhaal:
NeoSeeker heeft enkele dagen geleden een interessante scaling test geplaatst met recente games (CoJ, Crysis, UT3 en WiC), en diverse Core2 CPU snelheden afgezet tegen een 8800GTS 512 Extreme.
Vanaf Core2 duo @2.4Ghz blijkt het op 1600x1200 nauwelijks meer te schelen. Crysis vertoont percentueel nog het grootste verschil (5% verschil tussen 2.4 en 3.0Ghz), maar is ook slechts op medium settings getest. Op high zou de bottleneck 100% zeker bij de GPU liggen.
Core2 Quad's hebben ze niet opgenomen in de test omdat de ingame verschillen met Duo naar hun ervaring te klein zijn om interessant te zijn.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Een quad kan nog altijd een paar extra procentjes extra scoren, vooral de games van het afgelopen jaar kunnen redelijk tot goed met meerdere core's omgaan. Een game kan 2 core's volledig claimen zonder dat daar andere software (virusscanner, drivers etc.) gebruik van maken. En zeker met komende games gaat dat alleen handiger worden.Vanaf Core2 duo @2.4Ghz blijkt het op 1600x1200 nauwelijks meer te schelen. Crysis vertoont percentueel nog het grootste verschil (5% verschil tussen 2.4 en 3.0Ghz), maar is ook slechts op medium settings getest. Op high zou de bottleneck 100% zeker bij de GPU liggen.
Core2 Quad's hebben ze niet opgenomen in de test omdat de ingame verschillen met Duo naar hun ervaring te klein zijn om interessant te zijn.
Als ze dan toch de scaling testen laat ze het dan ook uitgebreid doen.
Vorige keer liep deze discussie over Quad core wel of niet en X2 vs C2D ook een beetje uit de hand. Leuk je met een Quad nog 2% meer krijgt maar als je dat geld in een betere vga kaart steekt heb je al snel 20+% winst dus wat is dan nuttiger.... Tis gewoon afhankelijk van wat jij met je pc doet.Krizzie schreef op dinsdag 29 januari 2008 @ 11:15:
[...]
Een quad kan nog altijd een paar extra procentjes extra scoren, vooral de games van het afgelopen jaar kunnen redelijk tot goed met meerdere core's omgaan. Een game kan 2 core's volledig claimen zonder dat daar andere software (virusscanner, drivers etc.) gebruik van maken. En zeker met komende games gaat dat alleen handiger worden.
Als ze dan toch de scaling testen laat ze het dan ook uitgebreid doen.
Ik ga de prijzen van de X2 even afwachten want want je ziet dat er al shops zijn die tegen de 360 euro aan zitten. En die GeCube lijkt me ook wel wat. Hopelijk is hij niet trager door dat aangepaste PCB. Bij moederborden wil dat ook wel eens verkeerd uit vallen en is een ander moederbord 10% sneller. Maar ik ga er sowiezo een kopen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Leuk dat Salland aangeeft dat er 36 maanden garantie op al die 3870x2 kaarten zit die ze leveren...Krizzie schreef op dinsdag 29 januari 2008 @ 10:27:
Prijzen zakken snel.De Club3D is al voor 360 euro te bestellen bij Salland.
Zodra de 2GB versies leverbaar zijn ga ik er ook eentje bestellen denk ik.
Alleen sommige fabrikanten geven maar 12 maanden dus ik ben benieuwd hoe Salland 36 maanden garantie kan geven
Verwijderd
Tot nu toe de beste prijs en nu maar hopen dat hij snel geleverd wordt
De GeCube draait op 837Mhz core en 972Mhz mem. Core is dus ietsje overgeklokt. Het geheugen iets meer. De coolingsolution bestaat volledig uit koper en is geruisloos volgens de eerste tests (vanwege de grote fans). De cooler weet de GPU onder load op 67 graden Celsius te houden, wat dus een stuk minder is dan de ~80 van de reference cooler.Astennu schreef op dinsdag 29 januari 2008 @ 11:31:
[...]En die GeCube lijkt me ook wel wat. Hopelijk is hij niet trager door dat aangepaste PCB. Bij moederborden wil dat ook wel eens verkeerd uit vallen en is een ander moederbord 10% sneller. Maar ik ga er sowiezo een kopen.
Daarnaast is het dus een custom PCB waardoor de lengte 25cm bedraagt ipv 27cm. Een klein nadeel is echter wel de richting waarop de stroomaansluitingen wijzen. Hierdoor wordt de boel weer iets langer vanwege de extra ruimte die je nodig hebt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat maakt dat uit? Als je kaart stuk gaat vraag je RMA bij Salland aan, zij moeten dan zorgen voor een nieuwe. Sowieso was het volgens mij verplicht om in Europa minimaal 2 jaar garantie op producten te hebben.HugoBoss1985 schreef op dinsdag 29 januari 2008 @ 11:33:
[...]
Leuk dat Salland aangeeft dat er 36 maanden garantie op al die 3870x2 kaarten zit die ze leveren...
Alleen sommige fabrikanten geven maar 12 maanden dus ik ben benieuwd hoe Salland 36 maanden garantie kan geven!
@ Astennu, het ging mij meer om de test die Cheetah noemde, zij zeggen dat ze niet met Quads hebben getest omdat de meer waarde nihil is, hoe weten ze dat als ze dat niet hebben gestest?
Misschien is een Quad op 2.4Ghz wel net zo snel als die Dual op 3Ghz. Omdat deze de programma's over meerdere core's kan verspreiden. Waardoor je misschien ook wel 5% winst eruit haalt.
Het maakt zeker wel uit, stel nou dat die info niet klopt... je gaat ervanuit dat je kaart 3 jaar garantie heeft en het blijkt ineens maar 1 jaar te zijn.Krizzie schreef op dinsdag 29 januari 2008 @ 13:22:
[...]
Wat maakt dat uit? Als je kaart stuk gaat vraag je RMA bij Salland aan, zij moeten dan zorgen voor een nieuwe. Sowieso was het volgens mij verplicht om in Europa minimaal 2 jaar garantie op producten te hebben.
@ Astennu, het ging mij meer om de test die Cheetah noemde, zij zeggen dat ze niet met Quads hebben getest omdat de meer waarde nihil is, hoe weten ze dat als ze dat niet hebben gestest?
Misschien is een Quad op 2.4Ghz wel net zo snel als die Dual op 3Ghz. Omdat deze de programma's over meerdere core's kan verspreiden. Waardoor je misschien ook wel 5% winst eruit haalt.
Er zijn genoeg webshops die maar 1 jaar garantie geven op bepaalde producten.
Ze hebben ermee geexperimenteerd, en verschil bleek niet relevant genoeg om uitgebreid te gaan testen.Krizzie schreef op dinsdag 29 januari 2008 @ 13:22:
@ Astennu, het ging mij meer om de test die Cheetah noemde, zij zeggen dat ze niet met Quads hebben getest omdat de meer waarde nihil is, hoe weten ze dat als ze dat niet hebben gestest?
[...] in our experience four cores do not generally offer much of a performance increases over two cores for gaming.
[ Voor 15% gewijzigd door Cheetah op 29-01-2008 13:52 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Hmmm, vreemd. Merk hier toch wel voordeel van een quad boven dual core, maar komt misschien omdat ik te lui ben om alles in windows af te sluiten als ik een spel ga spelen.Cheetah schreef op dinsdag 29 januari 2008 @ 13:49:
[...]
Ze hebben ermee geexperimenteerd, en verschil bleek niet relevant genoeg om uitgebreid te gaan testen.
[...]
Nouja, terug naar ATI!
Uhmm wel interessant. Vraag me ook af of die fans niet harder kunnen zodat je rond de 50c temp zitCJ schreef op dinsdag 29 januari 2008 @ 13:09:
[...]
De GeCube draait op 837Mhz core en 972Mhz mem. Core is dus ietsje overgeklokt. Het geheugen iets meer. De coolingsolution bestaat volledig uit koper en is geruisloos volgens de eerste tests (vanwege de grote fans). De cooler weet de GPU onder load op 67 graden Celsius te houden, wat dus een stuk minder is dan de ~80 van de reference cooler.
Daarnaast is het dus een custom PCB waardoor de lengte 25cm bedraagt ipv 27cm. Een klein nadeel is echter wel de richting waarop de stroomaansluitingen wijzen. Hierdoor wordt de boel weer iets langer vanwege de extra ruimte die je nodig hebt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ik zie helemaal geen 'min fps' grafiekjes. Een goede CPU kan daar vooral het verschil maken en een betere game-ervaring geven. Een statistische analyse oid zou wel helpen. Wat betreft de review, is de intentie wel goed, alleen ontbreekt het in de uitvoering. Zonde.Cheetah schreef op dinsdag 29 januari 2008 @ 10:53:
Over dat hele CPU scaling verhaal:
NeoSeeker heeft enkele dagen geleden een interessante scaling test geplaatst met recente games (CoJ, Crysis, UT3 en WiC), en diverse Core2 CPU snelheden afgezet tegen een 8800GTS 512 Extreme.
Verwijderd schreef op dinsdag 29 januari 2008 @ 11:55:
Heb zojuist de Club 3D bij Salland besteld voor 360 euries.
Tot nu toe de beste prijs en nu maar hopen dat hij snel geleverd wordt
Hebben ze op de site al een geschatte leverdatum gezet (bij je bestelling)???
Ik wil namelijk ook een 3870X2 aanschaffen, maar weet niet of het slimmer is om hem nu al te bestellen of straks pas (rond de 10e).
Daarnaast zit ik te twijfelen tussen de Asus @ empc voor € 368 en de Club3d @ salland voor € 360.
Ik heb hier namelijk een X1900XT met artifacts van Club3D (1,5 jaar oud), maar die ga ik voor garantie opsturen zodra mijn nieuwe kaart binnen is (heb geen reserve).
ik weet dat het niet het kleine vraagjes topic is maar om hiervoor nu een speciaal topic te openen...
Ter vervanging van mijn X850XT PE wil ik over naar 2 x 3870 of 1 x 3870X2 (op m'n Asus A8N-Sli Deluxe). Mijn huidige Coolermaster RealPower 550W heeft 2 x een 6 pins PCI-E aansluiting. Volgens de website van Sapphire heb ik dit nodig: 550 Watt or greater power supply with two 2x3-pin PCIe® power connectors required. Dat zou betekenen dat dit voldoende is. Maar nu heb ik in een van de nieuwsdiscussie topics gelezen dat er 8 pin connectors in omloop zijn. Was dit op de 2900 serie? Daarnaast wordt het ervaringen topic gesproken over de niet werkende backwards-compatibiliteit op PCI-E 1.0 mobo's. kan iemand dit bevestigen?
Verwijderd

@ Jeehaa
zo dan een X800 XT Platinum edition dat was eens een lekker klein ultra high end kaartje van zijn tijd zeg! respekt man, ik heb me ASUS X800 XT Platinum Edition AGP nog steeds in gebruik gaat prima onder Win2K

Ik raad je de GeCube HD 3870 X2 aan 60 graden als core tems in natuurlijk heerlijk en hij is ook 25cm ipv 27 cm ook wel nice.
[ Voor 46% gewijzigd door Verwijderd op 29-01-2008 15:06 ]
Ik vrees van niet nVidia zal dat wel blokkeren. Dan moet je toch echt even naar een Crosfire moederbord kijken of een HD3870 X2 kaart die werkt namelijk wel. 550 Watt zou net moeten kunnen mijn 550 watt coolermaster realpower trok X1900 CF en een HD2900 XT nog wel. Begint wat krap te worden maar moet net gaan.jeehaa schreef op dinsdag 29 januari 2008 @ 14:37:
offtopic:
ik weet dat het niet het kleine vraagjes topic is maar om hiervoor nu een speciaal topic te openen...
Ter vervanging van mijn X850XT PE wil ik over naar 2 x 3870 of 1 x 3870X2 (op m'n Asus A8N-Sli Deluxe). Mijn huidige Coolermaster RealPower 550W heeft 2 x een 6 pins PCI-E aansluiting. Volgens de website van Sapphire heb ik dit nodig: 550 Watt or greater power supply with two 2x3-pin PCIe® power connectors required. Dat zou betekenen dat dit voldoende is. Maar nu heb ik in een van de nieuwsdiscussie topics gelezen dat er 8 pin connectors in omloop zijn. Was dit op de 2900 serie? Daarnaast wordt het ervaringen topic gesproken over de niet werkende backwards-compatibiliteit op PCI-E 1.0 mobo's. kan iemand dit bevestigen?
@ Obi je kunt wel voor die GeCube willen gaan maar dat merk wordt in NL niet veel verkocht dus wordt denk ik erg moeilijk. Ik wil er zelf ook wel een maar als je ziet dat de HD2x en HD3x van gecube amper te vinden zijn wordt het toch wat lastig. En ik heb denk ik toch liever een Stock ATi PCB dus denk dat ik gewoon een Sapphire of Club3D haal.
[ Voor 12% gewijzigd door Astennu op 29-01-2008 14:56 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bedrijven die altijd snel de nieuwe ATi's hebben zijn Dollarshops, Alternate, Gistron en informatique (iig uit recente ervaringen vlak na de launch bij nieuwe kaarten.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
http://www.digit-life.com/articles3/video/rv670-3-part1.html
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Dat is wel zo maar er zijn alternatieven er is ebay
Bron: http://www.theinquirer.ne.../28/futuremark-makes-game
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bestond Futuremark in het begin niet uit mensen van Remedy (makers van Max Payne). Ik kan me herinneren dat dezelfde engine werd gebruiktCJ schreef op dinsdag 29 januari 2008 @ 15:33:
Niet echt direct AMD/ATI nieuws, maar wel indirect gerelateerd.... Futuremark gaat games maken. Ze hebben de Futuremark Games Studio geopend. De engine van de games zal waarschijnlijk ook gebruikt worden in toekomstige 3DMark versies... of zullen de Futuremark games de nieuwe populaire benchmarks worden? Het geeft dan immers een beter beeld van de performance van de GPU aangezien het ook echt speelbaar is....
Bron: http://www.theinquirer.ne.../28/futuremark-makes-game
In 3dmark2001 is inderdaad gebruik gemaakt van een engine van Max Payne, toen het spel nog niet uit was.WoutF schreef op dinsdag 29 januari 2008 @ 15:53:
[...]
Bestond Futuremark in het begin niet uit mensen van Remedy (makers van Max Payne). Ik kan me herinneren dat dezelfde engine werd gebruikt
Maarre... het is een artikel van The Inquirer, dan is het toch niet gezegd dat het op de waarheid berust?
Verwijderd
Volgens Salland zou de Club 3D tussen de 1 en 10 werkdagen leverbaar zijn, maar ja dit kan natuurlijk altijd nog veranderen. Mocht het me te lang duren, dan kan ik me bestelling altijd nog annulerenThund3r schreef op dinsdag 29 januari 2008 @ 15:03:
Salland heeft nooit wat op voorraadBereid je maar vast voor op lang wachten Mausje.
Bedrijven die altijd snel de nieuwe ATi's hebben zijn Dollarshops, Alternate, Gistron en informatique (iig uit recente ervaringen vlak na de launch bij nieuwe kaarten.
Volgens sommige Duitse internetshops op Geizhals.eu zou de 3870 X2 op 8 februari a.s. leverbaar moeten zijn. Maar ja, om er nu eentje daar te bestellen en extra dure verzendkosten te betalen zie ik niet zitten.
Tja misschien toch maar eentje bij dollarshops bestellen
Dus ze gaan Crytek/Crysis achterna?CJ schreef op dinsdag 29 januari 2008 @ 15:33:
Niet echt direct AMD/ATI nieuws, maar wel indirect gerelateerd.... Futuremark gaat games maken. Ze hebben de Futuremark Games Studio geopend. De engine van de games zal waarschijnlijk ook gebruikt worden in toekomstige 3DMark versies... of zullen de Futuremark games de nieuwe populaire benchmarks worden? Het geeft dan immers een beter beeld van de performance van de GPU aangezien het ook echt speelbaar is....
Bron: http://www.theinquirer.ne.../28/futuremark-makes-game
Die willen dus gewoon graag meer omzet zien
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Ok... hoe betrouwbaar lijkt je dit dan? Let vooral op de bronvermelding...HugoBoss1985 schreef op dinsdag 29 januari 2008 @ 16:01:
[...]
Maarre... het is een artikel van The Inquirer, dan is het toch niet gezegd dat het op de waarheid berust?
http://www.futuremark.com...room/pressreleases/52482/Futuremark Announces the Futuremark Games Studio
With its first game already in development, Futuremark Games Studio was created to produce original world class games.
Espoo, Finland - January 29th, 2008 - Futuremark (www.futuremark.com), is proud to announce the formation of a group named the Futuremark Games Studio. For the past 10 years, Futuremark has been pushing the boundaries of PC 3D graphics performance with its 3DMark® series, which has become by far the world's most popular benchmarking software. The 3DMark series combines stunning 3D art with world class engines from Direct3D 6 up to Direct3D 10. "Futuremark Games Studio is committed to developing original IP games with the highest quality game play combined with our established track record of creating blow-your-socks-off visuals", said Tero Sarkkinen, CEO of Futuremark Corporation. "For years, our fans have been asking us when will we start making games. Very soon they are going to get it - and then some!"
Over the past 10 years Futuremark's team of brilliant artists and engineers has created remarkably beautiful demos and benchmarks for a variety of clients to show off the abilities of their platforms. Although the new studio will demonstrate its ability to seamlessly integrate the latest technologies into its engines, its mission is to build world class games that bring new and entertaining game play to gamers. This includes games and their engines that deliver stellar performance even on modest platforms right up to the most enthusiastic levels of performance hardware.
For more information about Futuremark Games Studio, please contact Tero Sarkkinen in Finland or Oliver Baltuch in California. Futuremark Games Studio personnel will also be attending GDC 2008 in San Francisco where they can be found at the Nordic Games Studios Pavilion.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als we het hebben over een big ass air cooler

http://www.techpowerup.com/reviews/CES_2008/WaytronX/
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Misschien dat The Source of CJ dan wel Hacku kan zeggen of dit bericht kan kloppen?
Zo ja, dan zou het gewoon super nieuws zijn voor ATi
http://www.fudzilla.com/i...ask=view&id=5406&Itemid=1
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
OMGWTFBBQ enzo. Uitgaande van de 23e deze maand als rel van de X2 wordt hier gehint naar een release in mei of juni van de GX2!It looks that ATI might have at least four to five months lead with Radeon 3870X2 against Geforce 9800 GX2 launch.
Moeten ze nu wel ff gelijk alle zeilen bij zetten, en een fatsoenlijke driver uitbrengen. Nu zouden ze dan kunnen gaan scoren op het gebied van toegevoegde waarde in opties zoals dat MultiView en de Quad driver.
[ Voor 44% gewijzigd door Apoca op 29-01-2008 18:08 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Hier een plaatje:

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Ik zag hem net ook staan, de Club3D bedoel je he. Das gewoon ziek laag voor een dergelijk product. Al heb ik het idee dat we nog lang niet aan de min prijs zitten, zeker als straks de kaartjes wat beter te krijgen zijn dan zal de prijs nog wel wat omlaag kunnen.ormagon schreef op dinsdag 29 januari 2008 @ 18:08:
zeker gezien de gunstige prijs van 360 euro!
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Was met de 3780 ook zo.Apoca schreef op dinsdag 29 januari 2008 @ 18:18:
[...]
Ik zag hem net ook staan, de Club3D bedoel je he. Das gewoon ziek laag voor een dergelijk product. Al heb ik het idee dat we nog lang niet aan de min prijs zitten, zeker als straks de kaartjes wat beter te krijgen zijn dan zal de prijs nog wel wat omlaag kunnen.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Of weet iemand een winkel waar je een converter naar 8-pins kunt aanschaffen? Kan enkel converters naar 6-pins vinden. Heb gekeken bij dollarshop, alternate, azerty, 4launch, Salland.
[ Voor 27% gewijzigd door ormagon op 29-01-2008 19:10 ]
Overdrive activeren lukt alleen met 8 pins. Een verloop connector gebruik (8-to-6-pins) werkt ook. Anders moet je een thirdparty OC tool gebruiken, maar grote kans dat het daar ook niet werkt zonder 8 pins.ormagon schreef op dinsdag 29 januari 2008 @ 18:53:
Heeft iemand al een manier gevonden waarmee je de overdrive kunt activeren zonder een 8-pins aan te sluiten (die heb ik namelijk niet). Oja, en nogmaals de vraag of iemand de nieuwe drivers al ergens heeft gezien (wordt tijd dat iemand ze lekt).
De nieuwe drivers zouden morgen officieel uit moeten komen. Dus nog 1 dagje wachten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heb gekeken bij dollarshop, alternate, azerty, 4launch, Salland, Cool-prices, Zercom, Afuture.
[ Voor 8% gewijzigd door ormagon op 29-01-2008 19:18 ]
Lompe coolers man zie die cpu cooler ookApoca schreef op dinsdag 29 januari 2008 @ 17:18:
WayTronX Radeon HD 3870 Cooler
Als we het hebben over een big ass air cooler![]()
[afbeelding]
http://www.techpowerup.com/reviews/CES_2008/WaytronX/
En over de vertraging van de GX2 zal denk ik komen door dat ze 2x een G92 met 128 shaders er op willen plakken en ook nog hoog clocken. En ze hebben niet veel ruimte voor cooling dus wordt het lastig. Clocken ze em niet hoog is het verschil met de X2 te klein en kunnen ze er niet veel geld voor vragen.
Ben benieuwd hoe dat gaat lopen. In ieder geval vind ik dat AMD het wel verdient om even wat sneller te zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ik ben ook op zoek naar een dergelijke converter. De enige die ik op het net ben tegen gekomen is deze: http://www.performance-pc...ath=186&products_id=21721ormagon schreef op dinsdag 29 januari 2008 @ 19:10:
Weet iemand een winkel waar je een converter naar 8-pins kunt aanschaffen? Kan enkel converters van Molex naar 6-pins vinden.
Heb gekeken bij dollarshop, alternate, azerty, 4launch, Salland, Cool-prices, Zercom, Afuture.
Als iemand een NL shop weet dan hoor ik het graag
Of samen kopen? Ik wil ook wel zo'n convertertje.Verwijderd schreef op dinsdag 29 januari 2008 @ 19:53:
[...]
Ik ben ook op zoek naar een dergelijke converter. De enige die ik op het net ben tegen gekomen is deze: http://www.performance-pc...ath=186&products_id=21721
Als iemand een NL shop weet dan hoor ik het graag
Thanx, hier moet dus ook de traditionele CF van profiteren in Crysis. Het was al bijna speelbaar in dx10 Very High en nu wordt het weer 20% beterCJ schreef op dinsdag 29 januari 2008 @ 19:06:
[...]
De nieuwe drivers zouden morgen officieel uit moeten komen. Dus nog 1 dagje wachten.
Niet op voorraad.
Verwijderd
Dat kan ook, alleen de verzendkosten zijn erg hoog.MensionXL schreef op dinsdag 29 januari 2008 @ 20:14:
[...]
Of samen kopen? Ik wil ook wel zo'n convertertje.
Een vriend van mij heeft een 2900XT en die gebruikt een paperclip om de 2 restende pins aan te sluiten met zijn 6 pins. Hij zegt dat je ook 2 ground kabeltjes van een molex kunt gebruiken
Naja of dit trucje ook met de 3870X2 goed samen werkt.....dat risico wil ik niet lopen want daar is me de kaart te duur voor mocht er iets beschadigd worden.
Mocht niemand een NL winkel weten waar je die 6-8 pins converters kunt krijgen, dan is het mss wel handig als we met meerdere mensen bij die amerikaanse webwinkel bestellen om zodoende de verzendkosten te drukken.
PM me maar want in principe horen dit soort dingen niet in dit nieuwstopic
Maar ook mijn vaste shop Informatique heeft de Club3d versie gewoon op voorraad.
Grootgebruiker van MS Word. Maar het wordt nooit perfect...
Verwijderd
De nieuwe drivers zouden morgen officieel uit moeten komen. Dus nog 1 dagje wachten.
[/quote]
Kreeg net een antwoord van de support van ATI met de vraag wanneer ik een goed werkende driver voor me X2 kreeg .
It's recommended that you should use the driver which came with the installation CD. If it does not install from the CD and consider doing a manual installation.
Consider going to the manufacturer's website (e.i Sapphire, Visiontek, GeCube, etc.) to obtain supplementary or beta drivers.
The next ATI driver release (8.2) should be out on the 2nd week of Februrary

[ Voor 86% gewijzigd door ormagon op 29-01-2008 22:08 ]
Dit topic is gesloten.