* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
Interessant, ik vraag me vooral af hoezeer die DX10-test klopt (gameperfomancetechnisch gesproken dan
Door G-translate gehaald:
Verder bevestigt het de eerdere reviews:With the admittedly rather theoretical DirectX10-Benchmark the new chip can out-play its strengths. Here one assumes that the geometry Shader which was added again with DirectX10 was converted with AMD substantially better in hardware than with the competitor from Santa Clara. Besides one must wait for a final evaluation of the first DirectX10-Chipgeneration for the suitable plays yet not appeared. At least up to then NVIDIA may stress further the crown of the fastest diagram map for itself.
Net zo snel als de 8800GTS, maar schaalt beter mee met hogere resoluties/geheugengebruik
"Always remember to quick save" - Sun Tzu
Anoniem: 107573
Nvidia zal ook niet stilzitten, haar niewe drivers komen ook maandag. Ik ben beniewd wat zij nog uit de GPU kunnen persen, in zowel DX9 en 10.
Niet op voorraad.
Anoniem: 107573
Dus er zit geen convertor bij om 2 molex connectors om te zetten naar een 8pin. Wat moet je er dan wel op aansluiten? Een 6pin connector? Ik kan me voorstellen dat deze kaart minder goed presteert als hij niet genoeg stroom krijgt..Quote:
Originally Posted by x800guy View Post
did it come with some sort of adapter that outputs to 8pin pci-express plug?
No, they do not give it
tha fan is quite sillent, it will roarrr when launch 3D apps
FYI the card is HOT ... *even I do not know bout GTX temp*
Dat is gewoon het zelfde als bij een ATX 24Pins mobo een 20Pins ATX stekker er in steken.Flying schreef op zaterdag 12 mei 2007 @ 23:31:
Van Rage3D:
[...]
Dus er zit geen convertor bij om 2 molex connectors om te zetten naar een 8pin. Wat moet je er dan wel op aansluiten? Een 6pin connector? Ik kan me voorstellen dat deze kaart minder goed presteert als hij niet genoeg stroom krijgt..
(of een 8 pins 12v een 4 pins 12v er in steken)
Hmm tja, moeilijk oordelen...
Ik heb al een aantal keer horen zeggen dat ATI de drivers echt op DX10 richt, en Nv nu nog bezig is met DX9. Ik denk zelf ook dat Nv strax zig meer op DX10 gaat richten met de drivers. (als DX10 benches komen zoals 3Dmark07)
[ Voor 29% gewijzigd door MexxT op 13-05-2007 00:06 ]
Audi S3
Dit gaat raar klinken maar ATi heeft zelf nog gezegd dat de dx10 sdk demos niet indicatief zijn van de performance van dx10 kaarten.anandus schreef op zaterdag 12 mei 2007 @ 23:20:
[...]
Interessant, ik vraag me vooral af hoezeer die DX10-test klopt (gameperfomancetechnisch gesproken dan).
De tests maken trouwens gebruik van AAA. Vraag me af of dat nog de oude vorm is van Quality AAA die gebruik maakt van Supersampling. Dacht dat EATM, wat een betere IQ geeft, pas in Catalyst 7.5 geintegreerd werd, maar heb niks gehoord of dit ook al in de 8.374 drivers zat. Als het er niet in zit dan kan de performance dus nog wel iets omhoog terwijl de IQ beter wordt.anandus schreef op zaterdag 12 mei 2007 @ 23:20:
[...]
Interessant, ik vraag me vooral af hoezeer die DX10-test klopt (gameperfomancetechnisch gesproken dan).
Door G-translate gehaald:
[...]
Verder bevestigt het de eerdere reviews:
Net zo snel als de 8800GTS, maar schaalt beter mee met hogere resoluties/geheugengebruik
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb namelijk een 600Watt voeding, met 48A op de 12V.. Meer dan genoeg power voor een HD2900XT lijkt mij, helaas heeft hij twee keer een 6 pins.
Als ze nou een stekkertje maken om van 2 molexen (evt 3) naar een 8 pins PCI-e connector dan zal het overclocken al heel wat toegankelijker worden voor een hoop mensen.
ik denk dat een 6pins + molex (of 2) -> 8pins, makkelijker is. maargoed ik denk dat zulk soort verloopjes nog wel verschijnen.Viasco schreef op zondag 13 mei 2007 @ 01:59:
Hoeveel volt kan er maximaal uit een molex stekker komen?
Ik heb namelijk een 600Watt voeding, met 48A op de 12V.. Meer dan genoeg power voor een HD2900XT lijkt mij, helaas heeft hij twee keer een 6 pins.
Als ze nou een stekkertje maken om van 2 molexen (evt 3) naar een 8 pins PCI-e connector dan zal het overclocken al heel wat toegankelijker worden voor een hoop mensen.
Ach en anders zetten we zelf wel wat in elkaar
Pff.. Het wordt echt moeilijk om me in te houden, ik heb geld zat voor de HD2900XT maar toch ben ik er nog niet zeker van of het wel een goede koop is

Maar aan de andere kant; als ik hem NU bestel heb ik meer kans dat ik 1'tje heb met van die vlammen erop, die moet ik hebben
Hoezo?Viasco schreef op zondag 13 mei 2007 @ 02:22:
Kan ook nog, maakt mij niet zoveel uit. Maar vind dat je als "gewone" gebruiker niet verplicht moet zijn om een flinke voeding te kopen van meer als 150 á 200 euro. Want er zijn genoeg voedingen die het vermogen wel hebben alleen het stekkertje niet.
Ach en anders zetten we zelf wel wat in elkaar
Pff.. Het wordt echt moeilijk om me in te houden, ik heb geld zat voor de HD2900XT maar toch ben ik er nog niet zeker van of het wel een goede koop is![]()
Maar aan de andere kant; als ik hem NU bestel heb ik meer kans dat ik 1'tje heb met van die vlammen erop, die moet ik hebben
Zijn die beperkt?
Wat komt er daarna?
Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW
Later worden ze wss anders, zoals dit bijv:

en dit:

Ik wil vlammen! Letterlijk en figuurlijk
[ Voor 9% gewijzigd door Vinze op 13-05-2007 02:37 ]
Anoniem: 38733
dus eventueel vanaf zou kunnen halen)
Die Sapphire heeft ze iig niet.
Trouwens, wat ze bij Sapphire gedacht moeten hebben is mij een raadsel. "Kom, we doen eens creatief met een schaar en wat karton?"
Die koeler zal best goed zijn, maar lijkt echt nergens op.
[ Voor 130% gewijzigd door Anoniem: 38733 op 13-05-2007 02:45 ]
Even een aansteker erbij houden; dan zie je ook vlammen.Anoniem: 38733 schreef op zondag 13 mei 2007 @ 02:40:
Is het niet zo dat die vlammen gewoon onder die MSI sticker zitten? (die je er
dus eventueel vanaf zou kunnen halen)
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 38733
Die aansteker is niet nodig, de kaart wordt uit zichzelf al zo heetRappieRappie schreef op zondag 13 mei 2007 @ 02:54:
[...]
Even een aansteker erbij houden; dan zie je ook vlammen.
maar als ik het goed begrijp kan die XT dus ook aardig mee met een GTX
alleen qua stroomverbruik zal het denk ik tegenvallen....ook heeft die XT maar een 256 bit geheugenbus....het prijsverschil tussen een GTS 640 mb en een X2900XT is haast niks...beiden rond de 370 dus voor mij zal het 1 van die 2 worden....
hoe zit dat eigelijk met die stroomaansluitingen? kun je die aTi ook gewoon met 2 6pins aansluitingen laten draaien?
En hij heeft trouwens een 512 bit geheugenbus, geen 256
ow, ik d8 dat ik dat net nog ergens had gezien, van een 256 bit bus...nouwja is ook wel weer erg verwarrend al die kaartnamen lijken zo op elkaarViasco schreef op zondag 13 mei 2007 @ 03:22:
2900XT draait ook op 2x een 6 pins aansluiting. Alleen kan je wss iets minder ver overclocken.
En hij heeft trouwens een 512 bit geheugenbus, geen 256
of 1x6pin en 1x8pin als je een goede overclock wil neer zetten.Flying schreef op zondag 13 mei 2007 @ 09:13:
Dus als ik het goed begrijp moet je of een 8pin aansluiten op de kaart of 2 x 6pin?
Vraag me af of die "roarr" tijdelijk is, of constant loeit als je een 3D app draait...tha fan is quite sillent, it will roarrr when launch 3D apps
FYI the card is HOT ... *even I do not know bout GTX temp*
Een kaart die van mijn kamer een sauna maakt wel...
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Jezus mensen dit is al ik weet niet hoe vaak uitgelegd:Flying schreef op zondag 13 mei 2007 @ 09:13:
Dus als ik het goed begrijp moet je of een 8pin aansluiten op de kaart of 2 x 6pin?
2x6 Pin werkt prima.
1x8p en 1x6p Zorgt er voor dat de Overdive tab in de driver te gebruiken is.
Met tools zoals powerstrip en ATi Tool kun je de kaart ook met 2x6p overclocken. AMD raad dit alleen niet aan omdat het maximale vermogen over de PCI-E bus 75 watt is en de 2x6p stekkers ook bijde 75 Watt hebben dus een max van 225 Watt. Met zware overclocks en vooral voltage overclocks zou dit vermogen hoger kunnen worden.
Goede voedingen kunnen dat wel aan en de kabels die gebruikt worden ook maar niet alle zullen dit even goed kunnen. En Eventueel kun je dus met 1x8p en 1x6p wat hogere overclocks halen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
(Als het er nog niet instaat)
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 107626
Uit de HD2900 XT manual:Flying schreef op zondag 13 mei 2007 @ 09:13:
Dus als ik het goed begrijp moet je of een 8pin aansluiten op de kaart of 2 x 6pin?
Connect either two 2x3-pin PCIe™ power connectors, or one 2x3-pin and one 2x4-pin PCIe™ power connector to the graphics card.
When connecting a 2x3-pin PCIe™ power connector to the 2x8-pin connection on the ATI Radeon™ HD 2900 Series, as shown in the previous illustration, the connector should cover the 6 pins of the 2x4-pin connection that are closest to the 2x3-pin connection on the card.
Note: For optimal performance, and for ATI Overdrive and ATI CrossFire™ configurations, use one 2x3-pin and one 2x4-pin PCIe™ power connectors on a 750 watt or better power supply. For more information on using your ATI Radeon™ HD 2900 Series with two 2x3-pin PCIe™ power connectors, see Force Full Performance in the ATI Catalyst™ Control Center.
Hier hebben ze zich toch een beetje voor paal gezet ben ik bang. Kijk eens op 2560x1600 16xAA/16xAF in Prey 34,2 fps voor de 2900XT terwijl dat op 2560x1600 met 8xAA/16xAF in Prey 33,1 fps voor de 2900XT oplevert. 16xAA ipv 8xAA en een hogere framerate? Nog nooit gezien, lijkt mij duidelijk fake. Morgen beter, want ik heb nog geen behoorlijke en consistente benchmark op 2560x1600 gezien, of een uitspraak over het idle stroom verbruik... waar zitten alle mensen die lekken met hun hoofd? Lek eens wat nieuwsFly-guy schreef op zaterdag 12 mei 2007 @ 12:47:
nieuwe (datum 11 mei) review van it-review.net, nu op een 975 platform..
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
ATI's software fop je er in ieder geval mee, dus die automagische overclocking en zo wordt geactiveerd. Wel zorgen dat je voeding het trekt en kabeltjes heeft die niet te heet worden als ze meer stroom moeten leveren dan normaal, verder geen probleem.
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
* anandus moet eens kijken of zijn voeding een 8-pins heeft.
Al heb ik maar een 500W voeding

Zijn die 8-pins alleen te vinden op 750W-voedingen?
[ Voor 25% gewijzigd door anandus op 13-05-2007 12:26 ]
"Always remember to quick save" - Sun Tzu
http://www.thermaltake.co...oughPower/W0104/w0104.asp
die komt in mijn nieuwe systeem , hopenlijk is silent bij TT ook echt stil
вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
Anoniem: 151122
[edit]sorry, werkt pas na verversen.
[ Voor 55% gewijzigd door Anoniem: 151122 op 13-05-2007 12:55 ]
Klopt dat er (weer) vreemde resultaten gemeld worden...Bas van der Doorn schreef op zondag 13 mei 2007 @ 12:17:
[...]
Hier hebben ze zich toch een beetje voor paal gezet ben ik bang. Kijk eens op 2560x1600 16xAA/16xAF in Prey 34,2 fps voor de 2900XT terwijl dat op 2560x1600 met 8xAA/16xAF in Prey 33,1 fps voor de 2900XT oplevert. 16xAA ipv 8xAA en een hogere framerate? Nog nooit gezien, lijkt mij duidelijk fake. Morgen beter, want ik heb nog geen behoorlijke en consistente benchmark op 2560x1600 gezien, of een uitspraak over het idle stroom verbruik... waar zitten alle mensen die lekken met hun hoofd? Lek eens wat nieuws
Hopen dat er inderdaad vanaf morgen snel betrouwbare review komen...
Ik denk dat de meeste sites hun werk al wel klaar hebben en alleen nog meer even op de ''post'' knop hoeven te douwen?

вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
Ja, maar nu er van beide kampen nog even snel drivers worden doorgestuurd die veel betere performance beloven zullen ze wel uitkijken naar het moment dat ze die knop echt kunnen indrukken. Tot die tijd is het koffie knippen (wat nodig is als je echt hele sterke koffie zet, leve de cafeïnedreameater schreef op zondag 13 mei 2007 @ 13:00:
Ik neem toch aan dat er morgen wel aardig wat reviews meteen op staan.
Ik denk dat de meeste sites hun werk al wel klaar hebben en alleen nog meer even op de ''post'' knop hoeven te douwen?
[ Voor 4% gewijzigd door OruBLMsFrl op 13-05-2007 13:08 ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Nee dat is een gephotoshopte x1900xtx van meer dan een half jaar oudAnoniem: 151122 schreef op zondag 13 mei 2007 @ 12:52:
Is dit de toekomst?
[edit]sorry, werkt pas na verversen.
(door een GoTter gemaakt als ik me niet vergis)
eigenlijk een gephotoshopte x1950xtxprimusz schreef op zondag 13 mei 2007 @ 13:09:
[...]
Nee dat is een gephotoshopte x1900xtx van meer dan een half jaar oud
(door een GoTter gemaakt als ik me niet vergis)
heb verder weinig fratsen in m'n PC, 1 hddtje, 1 dvd brandertje...
voor de rest weinig....een 6800 GS gaat er dan uit voor een X2900XT of een 8800 GTS...
8800 GTS moet ie haast wel trekken....dat was dacht ik maar een 150 watt
zou die een x2900xt trekken?
Die 8 pins moet op het moederbord en past niet op de HD2900XT!dreameater schreef op zondag 13 mei 2007 @ 12:47:
Nee zitten dacht ik ook op de 650 Watt van Thermaltake Thoughpower serie!
http://www.thermaltake.co...oughPower/W0104/w0104.asp
die komt in mijn nieuwe systeem , hopenlijk is silent bij TT ook echt stil
Hij heeft twee PCI-e 6 pins stekkertjes voor een videokaart.
Ik heb zelf de 600 watt besteld, en die is bijna exact hetzelfde als de 650 watt versie alleen kan je 650W 4 ampere meer leveren op de 12V lijn.
Heb de scores ook even tegen elkaar gezet en heb het idee dat ze de scores door elkaar gehaald hebben, want de scores uit o.a. Prey lopen juist op van 4xAA naar 16xAA. Ook de scores van Stalker klopt geen hout. GTX gaat er op vooruit van 8xAA naar 16xAA. GTS werderom van 4xAA naar 8xAA. In oblivion is de 2900XT sneller met 8xAA tov 4xAA. Daarna ben ik maar gestopt, want toen was het voor mij wel duidelijk.Bas van der Doorn schreef op zondag 13 mei 2007 @ 12:17:
[...]
Hier hebben ze zich toch een beetje voor paal gezet ben ik bang. Kijk eens op 2560x1600 16xAA/16xAF in Prey 34,2 fps voor de 2900XT terwijl dat op 2560x1600 met 8xAA/16xAF in Prey 33,1 fps voor de 2900XT oplevert. 16xAA ipv 8xAA en een hogere framerate? Nog nooit gezien, lijkt mij duidelijk fake. Morgen beter, want ik heb nog geen behoorlijke en consistente benchmark op 2560x1600 gezien, of een uitspraak over het idle stroom verbruik... waar zitten alle mensen die lekken met hun hoofd? Lek eens wat nieuws
Wil niet meteen zeggen dat het fake is, maar kloppen doet het iig niet.
voor alle info over de 8pins connectors:Viasco schreef op zondag 13 mei 2007 @ 13:43:
[...]
Die 8 pins moeten op het moederbord en past niet op de HD2900XT!
Hij heeft twee PCI-e 6 pins stekkertjes voor een videokaart.
Ik heb zelf de 600 watt besteld, en die is bijna exact hetzelfde als de 650 watt versie alleen kan je 650W 4 ampere meer leveren op de 12V lijn.
http://www.jonnyguru.com/forums/showthread.php?t=1220
er zijn dus 2 verschillende, 1 8pin voor je moederbord en 1 8pin voor je videokaart.
erg verwarrend dus.
Anoniem: 182822
AMD raadt in ieder geval minimaal 750Watt aanThrills33ka schreef op zondag 13 mei 2007 @ 13:43:
de vraag is nu alleen nog of mijn Enermax Liberty 400W deze kaart trekt...(en dan wel een beetje ruim graag)
heb verder weinig fratsen in m'n PC, 1 hddtje, 1 dvd brandertje...
voor de rest weinig....een 6800 GS gaat er dan uit voor een X2900XT of een 8800 GTS...
8800 GTS moet ie haast wel trekken....dat was dacht ik maar een 150 watt
zou die een x2900xt trekken?
[ Voor 18% gewijzigd door anandus op 13-05-2007 14:11 ]
"Always remember to quick save" - Sun Tzu
Anoniem: 23009
De HD 2900XT is 9,5" aka 23,75 cm langAnoniem: 182822 schreef op zondag 13 mei 2007 @ 13:54:
Hoelang is die 2900 XT kaart trouwens, want ik hoorde dat een 8800 niet in een Antec ninehunderd gaming kast paste en die kast wil toch wel graag hebben vanwege zijn mooie uiterlijk en goede fans voor overclocken. Ik weet niet of ze het over de GTX of GTS hadden, maar ze kwamen 2 cm tekort waardoor er iets van een bracket afgezaagd moest worden ofzo, dus als de 2900 XT 2 cm korter is moet dat geen problemen opleveren. Iemand een ideeof een linkje.
oftewel dit moet wel duidelijk genoeg zijn

[ Voor 98% gewijzigd door Anoniem: 23009 op 13-05-2007 14:05 ]
WoW....serieus, maar dat is echt ziekelijk hoor....
750 watt, waar zijn we mee bezig?
das bijna dubbele van mijn voeding, waarom zou je dat nodig hebben? dat zou al voldoende moeten zijn voor een crossfire opstelling ja
Ja, ik denk ook dat ze voor de zekerheid voor een CF setup gaan, dan gebruiken de kaartjes 450W (Thrills33ka schreef op zondag 13 mei 2007 @ 14:03:
[...]
WoW....serieus, maar dat is echt ziekelijk hoor....
750 watt, waar zijn we mee bezig?
das bijna dubbele van mijn voeding, waarom zou je dat nodig hebben? dat zou al voldoende moeten zijn voor een crossfire opstelling ja

"Always remember to quick save" - Sun Tzu
Anoniem: 23009
heh leuk voor de mensen die bij de ENECO werkenanandus schreef op zondag 13 mei 2007 @ 14:04:
[...]
Ja, ik denk ook dat ze voor de zekerheid voor een CF setup gaan, dan gebruiken de kaartjes 450W (), heb je nog 300W over voor de rest
Maare ook de reden dat ik de R600 overslaat gewoon te gek voor woorden qua stroom verbruik, laten we hopen dat de R650/R670/R680 het beter gaat doen qua stroom verbruik.
Als de 2900XT 240watt zou gebruiken (even ruim genomen) heeft hij dus 20 ampere nodig.
De rest van je systeem heeft ongeveer 12A nodig, dat is 144 watt.
Dan heb je een voeding nodig die ongeveer 35A kan leveren op de 12V.
[ Voor 4% gewijzigd door Vinze op 13-05-2007 14:11 ]
Tja, das leuk voor Q-Tec en no-name spul. Ik heb een Liberty 500W en die trekt 32A op de 12V lijn. Dat is ruim voldoende naar mijn idee, zelfs als de 2900XT de volle 225Watt trekt. De voeding heeft een efficiency van <= 80%, oftewel trekt 600Watt uit het stopcontact als hij 500Watt moet leveren bij die efficiency. Nu trekt mijn systeem met een 7800GT 'slechts' 270Watt uit het stopcontact. Met een 2900XT zou dat dus stijgen tot 400-425, nog steeds maar ~70% van zijn maximale vermogen. En met dit soort voedingen moet dat makkelijk kunnen, 105% ook nog wel, daar worden ze uitgebreid op getest. Het is nooit aan te raden boven de 90% te gaan natuurlijk omdat er best situaties zijn waarbij het systeem even meer trekt, of iemand langskomt die een paar USB devices inplugt. Bij Q-tec spul is het vermogen op de doos echter het piekvermogen, dus na een paar seconden (of minuten, niet overdrijven) brandt ie door of schakelt hij zichzelf uit
Maar goed, een Liberty 400W lijkt me een 2900XT niet confortabel meer te gaan trekken, dat wordt echt erg krap. Ligt natuurlijk een beetje aan je systeem, maar 400-425W uit het stopcontact trekken met een 400W voeding aan 80% efficiency komt toch al erg dicht bij de 90% die ik eerder noemde. Waarschijnlijk doet ie het nog wel hoor, maar hij zal flink meer herrie gaan maken, minder efficient draaien en geen ruimte voor upgrades meer overlaten.
[ Voor 16% gewijzigd door OruBLMsFrl op 13-05-2007 14:12 . Reden: Advies na gespam :P ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Uit de handleiding van de HD2900XT:

"Always remember to quick save" - Sun Tzu
ok dat is dan dus eigelijk geen optie...Bas van der Doorn schreef op zondag 13 mei 2007 @ 14:09:
[...]
Tja, das leuk voor Q-Tec en no-name spul. Ik heb een Liberty 500W en die trekt 32A op de 12V lijn. Dat is ruim voldoende naar mijn idee, zelfs als de 2900XT de volle 225Watt trekt. De voeding heeft een efficiency van <= 80%, oftewel trekt 600Watt uit het stopcontact als hij 500Watt moet leveren bij die efficiency. Nu trekt mijn systeem met een 7800GT 'slechts' 270Watt uit het stopcontact. Met een 2900XT zou dat dus stijgen tot 400-425, nog steeds maar ~70% van zijn maximale vermogen. En met dit soort voedingen moet dat makkelijk kunnen, 105% ook nog wel, daar worden ze uitgebreid op getest. Het is nooit aan te raden boven de 90% te gaan natuurlijk omdat er best situaties zijn waarbij het systeem even meer trekt, of iemand langskomt die een paar USB devices inplugt. Bij Q-tec spul is het vermogen op de doos echter het piekvermogen, dus na een paar seconden (of minuten, niet overdrijven) brandt ie door of schakelt hij zichzelf uit
Maar goed, een Liberty 400W lijkt me een 2900XT niet confortabel meer te gaan trekken, dat wordt echt erg krap. Ligt natuurlijk een beetje aan je systeem, maar 400-425W uit het stopcontact trekken met een 400W voeding aan 80% efficiency komt toch al erg dicht bij de 90% die ik eerder noemde. Waarschijnlijk doet ie het nog wel hoor, maar hij zal flink meer herrie gaan maken, minder efficient draaien en geen ruimte voor upgrades meer overlaten.
tja zolang heb ik mijn voeding nog niet, dus dat moet toch nog wel een jaartje meegaan eigelijk.
anders toch maar voor een 8800 GTS gaan anders wordt het wel een heel duur grapje
Het gaat daar om crossfire, dus 2 videokaarten. Dan zie je dat de Liberty 400W een X1800 crossfire opstelling kan trekken. Bij de X1900/X1950 staat alleen nog de 620W liberty, maar wel bijvoorbeeld een Ultra Xfinity XF500BK ULT-XF500 (500W). Ik denk dat de jongens van AMD ook nog wel wat marge nemen, meer dan absoluut noodzakelijk is vanuit electrisch oogpunt in ieder geval. Een 2900XT zal wel wat meer trekken dan een X1800 crossfire opstelling, maar veel scheelt het niet meer.
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Anoniem: 182822
Zeer duidelijk ja en bedankt voor het antwoord en nu nog een goede voeding, maar dat gaat ook vanzelf hier en dan volgende week nieuw systeem bestellen. Ik heb trouwens net het kerstochtend gevoel. Ik ben nu mijn werk voor maandagochtend al aan het doen, als ik morgen dan op kantoor kom is het eerst reviews lezen op zoveel mogelijk verschillende sitesAnoniem: 23009 schreef op zondag 13 mei 2007 @ 14:01:
[...]
De HD 2900XT is 9,5" aka 23,75 cm langaangezien dat 1" overheen komt met 2,5cm
oftewel dit moet wel duidelijk genoeg zijn
[afbeelding]
Meestal is een 3D app een game, m'n 5.1 setje of headset maakt denk ik meer geluid dan de fanFly-guy schreef op zondag 13 mei 2007 @ 10:27:
Van Rage3D:
[...]
Vraag me af of die "roarr" tijdelijk is, of constant loeit als je een 3D app draait...
Voor minder dan 100 euro heb je een voeding die een 2900XT makkelijk trekt, verkoopwaarde van je oude voeding is zoiets 30-40 euro, dus zeg dat je er zoiets 40-70 euro op moet toeleggen afhankelijk van je keuze. Eventueel kun je ook nog tweede hands een voeding zoeken die het trekt. Op vraag en aanbod heb je voor 50-75 euro al een voeding waar je mee uit de voeten kunt, kost je dan nog slechts 10-45 euro. Op een videokaart van 340 euro is dat een relatief klein bedrag, maar goed, als dat echt het maximum van je budget is heb je een probleem...Thrills33ka schreef op zondag 13 mei 2007 @ 14:14:
[...]
ok dat is dan dus eigelijk geen optie...
tja zolang heb ik mijn voeding nog niet, dus dat moet toch nog wel een jaartje meegaan eigelijk.
anders toch maar voor een 8800 GTS gaan anders wordt het wel een heel duur grapje
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Dus ik zou zeggen minimaal 550 watt ( to be on the save side ) en aanbevolen een goede 750-850+ watt voeding.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Voor crossfire wel, maar voor een enkel kaartje niet. Mijn 500 Watt voeding levert 32A = 384W op de 12V rail. Meer dan zat voor een 2900XT en twee harddisks a 10Watt en nog twee DVD branders van 15Watt en dan nog wat fans van een paar Watt elk. Een 750Watt voeding zou dus ruim voldoende zijn voor 2900XT crossfire. Als je wilt overclocken in crossfire met voltageverhogingen, dan is 850Watt misschien een keer handig, maar wie gaat dat nou ooit echt doen, ipv alleen maar plannen/hopen, 5% van de mensen die dit topic lezen?Astennu schreef op zondag 13 mei 2007 @ 14:29:
Mensen wil je zeker zijn dat je geen problemen krijgt raad AMD 750 watt aan het kan met minder !!!. Maar ik zou zelf niet lager gaan dan 550 watt. Ik had zelf X1900 in CF en dan kwam ik piek tot 500 en het is toch wel handig om wat over te hebben. Met een 400 Watt zou ik er niet aan beginnen ook niet een een 8800 GTS want dat wordt gewoon te krap. En een 400 watt voeding levert geen 300 watt op de 12v en die heb je daar dan wel nodig voor de vga kaarten en andere dingen in de pc gebruiken ook nog 12v.
Dus ik zou zeggen minimaal 550 watt ( to be on the save side ) en aanbevolen een goede 750-850+ watt voeding.
[ Voor 4% gewijzigd door OruBLMsFrl op 13-05-2007 14:36 ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Heb nu een x850xt in mijn computer, maar wist niet hoe snel ik de stock koeler moest vervangen door een AC ati silencer 5, vooral vanwege het lawaai.. Daar kon een speakerset wel tegenop, maar leuk was anders... (wel handig in FS2004R-O-Y schreef op zondag 13 mei 2007 @ 14:25:
[...]
Meestal is een 3D app een game, m'n 5.1 setje of headset maakt denk ik meer geluid dan de fan![]()
En nu we toch aan het babbelen zijn over PSU's en crossfire, wat nu als het hele physics gedoe doorgaat en je een x1800/1900 wil gebruiken daarvoor, gebruiikt die extra kaart dan 100% van zijn nortmale gebruik, als je hem als standalone videokaart gebruikt? (als er al info is over zoiets)
Met andere woorden, hoeveel watt ben je dan geschat kwijt aan een 2900xt en x1900 physics?
[ Voor 29% gewijzigd door Fly-guy op 13-05-2007 14:41 ]
Mijn enermax 500watt heeft 384watt op de 12V, die kan dit kaartje met gemak hebbenAstennu schreef op zondag 13 mei 2007 @ 14:29:
Mensen wil je zeker zijn dat je geen problemen krijgt raad AMD 750 watt aan het kan met minder !!!. Maar ik zou zelf niet lager gaan dan 550 watt. Ik had zelf X1900 in CF en dan kwam ik piek tot 500 en het is toch wel handig om wat over te hebben. Met een 400 Watt zou ik er niet aan beginnen ook niet een een 8800 GTS want dat wordt gewoon te krap. En een 400 watt voeding levert geen 300 watt op de 12v en die heb je daar dan wel nodig voor de vga kaarten en andere dingen in de pc gebruiken ook nog 12v.
Dus ik zou zeggen minimaal 550 watt ( to be on the save side ) en aanbevolen een goede 750-850+ watt voeding.
M'n broertje heeft de x800GTO, die hoor ik een verdieping lager nogFly-guy schreef op zondag 13 mei 2007 @ 14:38:
[...]
Heb nu een x850xt in mijn computer, maar wist niet hoe snel ik de stock koeler moest vervangen door een AC ati silencer 5, vooral vanwege het lawaai.. Daar kon een speakerset wel tegenop, maar leuk was anders... (wel handig in FS2004)
[ Voor 26% gewijzigd door R-O-Y op 13-05-2007 14:41 ]
Ik weet niet wat op het moederbord ook nog 12v gebruikt in ieder geval de PCI-E sloten. Maar dan gaat het wel hard met je 384 watt die je hebt.Bas van der Doorn schreef op zondag 13 mei 2007 @ 14:34:
[...]
Voor crossfire wel, maar voor een enkel kaartje niet. Mijn 500 Watt voeding levert 32A = 384W op de 12V rail. Meer dan zat voor een 2900XT en twee harddisks a 10Watt en nog twee DVD branders van 15Watt en dan nog wat fans van een paar Watt elk. Een 750Watt voeding zou dus ruim voldoende zijn voor 2900XT crossfire. Als je wilt overclocken in crossfire met voltageverhogingen, dan is 850Watt misschien een keer handig, maar wie gaat dat nou ooit echt doen, ipv alleen maar plannen/hopen, 5% van de mensen die dit topic lezen?
En ik zeg toch X1900 CF setup met een PIEK verbruik van 500 watt. En die kaarten gebruiken 120-130 watt per stuk. Dus vind je een 550 watt voeding dan te weinig ? ik niet. Ik zou niet 24/7 durven draaien met zo'n belasting om een 500 watt PSU. Vandaar dat mijn 550 er nu al uit gaat en vervangen wordt voor een 1000 watt. Beter over dan te weinig want daar kan je systeem instabiel van worden. En ik tweak me pc wel op performance per watt. En ik haal de rek dus uit me VGA kaart / CPU en geheugen dus als de de spanning dan lager wordt heb ik daar last van dus ik moet een goede voeding hebben. En met die 1000 watt kan ik de komende 3 jaar wel mee vooruit
Ik kan jullie alleen maar advies geven over wat mijn ervaringen zijn. Wat je zelf doet moet je zelf weten. ? Ik zeg er wel even bij dat die 500 watt piek het vermogen was uit het stopcontact. Dus het echte verbruik van de voeding zal toen op +-425 hebben gezeten maar mijn cpu liep op een lager voltage dan standaard en gebruikte lang geen 90 watt. Alle onderdelen waren toen ook niet helemaal max belast. Dit was namelijk gemeten tijdens een HL2 potje.
Maar als je dus een quad core pc hebt of een zwaar overgeclockte C2D gebruik je veel meer stroom. Ik gebruikte met mijn cpu maar iets van 70 watt. Een overgeclockte C2D of X2 met voltage verhoging zit al rond de 120-130 en een overgeclockte quad core richting de 180-200. Dus dat moet je ook mee nemen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
maar een 400W voeding van Enermax trekt een 8800 GTS wel hoor...is geloof ik maar 150 watt maximaal bij full load..zelfs een GTX zou nog moeten kunnen met 200-225...Bas van der Doorn schreef op zondag 13 mei 2007 @ 14:27:
[...]
Voor minder dan 100 euro heb je een voeding die een 2900XT makkelijk trekt, verkoopwaarde van je oude voeding is zoiets 30-40 euro, dus zeg dat je er zoiets 40-70 euro op moet toeleggen afhankelijk van je keuze. Eventueel kun je ook nog tweede hands een voeding zoeken die het trekt. Op vraag en aanbod heb je voor 50-75 euro al een voeding waar je mee uit de voeten kunt, kost je dan nog slechts 10-45 euro. Op een videokaart van 340 euro is dat een relatief klein bedrag, maar goed, als dat echt het maximum van je budget is heb je een probleem...
een X2900XT daarentegen is een iets ander verhaal...
en om deze huidige voeding te verkopen, moet ik wel eerst geld hebben voor een nieuwe fatsoenlijke, kan niet tijdelijk zonder voeding zitten
denk dat het wel sterk overdreven wordt die voeding eisen...vooral voor de GTS schijnt dat mee te vallen...lees maar eens wat reviews, 150 watt is echt max voor zo'n ding....x2900XT is wel een iets ander verhaal dan ja
Anoniem: 182822
Dus met andere woorden als je wilt gaan overclocken (processor) en je hebt één 2900 XT kaartje dan volstaat 550 watt ook al niet meer, dan ga ik toch maar voor een Coolermaster igreen 600 of 700 watt. Ik heb namelijk wel eens meer een te lage voeding gehad bij een nieuwe pc en de gevolgen waren desastreus. Ik geef je 100% gelijk dat je beter meer kan over hebben, dan dat je over je 90% capaciteit komt.Astennu schreef op zondag 13 mei 2007 @ 15:02:toon volledige bericht
[...]
Ik weet niet wat op het moederbord ook nog 12v gebruikt in ieder geval de PCI-E sloten. Maar dan gaat het wel hard met je 384 watt die je hebt.
En ik zeg toch X1900 CF setup met een PIEK verbruik van 500 watt. En die kaarten gebruiken 120-130 watt per stuk. Dus vind je een 550 watt voeding dan te weinig ? ik niet. Ik zou niet 24/7 durven draaien met zo'n belasting om een 500 watt PSU. Vandaar dat mijn 550 er nu al uit gaat en vervangen wordt voor een 1000 watt. Beter over dan te weinig want daar kan je systeem instabiel van worden. En ik tweak me pc wel op performance per watt. En ik haal de rek dus uit me VGA kaart / CPU en geheugen dus als de de spanning dan lager wordt heb ik daar last van dus ik moet een goede voeding hebben. En met die 1000 watt kan ik de komende 3 jaar wel mee vooruitwaarschijnlijk ga ik em nooit helmaal benutten aangezien pc onderdelen zuiniger worden.
Ik kan jullie alleen maar advies geven over wat mijn ervaringen zijn. Wat je zelf doet moet je zelf weten. ? Ik zeg er wel even bij dat die 500 watt piek het vermogen was uit het stopcontact. Dus het echte verbruik van de voeding zal toen op +-425 hebben gezeten maar mijn cpu liep op een lager voltage dan standaard en gebruikte lang geen 90 watt. Alle onderdelen waren toen ook niet helemaal max belast. Dit was namelijk gemeten tijdens een HL2 potje.
Maar als je dus een quad core pc hebt of een zwaar overgeclockte C2D gebruik je veel meer stroom. Ik gebruikte met mijn cpu maar iets van 70 watt. Een overgeclockte C2D of X2 met voltage verhoging zit al rond de 120-130 en een overgeclockte quad core richting de 180-200. Dus dat moet je ook mee nemen.
Ik ga zelf voor de Realpower Pro van Coolermaster. Deze zijn er in 850 en 1000 watt. Het voordeel van deze psu is het rendement wat heel hoog ligt. Hoger dan bij welke andere voeding op dit moment. En hij heeft twee 12v transformators waardoor de 12v lijn onder super zware belasting nog steeds maar 0.02v omlaag ging bij andere wat dat zelfs 0.2v of 0.15-0.1v. En hij is heel stil doordat hij een 13,5cm fan heeft.Anoniem: 182822 schreef op zondag 13 mei 2007 @ 15:11:
[...]
Dus met andere woorden als je wilt gaan overclocken (processor) en je hebt één 2900 XT kaartje dan volstaat 550 watt ook al niet meer, dan ga ik toch maar voor een Coolermaster igreen 600 of 700 watt. Ik heb namelijk wel eens meer een te lage voeding gehad bij een nieuwe pc en de gevolgen waren desastreus. Ik geef je 100% gelijk dat je beter meer kan over hebben, dan dat je over je 90% capaciteit komt.
AMD raad dus 750 watt aan. Zodat ook buget meuk voedingkjes van sweex of zo het ook doen. Een goede 500 watt zou dus moeten werken. Maar 750 is aanbevolen.Two weeks ago we told you that AMD recommends a 750W but that the Radeon HD 2900XT will work on a high end 400 to 500W as well.
As AMD is a legal company they said that with any 750W the card should work as many cheap 500W will fail to power the card. You can read the original story here.
[ Voor 20% gewijzigd door Astennu op 13-05-2007 15:21 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Helemaal mee eens, maar als je 500Watt uit het stopcontact trekt met twee videokaarten die elk 120-130Watt trekken, ofewel 240-260Watt totaal, en je gaat nu voor een kaart die max 225Watt trekt, dan kan een goede 500W voeding prima. Met een beetje CPU overclock kom je dan weer terug op 500W uit het stopcontact, wat dus een belasting van 80% van het maximale vermogen oplevert. Zou ik het zelf liever wat ruimer nemen, jazeker. Zou ik iemand aanbevelen 100 euro extra uit te geven als ie al krap zit, nee.Anoniem: 182822 schreef op zondag 13 mei 2007 @ 15:11:
[...]
Dus met andere woorden als je wilt gaan overclocken (processor) en je hebt één 2900 XT kaartje dan volstaat 550 watt ook al niet meer, dan ga ik toch maar voor een Coolermaster igreen 600 of 700 watt. Ik heb namelijk wel eens meer een te lage voeding gehad bij een nieuwe pc en de gevolgen waren desastreus. Ik geef je 100% gelijk dat je beter meer kan over hebben, dan dat je over je 90% capaciteit komt.
Zelf ga ik in ieder geval eerst op die 500W Enermax Liberty van me draaien, als er veel interesse is wil ik wel posten wat ie dan precies trekt uit het stopcontact met de CPU op resp. 2.4GHz en 3GHz. Mocht het >500W zijn koop ik zelf uiteraard ook wel een nieuwe voeding, maar daar ga ik totaal niet vanuit. Zeker niet na die hele commotie omtrent het NVidia 8800 stroomverbruik dat uiteindelijk ook <190W bleek te zijn in alle reviews, zelfs voor de GTX. Maar goed, dan moet het idle stroom verbruik van de 2900XT wel eerst meevallen, anders neem ik hem niet eens.
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Ander moet er maar een nieuw topic komen voor R600 + voeding vragen want dit gaat nu alleen nog maar over PSU's.
Morgen komen de kaartjes uit. Ik ben ook erg benieuwd naar de mobility chips. Ik vraag me af wanneer ik de eerste laptops zie met die chippies en vooral een met een AMD cpu er in.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 159816
Geloof dat Zalman een 600 watter heeft.anandus schreef op zondag 13 mei 2007 @ 12:21:
De meeste 750W voedingen hebben toch wel een 8-pins mag ik hopen?
* anandus moet eens kijken of zijn voeding een 8-pins heeft.
Al heb ik maar een 500W voeding
Zijn die 8-pins alleen te vinden op 750W-voedingen?
http://www.rage3d.com/boa...f1a392a&t=33890816&page=2
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Dat lijkt mij dan zo.
1024 vs 512 is so marketing pushend. GDDR4 klinkt ook beter dan GDDR3.
Pc gebruikers die OEM kiezen houden hun PC langer en upgraden weinig.
Dan Retail kopers
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
wat kondigt DELL morgen aan?
[ Voor 68% gewijzigd door Joepi op 13-05-2007 16:47 ]
Die scores van 3DMark06 zijn niet zo heel hoog imho. Ik dacht dat de HD2900XT zo hoog scoorde in 3DMark? Ik zie dat hij 10.600 in 3DM06 Vista haalt met zijn CPU op 3,2GHz. Een 8800GTX haalt 11.400 op die settings in Vista.winwiz schreef op zondag 13 mei 2007 @ 15:41:
Degene die hem al heeft (waar ik gister over poste) heeft nu ook ingame screenshots en dergelijke online staan.
http://www.rage3d.com/boa...f1a392a&t=33890816&page=2
Ik zie deze kaart de GTX niet inhalen voorlopig. De GTS wel.
Het zal straks in DX10 wel zo zijn dat de HD in de ene game sneller, en de GTX in de andere...
[ Voor 7% gewijzigd door Format-C op 13-05-2007 16:52 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
http://vr-zone.com/?i=4946&s=1
LOL....
Volgens mij is hun server overbelast...
[ Voor 7% gewijzigd door Format-C op 13-05-2007 16:53 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
De server op vr-zone.com doet er te lang over om te antwoorden.
* Misschien is de website tijdelijk niet beschikbaar of overbelast. Probeer over
enkele ogenblikken opnieuw.
* Controleer uw netwerkverbinding indien u geen enkele pagina kunt laden.
* Verzeker u ervan dat Firefox toegang heeft tot het web als uw
computer of netwerk beveiligd is door een firewall of proxyserver.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Hehe. Als-ie online komt zal ik Visionairy even vragen of-ie wel door heeft dat-ie te vroeg is met het plaatsen van de review.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb hem nog niet uit.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
I guess you've got to be a little more patient in waiting for driver updates to make the X2900XT shine in this game. With it right now, 2048x1536 16xAF will run smooth as silk on the X2900XT, and probably with at least 4xAA when driver issue gets resolved.

Dit is een uitzondering, en niet representatief!
Ik poost het, om "het probleem" duidelijk te maken, met de beste bedoelingen.
Ati - doe er iets aan!
Hier een betere score, om te relativeren:

[ Voor 26% gewijzigd door Joepi op 13-05-2007 17:19 ]
Ik was namelijk van plan om twee Asus HD2900XT's in mijn systeem te hangen. Met een 700W BeQuiet voeding + een Thermaltake 250W internal PSU moet dat toch wel lukken.
Deze zomer drijf ik echt weg op mijn kamer. Slechte isolatie, recht onder een schuin dak waar de zon de hele dag op schijnt, veel ramen, computer die met alles erbij aan 1kW stroom trekt..
Dit staat er trouwens in die manual, nog niet eerder gezien volgens mij:
Mijn X1900XTX wordt ook wel behoorlijk heet op die ijzeren bodemplaat ondr het plastic. Daar kon je je vingers ook al bijna aan branden.CAUTION - Some graphics cards, such as the ATI Radeon™ HD 2900
Series can get quite hot while operating. Touch the graphics card to
ensure that it is cool enough to handle before attempting to remove it.
Goud is geen geld
Beetje sneu idd...
Maar goed; de 8800GTX is in veel gevallen echt veel sneller dan de HD2900... Ja, met 16x AA komt hij wat dichtbij. Maar daarmee gamed toch nagenoeg niemand.

Als de GTX goedkoper gaat worden heeft ATi een groot probleem denk ik.
[ Voor 23% gewijzigd door Format-C op 13-05-2007 17:11 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX

вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
dreameater schreef op zondag 13 mei 2007 @ 17:08:
MAAK SCREENSHOTS VAN DE TABELLEN WIE ER OP KAN , DIT gAAT OM LEVEN EN DOOD
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
[ATi Radeon 2000 Series Launch: X2900XT Review ]
Page Title: Company Of Heroes, BattleField 2142
Category: GPUs & Graphic Cards
Type: Reviews
Posted By: Shamino
Date: May 14, 2007, 3:55 am
Source: ATi
Actions: Print Article Email Del.icio.us Digg
The X2900XT seems to be tuned very well on Company Of Heroes on this set of Catalyst 8.37 drivers, surpassing the GTSes by 31 to 66%! Of course, it still has a bit of catching up to do against the GTX. Even the "old" X1950XTX managed to outrun the 320MB Superclocked GTS.
A similar lead is maintained by the X2900XT against the 8800GTSes when we go up to 1600x1200 resolution. While the X2900XT loses out to the GTX by 13%, it pulls a 31% lead over it's predecessor.
At Wide-screen High Definition resolution of 2560x1600, the X2900XT loses to the GTX by 5fps, while displaying a very visible 34% (12fps) lead over the GTSes. You can say that the game is a lot more playable on the X2900XT as compared to the GTSes at this resolution.
Well, since Anti-Aliasing settings cannot be over-ride on the game via the drivers, as I get the same frame rates even after forcing AA, and not wanting to use in-game Anti-Aliasing options not knowing how the implementation will vary across the boards according to the game, I've left ou the Anti-Aliasing tests on this game.
COH is a game the X2900XT, or even ATi's GPU solutions, is strong at, you can be sure you'll be sitting very comfortable gaming at 2560x1600 with 16xAF without hiccups!
--------------------------------------------------------------------------------
Well, you can tell that the game is more or less CPU-bottlenecked at this resolution with the 4 DX10 capable cards of this generation. The Unified Shader cards score a few fps between one another. Can't tell much from this.
Going up to 1600x1200 shows a much better picture. The NVIDIA cards seem to be tuned quite a bit better at this game than ATi's. The X2900XT loses out 5fps to the Superclocked 320MB GTS and over 10fps to the fastest card of the bunch, the GTX.
The GTX is in a league of it's own at this resolution, with the rest left much behind. The X2900XT performs very close to the GTSes.
Again, like what we've seen in our Lost coast tests, when Anti-Aliasing was turned on, the X2900XT faced performance issues, due to current driver implementation for sure as you can see it losing out to even the X1950XTX.
I guess you've got to be a little more patient in waiting for driver updates to make the X2900XT shine in this game. With it right now, 2048x1536 16xAF will run smooth as silk on the X2900XT, and probably with at least 4xAA when driver issue gets resolved.
Quake 4, Lost Coast < > NeverWinter Nights 2, Oblivion
Page: 12 - Company Of Heroes, BattleField 2142 Page: 1 - Radeon X2000 Series! ... Page: 2 - New Anti-Aliasing ... Page: 3 - DirectX 10 Demos ... Page: 4 - Radeon Mobility 2000 Series ... Page: 5 - Radeon HD X2600, X2400 Pictures ... Page: 6 - Radeon X2900XT Pictures ... Page: 7 - X2900XT Cooling ... Page: 8 - More Pictures ... Page: 9 - Clock, Heat, Power ... Page: 10 - Test Platform, Drivers ... Page: 11 - Quake 4, Lost Coast ... Page: 12 - Company Of Heroes, BattleField 2142 ... Page: 13 - NeverWinter Nights 2, Oblivion ... Page: 14 - 3D Mark 06... Page: 15 - Image Quality: 2900 16xAF vs 8800 16xAF... Page: 16 - Image Quality: Anisotropic Filtering Continued ... Page: 17 - Image Quality: Wide-Tent Anti-Aliasing... Page: 18 - Overclocking ... Page: 19 - Mod Her up!... Page: 20 - UnReal Overclocking! ... Page: 21 - Cold Bug? No!... Page: 22 - Conclusion ...
1600x1200 4xAA 16xAF:
The GTX leads the X2900XT by 22%, but now with Anti-Aliasing, the X2900XT pulls ahead of the 2 GTSes suffering a lot lesser performance drain than the GTSes. Even more than twice as fast as the X1950XTX of last gen.
When the resolution goes up to 2048x1536, the X2900XT lags behind the GTX by 24%, quite a large margin. You can say that the X2900XT is on par with the 640MB regular-clocked GTS, but embarrassingly loses out to the 320MB Superclocked 320MB GTS. 64% improvement over the X1950XTX.
HL2:
Half Life 2 Lost Coast seems to scale very well with these vide
o cards, not even facing CPU bottleneck at 1280x1024. GTX leads at over 150fps but the X2900XT commands a pretty respectable 128fps.
GTX beats the X2900XT by 16% at 1600x1200, but now we see that the X2900XT has taken the lead over the GTSes, scoring 5% lead over the Superclocked 320MB GTS. A big 55% faster performance over it's predecessor X1950XT as well.
Now wide-screen 30" High-Definition Gaming: GTX still maintains the lead with 21% higher performance. X2900XT surpasses the fastest GTS by 4fps, 7% higher performing. You won't really enjoy gaming with the X1950XT at this setting.
There is definitely a driver issue when running Anti-Aliasing on Lost Coast with the X2900XT. The performance is horrid, even losing out to a X1950XTX. Hopefully, this can be addressed at the new driver revision and we hope to see the kind of Anti-Aliasing efficiency we've seen in Quake 4 on this game. Same thing when tested at the mximum AA setting:
Neverwinter nights:
The game is hardly playable at 20fps on the X2900XT at 1600x1200 16xAF... at least the GTSes can keep the game more or less playable.
2560x1600 16xAF:
Even the GTX cannot break 30fps at this wide-screen resolution. The game is ridiculously draining on GPU power. One can forget about gaming at this resolution on the X2900XT unless the image quality settings get trimmed down.
The card performs disappointingly in this game, so I'd suggest trimming down some of the in-game eye candy to a lower level, then 1600x1200 will be playable.
Plaatjes (wel door elkaar):
















3D Mark 06 instead was ran with the highest performance settings across the cards. To get it to run, I had to modify the start-up executable to disable system checks because the card is not recognized







Perlin noise is a basic building block in many procedural texturing and modeling techniques. All texture lookups are made into a single 32bit 256x256 texture which keeps the memory bandwidth requirement reasonably low. The X2900XT does amazingly well in this case, perhaps due to a lower Memory Bandwidth requirement of this test. You see that it even beats a GTX by 15%!
[ Voor 91% gewijzigd door Format-C op 13-05-2007 17:57 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ja ziet der naar uit dat ik toch een goede keuze heb gemaakt met deze kaart
[ Voor 49% gewijzigd door Apoca op 13-05-2007 17:17 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
HD2600 -> 380M transistoren -> 45W
X1950XTX -> 384M transistoren -> +100W
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nee, maar ook niet met de nV drivers die maandag komen.Apoca schreef op zondag 13 mei 2007 @ 17:15:
Ze hebben wel niet met de nieuwste drivers getest..
Ja ziet der naar uit dat ik toch een goede keuze heb gemaakt met deze kaart
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
ATi Radeon 2000 Series Launch: X2900XT Review ]toon volledige bericht
Page Title: NeverWinter Nights 2, Oblivion
Category: GPUs & Graphic Cards
Type: Reviews
Posted By: Shamino
Date: May 14, 2007, 3:55 am
Source: ATi
Actions: Print Article Email Del.icio.us Digg
NeverWinter Nights 2 is such a resource hog, when one turns up to the best image quality in the game, it's tough to run it smooth on almost any setups. ATi has a lot to tune in this game, the X2900XT and X1950XTX just gets trounced by the NVIDIA 8800 cards in this game at this setting.
The game is hardly playable at 20fps on the X2900XT at 1600x1200 16xAF... at least the GTSes can keep the game more or less playable.
Even the GTX cannot break 30fps at this wide-screen resolution. The game is ridiculously draining on GPU power. One can forget about gaming at this resolution on the X2900XT unless the image quality settings get trimmed down.
The card performs disappointingly in this game, so I'd suggest trimming down some of the in-game eye candy to a lower level, then 1600x1200 will be playable.
--------------------------------------------------------------------------------
I love testing with Oblivion since I find the graphics still one of the best around. At 1280x1024, the game's pretty much CPU-limited on the Unified Shader cards.
The X2900XT trails behind the GTSes at this resolution, but not by much, at best 5fps. Even the GTX is only 10% faster at this setting.
The game looks gorgeous at this High Definition setting and very playable too on the X2900XT! Or even any of the current generation cards. The GTX does run quite a fair bit smoother, and you can call it a stalemate between the X2900XT and the GTSes at this setting.
Well, you don't see the X2900XT performing too well when you turn on the AA, it drops performance by 25%, while the 640MB GTS only drops performance by 10%. Agains the GTX shows itself to be way ahead of the competition in this scenario.
Now with the best AA quality, the 640MB GTS and the X2900XT is on par. The 320MB GTS is simply not able to run Oblivion at 16xQ AA setting and it crashes out of the game due to lack of sufficient onboard Memory. The game is simply breath-taking in image quality at this setting for sure!
If you want to run this game smooth with the X2900XT, 2560x1600 with 16xAF is my recommendation. To me, it looks better than 1600x1200 with 4xAA. With some tweaks though, trimming down a bit of shadows for example, you should be able to game comfortably at 1600x1200 16xAF and best AA quality!
All games ran smoothly without glitches or stability problems. However, Anti-Aliasing performance in some of the games need to be and should be addressed with newer drivers.
Anoniem: 125419
Oblivion 1280x1024, 16xAF
2900XT: 53
8800GTX: 53
8800GTS 640MB: 54
8800GTS 320MB: 54
1950XTX: 40
Oblivion: 1600x1200, 16xAF
2900XT: 45
8800GTX: 53
8800GTS 640MB: 49
8800GTS 320MB: 50
1950XTX: 33
Oblivion: 2560x1600 16xAF
2900XT: 36
8800GTX: 47
8800GTS 640MB: 38
8800GTS 320MB: 36
1950XTX: 22
Oblivion: 1600x1200 16xAF 4xAA
2900XT: 36
8800GTX: 53
8800GTS 640MB: 44
8800GTS 320MB: 36
1950XTX: 33
Oblivion: 1600x1200 16xAF 16xAA
2900XT: 28
8800GTX: 39
8800GTS: 28
(word beetje moe van nvida en vista combinaties

Dit is dus met die oude drivers?
вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
Dit topic is gesloten.
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid
Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)