Misschien erg gewaagd, maar wat als AM-ti de R600 65nm bakt?
En niet te vergeten een 1000 Watt voeding :\. Ik ga misschien wel een X1600 of X1650 XT als Physics gebruiken maar ook niet meer. Of ik ga R600 CF nemen en die ook physics er bij laten doen want dat was geloof ik ook een optie. Geen zin in een nieuw mobo deze CFX 3200 bevalt me wel. en dan moet ik ook meteen DDR II en nieuwe CPU.
Ik denk dat die R600 gewoon 0.08u is.
Ik denk dat die R600 gewoon 0.08u is.
[ Voor 5% gewijzigd door Astennu op 08-11-2006 22:09 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als alles wat mister Mike daar heeft geplaatst waar zou zijn dan denk ik dat de R600 een erg snelle kaart wordt, maar hoe dat in verhouding met de G80/81 zou staan, geen idee...
Btw, toch petje af idd voor nV met hun G80, HQAF, niet echt verwacht ook, en natuurlijk retesnel, maarja, @ what cost, ik bedoel, heet, powerhongerig, tuurlijk zelfde wordt verwacht voor de R600, maar, waarom? Maar van de andere kant, het zijn de cijfertjes die tellen en de mensen die het echt willen kopen het toch wel, iedereen is er gek voor te maken, ook al kost het je een vermogen aan de stroomleverancier... Jammer dat er op deze manier gewerkt moet worden..
Oja, het wordt echt eens tijd dat we wat meer horen van de R600, NDA of niet maar de mensen die ATi graag succes zien hebben willen natuurlijk wel weten wat het antwoord is/wordt op deze nieuwe kaart van nV, stilte is geen marketing, en als AMD zich hier mee zou bemoeien dan begin ik te denken dat zij ook niet weten wat marketing is atm...
[ Voor 15% gewijzigd door Oet op 08-11-2006 22:50 ]
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
R600 is reported to consume up to 250WOet schreef op woensdag 08 november 2006 @ 22:44:
[...]
maarja, @ what cost, ik bedoel, heet, powerhongerig, tuurlijk zelfde wordt verwacht voor de R600,
als dit waar is, verbruikt ie bijne het dubbele van een g80 (130watt)
Tuurlijk gebruikt ie veel stroom maar ik vind wel dat dit aspect wel wat overdreven wordt. Dat maximale gebruik heb je alleen als je gamed. Daarbuiten valt het wel mee.Oet schreef op woensdag 08 november 2006 @ 22:44:
[...]
Als alles wat mister Mike daar heeft geplaatst waar zou zijn dan denk ik dat de R600 een erg snelle kaart wordt, maar hoe dat in verhouding met de G80/81 zou staan, geen idee...
Btw, toch petje af idd voor nV met hun G80, HQAF, niet echt verwacht ook, en natuurlijk retesnel, maarja, @ what cost, ik bedoel, heet, powerhongerig, tuurlijk zelfde wordt verwacht voor de R600, maar, waarom? Maar van de andere kant, het zijn de cijfertjes die tellen en de mensen die het echt willen kopen het toch wel, iedereen is er gek voor te maken, ook al kost het je een vermogen aan de stroomleverancier... Jammer dat er op deze manier gewerkt moet worden..
Verder wordt er steeds meer gedaan met 2d vs 3d clockspeeds.
Ze willen bij ATI en nVidia heus wel energiezuinig denk ik maar de techniek is gewoon nog niet zover dat het mogelijk is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat was een The Inquirer gerucht en de dag zelf hebben ze nog gezegd dat ze fout zaten en dat het eerder rond de 180W zit @ 90nm.Mr. Detonator schreef op woensdag 08 november 2006 @ 22:51:
[...]
R600 is reported to consume up to 250W
als dit waar is, verbruikt ie bijne het dubbele van een g80 (130watt)
kortom...er is nog zéér weinig bekend over de r600Hacku schreef op woensdag 08 november 2006 @ 22:53:
[...]
Dat was een The Inquirer gerucht en de dag zelf hebben ze nog gezegd dat ze fout zaten en dat het eerder rond de 180W zit @ 90nm.
Ik hoor vanalles over de R600, hier in het topic zou de R600 klaar zijn en richting devvers gaan maar over de telefoon vertelt ATI dat de chip verre van klaar is. We zullen nog wat geduld moeten hebben vrees ik.Oet schreef op woensdag 08 november 2006 @ 22:44:
[...]
Oja, het wordt echt eens tijd dat we wat meer horen van de R600, NDA of niet maar de mensen die ATi graag succes zien hebben willen natuurlijk wel weten wat het antwoord is/wordt op deze nieuwe kaart van nV, stilte is geen marketing, en als AMD zich hier mee zou bemoeien dan begin ik te denken dat zij ook niet weten wat marketing is atm...
True, maar hoeveel hebben we aan deze informatie, feitelijk vrij weinig, geen specs, wanneer de kaart komt, ja dat weten we nu onderhand wel, Q1 07, hopelijk early Q1, maar wanneer ie ook komt, ik neem aan dat de specs niet zo drastisch meer zullen veranderen. Ik ga er toch ff van uit dat de core niet ineens op 65nm ipv 80nm gebakken zal worden, er niet ineens een bredere ringbuscontroller in komt van 512bit ipv wat het anders zou zijn, dat er niet ineens nog meer robs en andere dingen in zullen komen.Hacku schreef op woensdag 08 november 2006 @ 22:59:
[...]
Ik hoor vanalles over de R600, hier in het topic zou de R600 klaar zijn en richting devvers gaan maar over de telefoon vertelt ATI dat de chip verre van klaar is. We zullen nog wat geduld moeten hebben vrees ik.
Natuurlijk zal er wel wat veranderen maar toch nix schrikbarends wat een groot effect zal hebben op de uiteindelijke performance?
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Anoniem: 151544 schreef op woensdag 08 november 2006 @ 18:31:
http://img145.imagevenue....1_g80vsr580_122_390lo.jpg
voila zie, tis gedaan me ulder verhaalkes over HQ AF.
DIT IS HQ AF.
Ik kan me anders niet herinneren een G7x dit voor elkaar te zien krijgen...Anoniem: 38733 schreef op woensdag 08 november 2006 @ 18:34:
Ah joh, dat zie je toch niet terwijl je speelt.
standaardverhaal wat de gemiddelde Nvidiot heeft opgehangen het afgelopen jaar
AF filtering van nV op smalle lijnen (zoals boomtakken etc) was op G7x al beter dan die van ATi. Met een heleboel van die smalle lijntjes achter elkaar hier zie je dus precies dat fout gaan... over IQ gesproken.
Ik ben benieuwd of al die mensen die tot gisteren moord en brand schreeuwden over dat ze een kaart kochten voor de IQ nu ook gaan overstappen op G80...
Just a little question to seperate the men from the (fan)boys
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Antwoord: Nope ik wacht eerst de R600 af
ik wil weten wat voor een IQ en speed die kaart heeft
Maar je hebt wel gelijk
Sommige zullen weer gaan zeggen dat het nu om speed gaat als ATi mindere iq heeft.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb toch net allemaal mensen hier zien zeggen dat ze de 8800 serie heel goed vinden kwa snelheid en kwaliteit (dit vind ik zelf ook!!)Cheetah schreef op woensdag 08 november 2006 @ 23:08:
Ik ben benieuwd of al die mensen die tot gisteren moord en brand schreeuwden over dat ze een kaart kochten voor de IQ nu ook gaan overstappen op G80...
Just a little question to seperate the men from the (fan)boys
[ Voor 4% gewijzigd door jimbojansen op 08-11-2006 23:35 ]
Anoniem: 23009
de G80 is een snel kreng dat klopt en zijn IQ is sterk verbeterd, maar dat zeg nog niks dat hij beter is of blijft tegen over de R600 Right 
ATi.AMD zit echt niet still en ik denk dat de R600 een retro van de R300 wordt net als de G80 is van de NV25 ala GeForce 4 Ti4600 die veegde de vloor weg van de R200 aka Radeon 8500 toen R300 kwam aka Radeon 9700 series was NV in deep shit
hun NV30 als 35 waren gewoon niet snel genoeg om de R300 met max FSAA en AF bij te houden, en ik heb een gevoel dat de R600 ook zo iets wordt, maar we moeten hopen dat de drivers ook verbeteren want telkens met Omega 6.03 spelen om dat alle andere niet lekker draaien is ook geen lol meer, je mag wel goede hardware hebben maar als de drivers niet leuk mee spelen dan is het verhaaltje gelijk omgedraait.
maar goed me X1900 XTX doet het nog best alleen voor max settings in FSX issie ietewat traag maar dat is ook geen ramp tot nog toe
ATI.AMD will strike Back, I'm quite sure about that
May The Force Be Strong With Them
ATi.AMD zit echt niet still en ik denk dat de R600 een retro van de R300 wordt net als de G80 is van de NV25 ala GeForce 4 Ti4600 die veegde de vloor weg van de R200 aka Radeon 8500 toen R300 kwam aka Radeon 9700 series was NV in deep shit
maar goed me X1900 XTX doet het nog best alleen voor max settings in FSX issie ietewat traag maar dat is ook geen ramp tot nog toe
ATI.AMD will strike Back, I'm quite sure about that
May The Force Be Strong With Them
[ Voor 5% gewijzigd door Anoniem: 23009 op 08-11-2006 23:42 ]
En ik hoop ook dat de R600 net zo zuinig is als de Xenos. Nvidia heeft dat ook erg goed gedaan met de G80 maar 130-150 watt voor de 8800 GTX erg netjes gedaan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het wordt zwaar investeren voor nvidia-volk
"doe mij maar 1x 680i SLI (ook vandaag uit!) en 2x 8800GTX" => roetsch: 1400eu verdwijnen in de kassa
zijn er al reviews die UE3 engine-demo met ati-top benchen?
"doe mij maar 1x 680i SLI (ook vandaag uit!) en 2x 8800GTX" => roetsch: 1400eu verdwijnen in de kassa
zijn er al reviews die UE3 engine-demo met ati-top benchen?
[ Voor 15% gewijzigd door Joepi op 08-11-2006 23:52 ]
Misschien tijd om wakker te worden? R600 is reeds lang in ontwikkeling en de G80 performance is nog niet zo lang bekend. Als de R600 trager / evensnel / iets sneller is kan ATI op die laatste 2 - 3 maand niks meer doen (buiten de kloksnelheid wat verhogen maar dus niet het complete architectuur omgooien) om de vloer te vegen met nVidia. En dat de R300 een beest was komt vooral ook omdat de GF GX een slecht ontwerp was. De G80 is echter een goed ontwerp en de impact R600 - G80 zal kleiner zijn dan in de tijd van R300 - NV30. NV30 met de G80 vergelijken gaat dan ook totaal niet op. Dat de R600 "the next R300" wordt zie ik dan ook meer als ATI die een compleet nieuw architectuur neerzet welke een uitstekende performance biedt en niet in de zin als ATI die weer de vloer gaat vegen met nVidia als in de tijd van de NV30.Anoniem: 23009 schreef op woensdag 08 november 2006 @ 23:40:
de G80 is een snel kreng dat klopt en zijn IQ is sterk verbeterd, maar dat zeg nog niks dat hij beter is of blijft tegen over de R600 Right
ATi.AMD zit echt niet still en ik denk dat de R600 een retro van de R300 wordt net als de G80 is van de NV25 ala GeForce 4 Ti4600 die veegde de vloor weg van de R200 aka Radeon 8500 toen R300 kwam aka Radeon 9700 series was NV in deep shithun NV30 als 35 waren gewoon niet snel genoeg om de R300 met max FSAA en AF bij te houden, en ik heb een gevoel dat de R600 ook zo iets wordt, maar we moeten hopen dat de drivers ook verbeteren want telkens met Omega 6.03 spelen om dat alle andere niet lekker draaien is ook geen lol meer, je mag wel goede hardware hebben maar als de drivers niet leuk mee spelen dan is het verhaaltje gelijk omgedraait.
maar goed me X1900 XTX doet het nog best alleen voor max settings in FSX issie ietewat traag maar dat is ook geen ramp tot nog toe
ATI.AMD will strike Back, I'm quite sure about that
May The Force Be Strong With Them
Heb het vermoeden dat de 8800 een grote impact op de markt zal achter laten net zoals de Intel Core 2 Duo dat heeft gedaan. Het is over en uit voor ATI en AMD.
< dit stukje webruimte is te huur >
Dit filmpje is echt te ziek voor woorden..............
http://download.nvidia.co...locker_Priceless_360P.wmv
http://download.nvidia.co...locker_Priceless_360P.wmv
Hoe kom je erbij?aex351 schreef op donderdag 09 november 2006 @ 00:19:
Heb het vermoeden dat de 8800 een grote impact op de markt zal achter laten net zoals de Intel Core 2 Duo dat heeft gedaan. Het is over en uit voor ATI en AMD.
De 8800 is veel te vroeg op de markt en pas met DX9L/DX10 aan een echte uitdaging toe.
Behalve hardwaremassagraf-Oblivion dan

Die API is zo anders, da valt echt niks te zeggen, of het misschien zelfs te weinig power is
Who knows?
DX10: "improve performance 6-8 times!"
Ati kan nu relaxed uitzoeken hoe het zit en tot de release van Vista tunen!
Kijk maar:

Ziet er prachtig uit maar zulke visuele effecten, tot op een zekere hoogte, zijn ook te behalen met DX9. Dat het op de bovenstaande afbeeldingen niet naar voren komt mag duidelijk wezen. Zo heb ik gelezen in een interview.Joepi schreef op donderdag 09 november 2006 @ 00:37:
[...]
Hoe kom je erbij?
De 8800 is veel te vroeg op de markt en pas met DX9L/DX10 aan een echte uitdaging toe.
Behalve hardwaremassagraf-Oblivion dan![]()
Die API is zo anders, da valt echt niks te zeggen, of het misschien zelfs te weinig power is![]()
Who knows?
DX10: "improve performance 6-8 times!"
Ati kan nu relaxed uitzoeken hoe het zit en tot de release4 van Vista tunen!
Kijk maar:
[afbeelding]
Dat de 8800 te vroeg is vind ik niet. Ondanks het een DX10 kaart is, waarvoor Vista nodig is, levert het ook verbluffende resultaten met huidige generatie spelen. Natuurlijk zal ATI ook wel een belangerijke rol gaan spelen, en ik mogelijk iets te enthousiast reageer, maar het resultaat mag er wezen.
< dit stukje webruimte is te huur >
http://www.anandtech.com/printarticle.aspx?i=2869
uit de 680i nforce review:
"We still expect ATI to release RD600 in the next few weeks - at least in limited release. It will feature dual x16 CrossFire for Intel Core 2. We are looking forward to reviewing those boards, but it will take some truly revolutionary performance to top the NVIDIA 680i motherboards. If you got the clear message we like the 680i, you would be reading us correctly."
uit de 680i nforce review:
"We still expect ATI to release RD600 in the next few weeks - at least in limited release. It will feature dual x16 CrossFire for Intel Core 2. We are looking forward to reviewing those boards, but it will take some truly revolutionary performance to top the NVIDIA 680i motherboards. If you got the clear message we like the 680i, you would be reading us correctly."
Grappig, de 9700 word hier - 4,5 jaar na dato - nog steeds constant toegejuichd voor "veel te vroeg" op de markt zijn. Dus... bij ATi is dat een plus, en bij nV is exact diezelfde plus dus een min... how unexpectedJoepi schreef op donderdag 09 november 2006 @ 00:37:
De 8800 is veel te vroeg op de markt en pas met DX9L/DX10 aan een echte uitdaging toe.

De 8800 bevind zich in exact dezelfde positie als de 9700 destijds, mind you.
A.j.b. wel ff consequent blijven dus
En trouwens, over dat "optimaliseren" gesproken: op wiens planken denk jij dat de komende tijd DX10 games gedevd gaan worden? Kun je je ook nog herinneren op wiens kaarten HDR games gedevd werden, en wie daar dus zelfs lang na de release van R520 voordeel bij heeft (gehad)?
[ Voor 24% gewijzigd door Cheetah op 09-11-2006 01:32 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 23009
heh soms valt een G80 ook wel eens tegen 

in Battlefield2 schopt een X1950XTX CrossFire setup de 8800GTX als SLI setup weg PWNed
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
vond ik wel leuk om te zien supermooi heh, maar dan nog was ook de enige test waarbij ATI.AMD boven aan stond, het bleek ook een driver issue van de G80 SLi setup te wezen dat de ATI boven aan staat
toch best knap 
De R520 had toen als enige voordeel dat ie ShaderModel 3.0 op de juiste manier deed, FSAA & HDR kon ook alleen maar met een R520 aak X1800 serie kaart, wat ook doorontwikkeld werd op de R580 en R580+
werd ook gezien als ShaderModel 3.1 en 3.5.
maar of het nu 3.0, 3.1 of 3.5 is dat is dan ook wel eens verwarrend, ik dacht echteraan Shadermodel 3.0+, enige idee'en hierover?

in Battlefield2 schopt een X1950XTX CrossFire setup de 8800GTX als SLI setup weg PWNed
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
vond ik wel leuk om te zien supermooi heh, maar dan nog was ook de enige test waarbij ATI.AMD boven aan stond, het bleek ook een driver issue van de G80 SLi setup te wezen dat de ATI boven aan staat

De R520 had toen als enige voordeel dat ie ShaderModel 3.0 op de juiste manier deed, FSAA & HDR kon ook alleen maar met een R520 aak X1800 serie kaart, wat ook doorontwikkeld werd op de R580 en R580+
maar of het nu 3.0, 3.1 of 3.5 is dat is dan ook wel eens verwarrend, ik dacht echteraan Shadermodel 3.0+, enige idee'en hierover?
[ Voor 46% gewijzigd door Anoniem: 23009 op 09-11-2006 03:26 ]
Hartstikke leuk dat plaatje, maar wanneer gaan mensen doorhebben dat dat geen ene fuck met DX10 te maken heeft, maar dat het een leuke "artist impression" is... oftewel: het heeft helemaal geen waarde, en het lijkt me stug als al die shit niet met DX9 kan. Vergeet niet, DX10 bevat geen revolutionaire dingen eigenlijk, alleen optimalizaties... (*ahem* afgezien van de geometry shaders dan... *kuchkuch*)Joepi schreef op donderdag 09 november 2006 @ 00:37:
[...]
DX10: "improve performance 6-8 times!"
Ati kan nu relaxed uitzoeken hoe het zit en tot de release van Vista tunen!
Kijk maar:
[afbeelding]
En inderdaad, sommige dingen zullen in DX10 6-8 keer sneller gaan... Maar het verschil zal nooit zo groot zijn in real life...
Zover ik weet heeft nog nooit iemand het gehad over 3.1 of 3.5... De R520 en de R580 zijn allebei gewoon lekker 3.0, en de HDR+AA komt door een slim GPU ontwerp, heeft (zover ik weet) niks te maken met een vernieuwd shadermodel.Anoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
De R520 had toen als enige voordeel dat ie ShaderModel 3.0 op de juiste manier deed, FSAA & HDR kon ook alleen maar met een R520 aak X1800 serie kaart, wat ook doorontwikkeld werd op de R580 en R580+werd ook gezien als ShaderModel 3.1 en 3.5.
maar of het nu 3.0, 3.1 of 3.5 is dat is dan ook wel eens verwarrend, ik dacht echteraan Shadermodel 3.0+, enige idee'en hierover?
[ Voor 32% gewijzigd door SpankmasterC op 09-11-2006 04:08 ]
Kweet niet of je het door hebt, maar een single 8800GTX is op 2 fps na even snel als een X1950 CF.Anoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
heh soms valt een G80 ook wel eens tegen
[afbeelding]
in Battlefield2 schopt een X1950XTX CrossFire setup de 8800GTX als SLI setup weg PWNed
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
820 Euro voor X1950 CF vs 560 Euro voor een 8800GTX.... reken de prijs/kwaliteit 'ns uit
Dat de 8800 SLI trager is (ook dan een single) komt duidelijk door een driverissue.
Kon er nog wat om lachen, maar dit fanboygedrag begint nu echt een beetje triest te worden
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
David Kirk zei ook dat nVidia niet direct een unified architecture zou uit brengen ten tijde van de G70 aangezien dit geen zin had en dat ATi er te vroeg bij was. David Kirk zei ook dat HDR + AA onmogelijk was tenzij je minimaal 2GB aan geheugen had op je videokaart.Hacku schreef op woensdag 08 november 2006 @ 22:59:
[...]
Ik hoor vanalles over de R600, hier in het topic zou de R600 klaar zijn en richting devvers gaan maar over de telefoon vertelt ATI dat de chip verre van klaar is. We zullen nog wat geduld moeten hebben vrees ik.
I rest my case....
Overigens ben ik zo weg richting buitenland. Dus maandag pas weer een nieuw topic hier mocht deze vol lopen.
[ Voor 4% gewijzigd door CJ op 09-11-2006 08:28 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik ben het helemaal met jou eens. De G80 is gewoon super goed. Hij er erg vroeg wat ook een pluspunt is. Alleen ik wacht wel op de R600 om te kijken wat die doet in DX9 en misschien tegen die tijd ook DX10. Op dit moment volstaat mijn X1900 XTX nog. En speel op dit moment geen games waar die kaart niet alles max kan draaien ( Speel momenteel geen HDR games of zo ).Cheetah schreef op donderdag 09 november 2006 @ 08:19:
[...]
Kweet niet of je het door hebt, maar een single 8800GTX is op 2 fps na even snel als een X1950 CF.
820 Euro voor X1950 CF vs 560 Euro voor een 8800GTX.... reken de prijs/kwaliteit 'ns uit
Dat de 8800 SLI trager is (ook dan een single) komt duidelijk door een driverissue.
Kon er nog wat om lachen, maar dit fanboygedrag begint nu echt een beetje triest te worden
De opzet van de G80 is volgens mij ( hoe zeg je dat ) makkelijk om games optimaal op te laten draaien. De shaders zijn simpel ( 1D ) en bij ATi moet je rekening houden dat je optimaal gebruik moet maken van de 5D shaders om alles uit die kaart te halen. Ik kan me voorstellen dat dat wel een voordeel is voor de G80.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Je haalt me de woorden uit me mondCheetah schreef op donderdag 09 november 2006 @ 08:19:
[...]
Kweet niet of je het door hebt, maar een single 8800GTX is op 2 fps na even snel als een X1950 CF.
820 Euro voor X1950 CF vs 560 Euro voor een 8800GTX.... reken de prijs/kwaliteit 'ns uit
Dat de 8800 SLI trager is (ook dan een single) komt duidelijk door een driverissue.
Kon er nog wat om lachen, maar dit fanboygedrag begint nu echt een beetje triest te worden
kijk ook eens naar de resolutie... beetje laag voor zo'n setup. Denk dat de cpu bottleneck hier ook een rol speelt.
Anoniem: 107626
Nou nou... de twijfelachtige eer om in Bugfield 2 de snelste te zijn...jeeeeh..Anoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
heh soms valt een G80 ook wel eens tegen
[afbeelding]
in Battlefield2 schopt een X1950XTX CrossFire setup de 8800GTX als SLI setup weg PWNed
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25


Maar mooi dat nV eindelijk iets op de markt zet wat schijnbaar geen concessies doet voor zowel fps als IQ. T blijft natuurlijk koffiedik kijken wat ie in DX10 doet, maar DX9 performance is gewoon uitstekend. Over de 7800GTX was ook iedereen lyrisch totdat er allerlei issues als IQ en uitval naar boven kwamen; ik vraag me af hoe mensen de 8800's zullen relativeren over een paar maanden.
Echt petje af voor Nvidia. Ze hebben die G80 van de grond af opnieuw in elkaar gezet. Ze zijn zelfs op een complexere manier gaan ontwerpen om die Shaders units te bouwen. Ze hebben technieken van Intel cpu's geleent om de shaderunits deze hoge clockspeeds te geven.
En het resultaat mag er wezen. Goede image quality en een laag stroom verbruik voor zo'n gigantische chip. Ik ben nu wel heel erg benieuwd naar de R600 hopelijk wordt dat geen stroom vreter.
En het resultaat mag er wezen. Goede image quality en een laag stroom verbruik voor zo'n gigantische chip. Ik ben nu wel heel erg benieuwd naar de R600 hopelijk wordt dat geen stroom vreter.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
hmm als je de reviwew van Anandtech leest komt er veel sprake over Image Quallity, waarbij de ATi kaarten toch op bepaalde FSAA + AF settings een betere IQ geven.
in dit review las ik dat:
http://www.anandtech.com/video/showdoc.aspx?i=2870
op deze pagina:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=12
Las ik het volgende:
"At 4xAA with gamma correction enabled, it looks like ATI is able to produce a better quality image. Some of the wires and antenna on NVIDIA hardware area a little more ragged looking while ATI's images are smoothed better."
dus over betere IQ met FSAA blijkt de R580 toch een betere IQ neer te zetten
en echt dit heeft niks met fanboy gedrag te maken en echt ik ben echt geen ATi of NV fanboy heur
.
Als ik upgrade neem ik gewoon wat het snelste is wat op de markt is op dat moment of het nu ATi of nVidia is , dat maakt me niet zo veel uit eigenlijk, allemaal 1 pot nat, dan is ATi weer sneller en dan weer NV ze gooien infiete de bal heen en weer meer niet, niet echt revolutionair, just a common thing nothing more.
Maar idd petje af voor ze qua chip design en stroom verbruik en zeer verbeterde overall IQ aan hun zijde kan ik absoluut begrijpen.
in dit review las ik dat:
http://www.anandtech.com/video/showdoc.aspx?i=2870
op deze pagina:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=12
Las ik het volgende:
"At 4xAA with gamma correction enabled, it looks like ATI is able to produce a better quality image. Some of the wires and antenna on NVIDIA hardware area a little more ragged looking while ATI's images are smoothed better."
dus over betere IQ met FSAA blijkt de R580 toch een betere IQ neer te zetten
Als ik upgrade neem ik gewoon wat het snelste is wat op de markt is op dat moment of het nu ATi of nVidia is , dat maakt me niet zo veel uit eigenlijk, allemaal 1 pot nat, dan is ATi weer sneller en dan weer NV ze gooien infiete de bal heen en weer meer niet, niet echt revolutionair, just a common thing nothing more.
Maar idd petje af voor ze qua chip design en stroom verbruik en zeer verbeterde overall IQ aan hun zijde kan ik absoluut begrijpen.
[ Voor 30% gewijzigd door Anoniem: 23009 op 09-11-2006 14:27 ]
Uhmm alleen die Gamma AA van ATi is beter. De coverage sampling AA van Nvidia is beter. Je daar ook nog eens effectief 16x aa. Waardoor je minder kartels hebt. En hij filtert ook meer. Misschien dat die Nieuwe AA van ATi dat ook gaat doen...
+ de AF van Nvidia is nu veel beter. Anandtech meld zelfs dat de ATi kaarten met HQ af meer shimmering krijgen dan zonder HQ AF. Als je ook naar die synthetisch tests kijkt zie je dat er iets niet goed zit. Er moet dus een HQ AF Peformance mode komen ( de huidige HQ Af ) en een nieuwe quality mode die nog betere IQ geeft alla G80 QAF.
+ de AF van Nvidia is nu veel beter. Anandtech meld zelfs dat de ATi kaarten met HQ af meer shimmering krijgen dan zonder HQ AF. Als je ook naar die synthetisch tests kijkt zie je dat er iets niet goed zit. Er moet dus een HQ AF Peformance mode komen ( de huidige HQ Af ) en een nieuwe quality mode die nog betere IQ geeft alla G80 QAF.
[ Voor 12% gewijzigd door Astennu op 09-11-2006 14:02 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Volgens geruchten gaat de R600 een echte fysieke 512 bit bus gebruiken, ook naar geheugen toe. Geheugenbandbreedte met dan een flinke GDDR4 zal massa's hoger liggen dan de G80.
Daarnaast gaat het gerucht dat het wisselen van Vertex naar Pixel data en andersom nagenoeg geen overhead meer zal hebben, zeg maar tweede/derde generatie unified shader architecture van ATI.
Voor de rest is die R600 nog steeds wazig, maar goed dat doet ATIAMD bewust en ze hebben natuurlijk flink last van.
Goed voor de PC scene dat het er makkelijker op wordt maar heel jammer dat je daar Vista voor nodig hebt en nagenoeg ook 2 Gig intern geheugen.
De laatste consoles (360/Xenos en PS3) kunnen al dingen die DX10 nu pas kan gaan doen. Xenos heeft al mem-export bijvoorbeeld.
Daarnaast gaat het gerucht dat het wisselen van Vertex naar Pixel data en andersom nagenoeg geen overhead meer zal hebben, zeg maar tweede/derde generatie unified shader architecture van ATI.
Voor de rest is die R600 nog steeds wazig, maar goed dat doet ATIAMD bewust en ze hebben natuurlijk flink last van.
Goed voor de PC scene dat het er makkelijker op wordt maar heel jammer dat je daar Vista voor nodig hebt en nagenoeg ook 2 Gig intern geheugen.
De laatste consoles (360/Xenos en PS3) kunnen al dingen die DX10 nu pas kan gaan doen. Xenos heeft al mem-export bijvoorbeeld.
Waar heb je die informatie vandaan ? Zou wel erg mooi zijn maar zit er dan ook een 1024 Bit ring bus in ? Of pakken ze daar weer die 512 Bit bus voor. Ik kan me voorstellen dat het erg voordelig is als de interne ring bus sneller is dan de memory interface. Verder hoop ik dat die R600 die 96 5D shaders krijgt. Nu alleen kijken hoe die presteren tov de 128 1D shaders op meer dan dubbele clock speed. Die chip van nvidia dit echt goed in elkaar. ATi krijgt daar nog een hele kluif aan. Verder hebben ze ook een grote inhaal slag nodig op het gebied van IQ zowel 3D als Beeld weergave ( AVIVO VS Pure Video )DingieM schreef op donderdag 09 november 2006 @ 15:11:
Volgens geruchten gaat de R600 een echte fysieke 512 bit bus gebruiken, ook naar geheugen toe. Geheugenbandbreedte met dan een flinke GDDR4 zal massa's hoger liggen dan de G80.
Daarnaast gaat het gerucht dat het wisselen van Vertex naar Pixel data en andersom nagenoeg geen overhead meer zal hebben, zeg maar tweede/derde generatie unified shader architecture van ATI.
Voor de rest is die R600 nog steeds wazig, maar goed dat doet ATIAMD bewust en ze hebben natuurlijk flink last van.
Goed voor de PC scene dat het er makkelijker op wordt maar heel jammer dat je daar Vista voor nodig hebt en nagenoeg ook 2 Gig intern geheugen.
De laatste consoles (360/Xenos en PS3) kunnen al dingen die DX10 nu pas kan gaan doen. Xenos heeft al mem-export bijvoorbeeld.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
idd...want in andere tests zie je een ander beeld (maar dan wel andere tests van hetzelfde spelAnoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
, maar dan nog was ook de enige test waarbij ATI.AMD boven aan stond,

kijk hier maar eens naar de bf2-fps
Nvidia is echt weer pionieer, voortrekker en neemt dus grote risikoos
denk terug aan T&L van de 1st Gf, de FX'en enz.
Ati deet het altijd op een andere verrassende manier: Truform bij de 8500 of de geniale R300, die al 4 (!) jaar 'mee' gaat.
Ik wil eerst echte real time DX10 zien!
Die OpenGL' techdemo's snap ik overigens niet: gebruiken ze dan puur de snelheid of toch op ene vander manier D3D10-features
denk terug aan T&L van de 1st Gf, de FX'en enz.
Ati deet het altijd op een andere verrassende manier: Truform bij de 8500 of de geniale R300, die al 4 (!) jaar 'mee' gaat.
Ik wil eerst echte real time DX10 zien!
Die OpenGL' techdemo's snap ik overigens niet: gebruiken ze dan puur de snelheid of toch op ene vander manier D3D10-features
voor bf2 zo'n kaart steken is niet echt nuttig
met bvb een 1900xtx haal je al zat frames met mooie plaatjes
Lijkt mij dus zonde van je centen om daar die kaart voor te halen. Alsof je het verschil ziet tussen 60 of 88 fps. Misschien aan de counter in je beeld maar verder ook niet echt.
reactie op obi-wan

reactie op obi-wan
[ Voor 3% gewijzigd door R-O-Y op 09-11-2006 16:59 ]
Anoniem: 38733
Is dit niet al een poosje geleden gepost?
R600, codename: Pele (the Brazilian footballplayer)
True 512-bit memoryinterface (Nvidia G80 = 384-bit)
1024 MB GDDR4 mem (1.25Ghz), bandwidth 160GB/s (G80 = 86GB/s)
80nm
Free 4xAA
http://www.hardspell.com/news/showcont.asp?news_id=30133
Als dit echt klopt dan gaat het om een beest dat wil je niet weten.
[ Voor 7% gewijzigd door Anoniem: 38733 op 09-11-2006 17:31 ]
de g80 heeft ook een 512bit geheugenbus aan boord, alleen die is nog niet ''enabled'' omdat er gddr3 (12x32bit 6x64bit) gebruikt wordt (maw. ze brengen liever een kaart uit met geheugen wat volop verkrijgbaar is, dan maar een beperkt aantal kaarten)Anoniem: 38733 schreef op donderdag 09 november 2006 @ 17:28:
[...]
True 512-bit memoryinterface (Nvidia G80 = 384-bit)
misschien dat de tweede revisie/g81 dit weer ''rechttrekt'' (zodra gddr4 volop verkrijgbaar is)
[ Voor 13% gewijzigd door Mr. Detonator op 09-11-2006 19:31 ]
Geruchten, geruchten en nog eens geruchten.
Ik wacht het af.
Dat nvidia er nu sneller bij is en een mooie prestatie neerzet is leuk voor ze.
Maar ik kijk liever de kat uit de boom totdat er een antwoord uit atis kamp komt zodat er een vergelijking is met een andere dx10 kaart.
Ik wacht het af.
Dat nvidia er nu sneller bij is en een mooie prestatie neerzet is leuk voor ze.
Maar ik kijk liever de kat uit de boom totdat er een antwoord uit atis kamp komt zodat er een vergelijking is met een andere dx10 kaart.
Even totaal wat anders. zonet kwam ik dit tegen:
Zoek de verschillen !

Zoek de verschillen !


Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
Hehe wel grappig
BTW, wat achterlijk in states, dat die elektriciteit en data door de lucht gaat
BTW, wat achterlijk in states, dat die elektriciteit en data door de lucht gaat

[ Voor 4% gewijzigd door Joepi op 09-11-2006 18:45 ]
NVIDIA heeft volgens de eerste berichten een geweldige kaart neergezet, je moet dus vooral voorzichtig zijn om ook kritisch te kijken want anders wordt je kop afgebeten. De volgende opmerking is dus gemaakt met de liefde voor optimale beeldkwaliteit in het achterhoofd.
check hier bijv op de eerste foto de koepel e.d. rechts onderin.
Wat mij opviel aan de screenshots van anandtech is dat bepaalde delen bij de G80 lichter/met meer gamma? gerenderd werden terwijl de ATI en de G70 wel de goede kleur hebben. Het is jammer dat alleen scrshots getoond werden want ik ben een groot voorstander om dit aan te vullen met filmpjes omdat deze meer info geven
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=11
g70 4x:

g80 16xq nogamma:

ati 6x:
check hier bijv op de eerste foto de koepel e.d. rechts onderin.
Wat mij opviel aan de screenshots van anandtech is dat bepaalde delen bij de G80 lichter/met meer gamma? gerenderd werden terwijl de ATI en de G70 wel de goede kleur hebben. Het is jammer dat alleen scrshots getoond werden want ik ben een groot voorstander om dit aan te vullen met filmpjes omdat deze meer info geven
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=11
g70 4x:

g80 16xq nogamma:

ati 6x:

[ Voor 10% gewijzigd door Help!!!! op 09-11-2006 19:23 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Mja, dat zouden ook early drivers issues kunnen zijn he? Dat mogen we niet vergeten. De kaart is net een dag uit, dus dat lijkt mij heel goed mogelijk.Help!!!! schreef op donderdag 09 november 2006 @ 19:00:
NVIDIA heeft volgens de eerste berichten een geweldige kaart neergezet, je moet dus vooral voorzichtig zijn om ook kritisch te kijken want anders wordt je kop afgebeten. De volgende opmerking is dus gemaakt met de liefde voor optimale beeldkwaliteit in het achterhoofd.![]()
check hier bijv op de eerste foto de koepel rechts onderin.
Wat mij opviel aan de screenshots van anandtech is dat bepaalde delen bij de G80 lichter/met meer gamma? gerenderd werden. Het is jammer dat alleen scrshots getoond werden want ik ben een groot voorstander om dit aan te vullen met filmpjes omdat deze meer info gevenhttp://www.anandtech.com/video/showdoc.aspx?i=2870&p=11
g70 4x:
[afbeelding]
g80 16xq nogamma:
[afbeelding]
ati 6x:
[afbeelding]
-Wat zijn er toch altijd mensen die uit al het positieve tóch nog weer minpunten weten te vinden he?! En dan doel ik niet op mensen hier hoor; laat dat duidelijk zijn. Maar algemeen gezien.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Zou zeker een early driverissue kunnen zijn maar het viel me wel gelijk op.RappieRappie schreef op donderdag 09 november 2006 @ 19:06:
[...]
Mja, dat zouden ook early drivers issues kunnen zijn he? Dat mogen we niet vergeten. De kaart is net een dag uit, dus dat lijkt mij heel goed mogelijk.
-Wat zijn er toch altijd mensen die uit al het positieve tóch nog weer minpunten weten te vinden he?! En dan doel ik niet op mensen hier hoor; laat dat duidelijk zijn. Maar algemeen gezien.
Ik streef o.a. naar de beste IQ en probeer daar objectief naar te kijken maar omdat dat al snel verward word met fanboyism plaatste ik dus mijn disclaimer.
Dus voor alle duidelijkheid, en ja ik zag je knipoog
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik ben ook IQ gek, dus ik kan je kritiek wel begrijpen.
Maar daar staat tegenover dat niets bijna perfect is, en dat het nog allemaal erg pril is, en er door gebruikers feedback gegeven moet worden aan nV om het beter te maken dmv bijvoorbeeld nieuwere drivers.
Maar daar staat tegenover dat niets bijna perfect is, en dat het nog allemaal erg pril is, en er door gebruikers feedback gegeven moet worden aan nV om het beter te maken dmv bijvoorbeeld nieuwere drivers.
[ Voor 27% gewijzigd door Format-C op 09-11-2006 19:52 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een shadermodel is een specificatie die de mogelijkeheden beschrijft, qua mogelijkheden zijn de G7x & R5xx identiek. sm3.0+ zou impliceren dat de R5xx over meer mogelijkheden beschikt in zn shaders.Anoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
maar of het nu 3.0, 3.1 of 3.5 is dat is dan ook wel eens verwarrend, ik dacht echteraan Shadermodel 3.0+, enige idee'en hierover?
(iedentiek behalve vertex texturing & render to vertex buffer)
Ah okeey. Het gaat vooral om de betrouwbaarheid. Die GDDR 4 clockt valt me touwens nog wat tegen had 1.4-1.6 GHz verwacht. GDDR 4 zou igg makkelijk 2 Ghz moeten kunnen. Maar mischien was ik te optimistiesAnoniem: 38733 schreef op donderdag 09 november 2006 @ 17:28:
[...]
Is dit niet al een poosje geleden gepost?
R600, codename: Pele (the Brazilian footballplayer)
True 512-bit memoryinterface (Nvidia G80 = 384-bit)
1024 MB GDDR4 mem (1.25Ghz), bandwidth 160GB/s (G80 = 86GB/s)
80nm
Free 4xAA
http://www.hardspell.com/news/showcont.asp?news_id=30133
Als dit echt klopt dan gaat het om een beest dat wil je niet weten.
[ Voor 6% gewijzigd door Astennu op 09-11-2006 20:55 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
Een single 8800GTX gooit de X1950XTX crossfire al omver..Anoniem: 23009 schreef op donderdag 09 november 2006 @ 03:16:
heh soms valt een G80 ook wel eens tegen
[afbeelding]
in Battlefield2 schopt een X1950XTX CrossFire setup de 8800GTX als SLI setup weg PWNed
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
vond ik wel leuk om te zien supermooi heh, maar dan nog was ook de enige test waarbij ATI.AMD boven aan stond, het bleek ook een driver issue van de G80 SLi setup te wezen dat de ATI boven aan staattoch best knap
De R520 had toen als enige voordeel dat ie ShaderModel 3.0 op de juiste manier deed, FSAA & HDR kon ook alleen maar met een R520 aak X1800 serie kaart, wat ook doorontwikkeld werd op de R580 en R580+werd ook gezien als ShaderModel 3.1 en 3.5.
maar of het nu 3.0, 3.1 of 3.5 is dat is dan ook wel eens verwarrend, ik dacht echteraan Shadermodel 3.0+, enige idee'en hierover?
Laat me dan zwijgen van SLI , en BF2 is ook een oud spel.. en is dus ook
veel meer CPU gevoelig.. In nieuwe games is de 8800GTX SLI bijna 2x een Crossfire X1950XTX
P->-W->-N->-E->-D
http://uk.theinquirer.net/?article=35626
AMD reveals its future plans
AMD reveals its future plans
Anoniem: 38733
RappieRappie schreef op donderdag 09 november 2006 @ 19:50:
door gebruikers feedback gegeven moet worden aan nV om het beter te maken
Dát zijn nou die mensen die voor feedback moeten zorgen.Wat zijn er toch altijd mensen die uit al het positieve tóch nog weer minpunten weten te vinden he?!
Anoniem: 23009
ach ach, leuke NV fanboy postAnoniem: 162692 schreef op donderdag 09 november 2006 @ 21:16:
[...]
Een single 8800GTX gooit de X1950XTX crossfire al omver..
Laat me dan zwijgen van SLI , en BF2 is ook een oud spel.. en is dus ook
veel meer CPU gevoelig.. In nieuwe games is de 8800GTX SLI bijna 2x een Crossfire X1950XTX
P->-W->-N->-E->-D
In dat testje toch net niet:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
dus PWNed? eum nee
maare idd het bleek een driver situatie te zijn, BF2 kan wel oud zijn maar daarvan blijven ook updates en missionpacks/bonus packs van uit komen en BattleField2 wordt nog best veel gespeeld en daar gaat het meer om waar het meeste mee wordt gegamed en daar zijn tests belangerijk voor met nieuwe hardware
Maare als de R600 een 512 Bit Memory bus gaat krijgen volgens dit gerucht:
http://www.hardspell.com/news/showcont.asp?news_id=30133
Dan wordt het een ziekelijk geval, heh 160GB per sec Memory bandwidth, damn das wel erg snel.
Maar toch zeggen geruchten niet alles, we moeten het maar es lekker afwachten, the obvious.
Die X1950 XTX''en worden ook op de dag gedkoper dus dat kan je ook als leuke voordelen bekijken
[ Voor 47% gewijzigd door Anoniem: 23009 op 09-11-2006 22:26 ]
Leuk interview vond ik en ook wel verrassend dat ze het aan de Theinq gaven imo.The Source schreef op donderdag 09 november 2006 @ 21:34:
http://uk.theinquirer.net/?article=35626
AMD reveals its future plans
Hier blijven ze itt jouw visie toch volhouden serieus met discrete graphics bezig te zullen blijven.
Ben benieuwd.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik heb een vraagje, het volgende staat in de FAQ. Echter blijft mijn core maar op 500 en mem op 594Mhz staan in game.
Doe ik nu iets verkeerd of hoe zit dat? X1900XT icm Catalyst 6.10.
Doe ik nu iets verkeerd of hoe zit dat? X1900XT icm Catalyst 6.10.
Vraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?
Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Zoals je wellicht weet was G80 zo'n 4 jaar in ontwikkeling, dus dat wil zeggen dat ATI ook voor de komende 3 jaar al werk heeft verricht, en het werk van 2 jaar daarvan teveel $ waard is om weg te gooien. Dus verwacht niet op te korte termijn, maar op lange termijn.Help!!!! schreef op donderdag 09 november 2006 @ 23:12:
[...]
Leuk interview vond ik en ook wel verrassend dat ze het aan de Theinq gaven imo.
Hier blijven ze itt jouw visie toch volhouden serieus met discrete graphics bezig te zullen blijven.
Ben benieuwd.
Waar gaat dit over?? Je ziet een testje waarin een CROSSFIRE set iets sneller is dan een SINGLE 8800GTX.... lekker boeien zeg, bovendien wordt er getest met slechts 4xAA......Anoniem: 23009 schreef op donderdag 09 november 2006 @ 22:18:
[...]
ach ach, leuke NV fanboy post
In dat testje toch net niet:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
dus PWNed? eum nee
maare idd het bleek een driver situatie te zijn, BF2 kan wel oud zijn maar daarvan blijven ook updates en missionpacks/bonus packs van uit komen en BattleField2 wordt nog best veel gespeeld en daar gaat het meer om waar het meeste mee wordt gegamed en daar zijn tests belangerijk voor met nieuwe hardware
Maare als de R600 een 512 Bit Memory bus gaat krijgen volgens dit gerucht:
http://www.hardspell.com/news/showcont.asp?news_id=30133
Dan wordt het een ziekelijk geval, heh 160GB per sec Memory bandwidth, damn das wel erg snel.
Maar toch zeggen geruchten niet alles, we moeten het maar es lekker afwachten, the obvious.
Die X1950 XTX''en worden ook op de dag gedkoper dus dat kan je ook als leuke voordelen bekijken
Bovendien heb ik toch sterk het idee dat je een enorme ATI fanboy bent, niks op tegen, maar
bent altijd bezig ben Nvidia spullen de grond in te boren. Of weer eens een toekomstig ATI product
aan het ophemelen.
Ik was vroeger ook Nvidia georienteerd, echter sinds mijn TI4600 heb ik zo'n beetje alle ATI kaarten gehad welke er daarna uitkwamen. Absoluut veel plezier van gehad, en nu nog steeds van mijn x1950xtx. Maar ik ga hem nu wel inruilen voor een 8800GTX, hopelijk wordt de R600 sneller, goed voor de competitie en de prijzen.
In ieder geval kijk ik tenminste welke kaart beter is, merk kan mij eigenlijk niks schelen. Een beetje fanboy gedrag is leuk, maar persoonlijk heb ik het idee dat je het wat overdrijft. Sorry voor mijn mening, maar ik moest het nu even kwijt.
GPU's zijn toch al per definitie stervend dankzij de opkomst van dedicated cpu-cores in de toekomst?The Source schreef op vrijdag 10 november 2006 @ 00:51:
[...]
Zoals je wellicht weet was G80 zo'n 4 jaar in ontwikkeling, dus dat wil zeggen dat ATI ook voor de komende 3 jaar al werk heeft verricht, en het werk van 2 jaar daarvan teveel $ waard is om weg te gooien. Dus verwacht niet op te korte termijn, maar op lange termijn.
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Anoniem: 9449
Dit vind ik wel een interessante stelling. Is er wel eens iemand die dit geprobeerd heeft? Gewoon als multi-monitor setup zou dit in principe toch gewoon moeten werken? En zouden de drivers elkaar bijten?Mr. Detonator schreef op woensdag 08 november 2006 @ 21:23:
denk niet dat dat gaat lukken...nvidia+ati, op één mobo
In BF2 ook hoor. Kijk eens goed naar dat plaatje dat Obi Wan zelf post.Anoniem: 162692 schreef op donderdag 09 november 2006 @ 21:16:
Een single 8800GTX gooit de X1950XTX crossfire al omver..
Laat me dan zwijgen van SLI , en BF2 is ook een oud spel.. en is dus ook
veel meer CPU gevoelig.. In nieuwe games is de 8800GTX SLI bijna 2x een Crossfire X1950XTX
P->-W->-N->-E->-D
Een single 8800GTX staat op 2 fps afstand van een X1950 CF... de SLI 8800 een stuk daaronder. Duidelijk drivers dus. Tis pas de 4e keer ofzo dat Obi Wan daarop gewezen wordt

Iets met potjes en keteltjes... Oude zwartgeblakerde vuurpot verwijt nieuwe keramische ketel?

Grafieken kijken is toch echt een kunst heIn dat testje toch net niet:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25

560 Euro even snel als 820 Euro, met de helft van het energieverbruik.
dus PWNed? eum nee
[ Voor 6% gewijzigd door Cheetah op 10-11-2006 08:22 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
je zegt het zelf alAnoniem: 9449 schreef op vrijdag 10 november 2006 @ 01:19:
[...]
En zouden de drivers elkaar bijten?
die review van anandtech is de meest ''ati-vriendelijke'' reviewAnoniem: 23009 schreef op donderdag 09 november 2006 @ 22:18:
[...]
In dat testje toch net niet:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
vergelijk 't maar eens met andere tests....denk dat ze de verkeerde drivers hebben gebruikt oid
Lijkt mij niet. Er zal altijd vraag blijven naar extreme 3D peformance en die chips zijn groot zie ook de g80 en als je dat op een cpu er bij moet plakken is dat niet te doen. De g80 is groter dan ene Kentsfield cpu. Laat staan het stroomverbruik als je die 2 samenvoegt.Althalus schreef op vrijdag 10 november 2006 @ 01:06:
[...]
GPU's zijn toch al per definitie stervend dankzij de opkomst van dedicated cpu-cores in de toekomst?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
ATI logo to remain on stage
http://www.digitimes.com/mobos/a20061110PB203.html
Yen-ting Chen, Taipei; Esther Lam, DigiTimes.com [Friday 10 November 2006]
Although AMD aggressively consolidates its business with ATI after the merger, the ATI logo is not going to disappear from graphics products, according to sources at graphics cards makers.
AMD recently sent a letter to partner companies, saying that graphics card vendors, while shipping products based on ATI GPUs, should not only highlight part numbers without the ATI logo, according to the sources.
http://www.digitimes.com/mobos/a20061110PB203.html
Yen-ting Chen, Taipei; Esther Lam, DigiTimes.com [Friday 10 November 2006]
Although AMD aggressively consolidates its business with ATI after the merger, the ATI logo is not going to disappear from graphics products, according to sources at graphics cards makers.
AMD recently sent a letter to partner companies, saying that graphics card vendors, while shipping products based on ATI GPUs, should not only highlight part numbers without the ATI logo, according to the sources.
Wel begrijpelijk de meeste mensen kennen de merknaam ATi nu wel in de 3d kaart wereld. Ik zou de AMD kleuren wel leuk vinden op de kaartThe Source schreef op vrijdag 10 november 2006 @ 09:18:
ATI logo to remain on stage
http://www.digitimes.com/mobos/a20061110PB203.html
Yen-ting Chen, Taipei; Esther Lam, DigiTimes.com [Friday 10 November 2006]
Although AMD aggressively consolidates its business with ATI after the merger, the ATI logo is not going to disappear from graphics products, according to sources at graphics cards makers.
AMD recently sent a letter to partner companies, saying that graphics card vendors, while shipping products based on ATI GPUs, should not only highlight part numbers without the ATI logo, according to the sources.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Volgens CJ waren er al lang kaarten in omloop met R600 er op. Maar ik mag toch hopen dat Q1 geen maart is anders wordt ik pissed
Gewoon begin max eind Januari.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb geen zin om al die ontwikkelingen van de R600 af te wachten. Ik heb gisteren NFS Carbon gespeeld en mijn X1900 Crossfire trekt dat nog uitstekend op 1280x1024, 4xAA, alle effecten op high/on. Dus voor de performance hoef ik voorlopig de portemonnee nog niet los te trekken (gelukkig).
Ik ben erg benieuwd naar de ontwikkeling van physicsberekening op de ATI kaarten, want in de PCM van november stond een test waaruit bleek dat de R580 core 7 tot 10 keer zo snel is als een FX-62 qua physicsberekeningen. En ervan uitgaande dat physics een grotere rol gaan spelen in de nieuwste games, en de CPU dus weer meer bottleneck gaat worden, is een 3e videokaart voor physics helemaal geen slecht idee. ATi was van plan om de physicstechniek voor de X1000 serie in Q1 - 07 te lanceren, dus ongeveer gelijktijdig met de R600. Tegen die tijd zou ik goedkoop aan een X1950 moeten kunnen komen.
Hier een kleine review: http://www.pcper.com/article.php?aid=226&type=expert
Ik ben erg benieuwd naar de ontwikkeling van physicsberekening op de ATI kaarten, want in de PCM van november stond een test waaruit bleek dat de R580 core 7 tot 10 keer zo snel is als een FX-62 qua physicsberekeningen. En ervan uitgaande dat physics een grotere rol gaan spelen in de nieuwste games, en de CPU dus weer meer bottleneck gaat worden, is een 3e videokaart voor physics helemaal geen slecht idee. ATi was van plan om de physicstechniek voor de X1000 serie in Q1 - 07 te lanceren, dus ongeveer gelijktijdig met de R600. Tegen die tijd zou ik goedkoop aan een X1950 moeten kunnen komen.
Hier een kleine review: http://www.pcper.com/article.php?aid=226&type=expert
[ Voor 17% gewijzigd door frankknopers op 10-11-2006 15:11 ]
Goud is geen geld
Ik draai 1600-1200 alles max in die game alleen heb die motion blur en particals uit gezet.
MAar ik wacht lekker op de R600.
MAar ik wacht lekker op de R600.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat een videokaart voor psysics ook beter aanslaat. Iedereen heeft met een upgrade wel een kaart over. Ik heb zelf bvb een x1600xt liggen die ik hoop daarvoor te gebruiken. Misschien zelfs de 1900GT die ik nu gebruik. Als ik bvb de r600 koop en de1900GT voor de psysics erbij. Scheelt toch weer dat ik een losse psysicskaart moet gaan halen waar je nu weinig aan hebtfrankknopers schreef op vrijdag 10 november 2006 @ 15:09:
Ik heb geen zin om al die ontwikkelingen van de R600 af te wachten. Ik heb gisteren NFS Carbon gespeeld en mijn X1900 Crossfire trekt dat nog uitstekend op 1280x1024, 4xAA, alle effecten op high/on. Dus voor de performance hoef ik voorlopig de portemonnee nog niet los te trekken (gelukkig).
Ik ben erg benieuwd naar de ontwikkeling van physicsberekening op de ATI kaarten, want in de PCM van november stond een test waaruit bleek dat de R580 core 7 tot 10 keer zo snel is als een FX-62 qua physicsberekeningen. En ervan uitgaande dat physics een grotere rol gaan spelen in de nieuwste games, en de CPU dus weer meer bottleneck gaat worden, is een 3e videokaart voor physics helemaal geen slecht idee. ATi was van plan om de physicstechniek voor de X1000 serie in Q1 - 07 te lanceren, dus ongeveer gelijktijdig met de R600. Tegen die tijd zou ik goedkoop aan een X1950 moeten kunnen komen.![]()
Hier een kleine review: http://www.pcper.com/article.php?aid=226&type=expert
persoonlijk snap ik niet wat BF2 in zo'n test doet, dat is de BF1 engine (stokoud dus) met wat tierlanteintjes erin, niet echt slim dus om daar mee te testenAnoniem: 23009 schreef op donderdag 09 november 2006 @ 22:18:
[...]
ach ach, leuke NV fanboy post
In dat testje toch net niet:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=25
dus PWNed? eum nee
maare idd het bleek een driver situatie te zijn, BF2 kan wel oud zijn maar daarvan blijven ook updates en missionpacks/bonus packs van uit komen en BattleField2 wordt nog best veel gespeeld en daar gaat het meer om waar het meeste mee wordt gegamed en daar zijn tests belangerijk voor met nieuwe hardware
Maare als de R600 een 512 Bit Memory bus gaat krijgen volgens dit gerucht:
http://www.hardspell.com/news/showcont.asp?news_id=30133
Dan wordt het een ziekelijk geval, heh 160GB per sec Memory bandwidth, damn das wel erg snel.
Maar toch zeggen geruchten niet alles, we moeten het maar es lekker afwachten, the obvious.
Die X1950 XTX''en worden ook op de dag gedkoper dus dat kan je ook als leuke voordelen bekijken
ze zouden beter meer testen doen met shaderintensieve games (zoals alle nieuwe games) want dat is duidelijk de toekomst
dit is net hetzelfde als dat ze vroeger Quake3 bleven meetesten, totaal nutteloos
btw, als sommige games heel snel zijn en andere traag op een kaart, ga ik er altijd van uit dat dat ene game gewoon slecht gemaakt is (zoals de meeste games trouwens tegenwoordig, de hardware is toch snel genoeg)
Jah idd alle games van EA zijn but Zie BF2 BF 2142 Alle afgelopen NFS games alles knake. Elke keer die oude engine weer opgeleuk. BFME C&C generals engine BFME 2 weer dezelfde en nog slechtere gameplay. Ik zou zeggen ban EA tot ze goede games maken. En eens wat moeite gaan doen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Battlefield 2 vind ik anders een ge-wel-dig spel Astennu. Maar je hebt opzich wel gelijk. EA is namelijk een hele grote melkfabriek
Ik vind het knake BF1 was beter. Dat was tenminste nieuw en daar kon je tenminste multiplayer VS bots doen. Allemaal er uit gesloopt. En daar had je btw ook een modern war mod. EA heeft alleen die mod nagemaakt.rstyled schreef op vrijdag 10 november 2006 @ 16:22:
Battlefield 2 vind ik anders een ge-wel-dig spel Astennu. Maar je hebt opzich wel gelijk. EA is namelijk een hele grote melkfabriek
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik speel nog vrij veel BF1942, vind het nog steeds de leukste telg van de serie, Dice heeft die toch helemaal alleen gemaakt zonder EA?
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Anoniem: 23009
ja das een leuke post laten we hopen eind Januari of zo
Ben eigenlijk benieuwd hoe ze de mobile R600 gaan doen qua koeling, stroom verbruik enzo?
[ Voor 7% gewijzigd door Anoniem: 23009 op 10-11-2006 19:25 ]
Zo, ik heb mijn Powercolor X1950Pro 512Mb versie binnen. Ben nu bezig de Omega Catalyst v3.8.291 drivers te downloaden en daarna maar eens kijken wat de kaart doet.
Ik kan iig zeggen dat mijn Sapphire X1950Pro 256Mb een lekkere kaart is, ik ben er echt supertevreden mee, sneller kaart voor niet veel geld!Kensei schreef op vrijdag 10 november 2006 @ 19:44:
Zo, ik heb mijn Powercolor X1950Pro 512Mb versie binnen. Ben nu bezig de Omega Catalyst v3.8.291 drivers te downloaden en daarna maar eens kijken wat de kaart doet.
kun je eens ingame ervaringen geven ? dus gemiddeld aantal frames in welke games ?
ik zit namelijk ook al een paar dagen na deze kaart te kijken het lijkt me wel een leuke kaart voor weinig geld.
ik zit namelijk ook al een paar dagen na deze kaart te kijken het lijkt me wel een leuke kaart voor weinig geld.
klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel
Het zijn niet de Omega's geworden. Daarmee zag de PC de ATi niet. Dus de bijgeleverde CD maar gedaan.
Ben nu 3DMark06 aan het downen.
Qua games kan ik alleen FS2004 en FS-X testen. Misschien Pacific Assault nog, maar meer games heb/doe ik niet.
Kaart is tot nu toe wel stil
EDIT:
3DMark06 score out-of-the-box
5586
SM2.0 score: 2058
HDR/SM3.0: 2225
CPU score: 2961
Liep niet echt soepel en moet beter kunnen volgens mij. Wat was die tool om oude ATI drivers te verwijderen?
Ben nu 3DMark06 aan het downen.
Qua games kan ik alleen FS2004 en FS-X testen. Misschien Pacific Assault nog, maar meer games heb/doe ik niet.
Kaart is tot nu toe wel stil
EDIT:
3DMark06 score out-of-the-box
5586
SM2.0 score: 2058
HDR/SM3.0: 2225
CPU score: 2961
Liep niet echt soepel en moet beter kunnen volgens mij. Wat was die tool om oude ATI drivers te verwijderen?
[ Voor 27% gewijzigd door Tallguy op 10-11-2006 21:20 ]
klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel
als je het afzeikt doe het dan goed. In bf2 kan je nu ook multiplayer tegen bots spelenAstennu schreef op vrijdag 10 november 2006 @ 16:34:
[...]
Ik vind het knake BF1 was beter. Dat was tenminste nieuw en daar kon je tenminste multiplayer VS bots doen. Allemaal er uit gesloopt. En daar had je btw ook een modern war mod. EA heeft alleen die mod nagemaakt.

Anoniem: 23009
BF2 draait zelfs prima op me ASUS AX800 XT PE AGP als het om oudere kaarten gaat
[ Voor 3% gewijzigd door Anoniem: 23009 op 10-11-2006 22:39 ]
@Obi
Hoe heb jij de Omega drivers kunnen installeren? Ik krijg het niet voor elkaar. Krijg melding dat de drivers niet kloppen. Heb dus Omega 3.8.291
De install zelf lukt wel, dan gaat ie rebooten en na de reboot vindt ie dus geen drivers voor de X1950.
Verwijzen naar de inf werkt ook niet (cannot find the necessary software)
Installeren vanaf de bijgeleverde CD werkt echter wel. What to do?
Hoe heb jij de Omega drivers kunnen installeren? Ik krijg het niet voor elkaar. Krijg melding dat de drivers niet kloppen. Heb dus Omega 3.8.291
De install zelf lukt wel, dan gaat ie rebooten en na de reboot vindt ie dus geen drivers voor de X1950.
Verwijzen naar de inf werkt ook niet (cannot find the necessary software)
Installeren vanaf de bijgeleverde CD werkt echter wel. What to do?
[ Voor 48% gewijzigd door Tallguy op 10-11-2006 23:50 ]
Echte fps heb ik nog niet, maar bv. FEAR kan ik met mn 3500+ spelen in 1280x960 met makkelijk 2x AA, Oblivion gaat goed in 1280 zonder AA maar alles op max, prey draait soepel in 1280 met 4xAA, call of juarez draait goed in 1280... Ik zal wat benchmakrs proberen te gaan draaien, maar ik heb zo het vermoeden dat mn CPU me voorlopig nog een beetje tegenhoudt, mn 3dmark06 was ergens net onder de 4000. Dus die kan zeker nog omhoog met een CPU overclock lijkt me!waterking schreef op vrijdag 10 november 2006 @ 20:27:
kun je eens ingame ervaringen geven ? dus gemiddeld aantal frames in welke games ?
ik zit namelijk ook al een paar dagen na deze kaart te kijken het lijkt me wel een leuke kaart voor weinig geld.
Nog wat benchmarks voor de mensen die erom vroegen:
3DMark03: 18648
3DMark05: 11311
Met de ATi traytool heb ik het programma laten testen tot welke CPU snelheid er geen artifacts kwamen op de X1950. Pas bij 668Mhz core (ipv de standaard 600) crashte de GPU.
Ik zal eens een 3DMark06 doen op die GPU speed. MEMspeed kan ik niet aanpassen
Obi-One een idee?
Update: Met de drivers van de CD en OC'ed volgens de ATi eigen overklok mogelijkheid geeft 3DMark06 nu een score van 5878 (bijna 300 punten hoger)
GPU loopt nu op 621Mhz en MEM op 797Mhz
3DMark03: 18648
3DMark05: 11311
Met de ATi traytool heb ik het programma laten testen tot welke CPU snelheid er geen artifacts kwamen op de X1950. Pas bij 668Mhz core (ipv de standaard 600) crashte de GPU.
Ik zal eens een 3DMark06 doen op die GPU speed. MEMspeed kan ik niet aanpassen
Update: Met de drivers van de CD en OC'ed volgens de ATi eigen overklok mogelijkheid geeft 3DMark06 nu een score van 5878 (bijna 300 punten hoger)
GPU loopt nu op 621Mhz en MEM op 797Mhz
[ Voor 146% gewijzigd door Tallguy op 11-11-2006 13:09 ]
Als ik naar multiplayer ga en een game maak konden er gen bots in. Of ze moeten dit in een patch verandert hebben maar goed heb die game een half jaar geleden een keer gespeeld daar na nooit meer.R-O-Y schreef op vrijdag 10 november 2006 @ 21:49:
[...]
als je het afzeikt doe het dan goed. In bf2 kan je nu ook multiplayer tegen bots spelenCheck eerst of iets waar is voordat je gaat roepen
Verder is het een erg leuke game. Als je ervan houdt heb je zo'n nieuwe videokaart voorlopig ook niet nodig. Scheelt ook aardig wat knaken. BF2 draait prima op de "oude" (
) x1900 kaarten
Ik blijf er bij alle nieuwe EA games zijn bagger.
@ Kensei. De nieuwe drivers locken de memory oc op een of andere manier. Bij mijn X1900 XTX heb ik dat opgelost door de bios er uit te halen clock speeds van geheugen aangepast en toen terrug geflashed. Anders zit je aan de max van die 800.
[ Voor 14% gewijzigd door Astennu op 11-11-2006 14:48 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat EA games bagger zijn gemaakt is idd zo
In een patch is het ook idd toegevoegd. Het spel is wel erg leuk, jammer dat het van EA games komt.
Ik draai nu met een 1900GT. Als ik m'n resolutie op 1600/1200 zet (bf2) gaat het goed. Als ik er 2x AA bij doe ook. Zodra dat meer wordt krijg ik een rare soort lag. Alsof hij aan het swappen is ofzo met de harddisk. Gewoon even een freeze (heel kort) en dan weer verder. FPS is gewoon goed. Iemand een idee of het daadwerkelijk swappen is (1GB geheugen)? Vraagt AA meer geheugen?
Ik draai nu met een 1900GT. Als ik m'n resolutie op 1600/1200 zet (bf2) gaat het goed. Als ik er 2x AA bij doe ook. Zodra dat meer wordt krijg ik een rare soort lag. Alsof hij aan het swappen is ofzo met de harddisk. Gewoon even een freeze (heel kort) en dan weer verder. FPS is gewoon goed. Iemand een idee of het daadwerkelijk swappen is (1GB geheugen)? Vraagt AA meer geheugen?
Ja. 2gb en het is opgelost. kijk maar na het spelen van bf2 in je taskmanager dan zie je dat bij piekgeheugen gebruik hoger is dan 1024mb. Al 100x voorbijgekomen.R-O-Y schreef op zaterdag 11 november 2006 @ 16:48:
Dat EA games bagger zijn gemaakt is idd zoIn een patch is het ook idd toegevoegd. Het spel is wel erg leuk, jammer dat het van EA games komt.
Ik draai nu met een 1900GT. Als ik m'n resolutie op 1600/1200 zet (bf2) gaat het goed. Als ik er 2x AA bij doe ook. Zodra dat meer wordt krijg ik een rare soort lag. Alsof hij aan het swappen is ofzo met de harddisk. Gewoon even een freeze (heel kort) en dan weer verder. FPS is gewoon goed. Iemand een idee of het daadwerkelijk swappen is (1GB geheugen)? Vraagt AA meer geheugen?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Idd toen was het hier ook opgelost. Die Kaart moet volgens mij makkelijk meer kunnen. Op een X1900 XTX ging 1920-1200 met AA en AF perfect. Heb het spel toen wel eens gebruikt om wat te testen.Help!!!! schreef op zaterdag 11 november 2006 @ 17:12:
[...]
Ja. 2gb en het is opgelost. kijk maar na het spelen van bf2 in je taskmanager dan zie je dat bij piekgeheugen gebruik hoger is dan 1024mb. Al 100x voorbijgekomen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 38733
Als we dachten dat de 26cm lange 8800GTX lang was; oorspronkelijk zou de R600 30,5 cm lang worden, maar Ati schijnt de boel aangepast te hebben richting GTX lengte.
http://www.vr-zone.com/?i=4293
http://www.vr-zone.com/?i=4293
26 CM is echt de maximum mijn X1900 XTX gaf al problemen met me Antec Soho kast en dat is een behoorlijk grote kast. Dus ik gok dat een 8800 GTX al niet gaat passen. Dus ik moet van tevoren maar goed gaan kijken of het past maar als i 225/300 watt gebruikt koop ik em zo i zo niet. Is echt veel te veel die nVidia kaart gebruikt maar 140. Of die R600 moet 2x zo snel zijn als de G80 maar dat verwacht ik niet.Anoniem: 38733 schreef op zaterdag 11 november 2006 @ 18:26:
Als we dachten dat de 26cm lange 8800GTX lang was; oorspronkelijk zou de R600 30,5 cm lang worden, maar Ati schijnt de boel aangepast te hebben richting GTX lengte.
http://www.vr-zone.com/?i=4293
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nou mijn sapphire x1900xt (4 weekjes oud) is dus kapot gegaan 4 dagen geleden 
Kzat gewoon nfs carbon te spelen en op een gegeven moment hing mijn pc helemaal, dus reboot gedaan maar er zaten allemaal verticale lijnen door mijn beeldscherm heen en ik kreeg rare leestekens
Maarja ik heb hem nu teruggestuurd naar de winkel waar ik hem heb gekocht, hopen dat ik de kaart weer snel terug krijg (of gewoon een nieuwe) want zit nu met een 4mb PCI kaartje en dat is niet fijn werken
Meer mensen zo`n probleem gehad wat hierboven staat? Ik denk dat het een hitte probleem is
Kzat gewoon nfs carbon te spelen en op een gegeven moment hing mijn pc helemaal, dus reboot gedaan maar er zaten allemaal verticale lijnen door mijn beeldscherm heen en ik kreeg rare leestekens

Maarja ik heb hem nu teruggestuurd naar de winkel waar ik hem heb gekocht, hopen dat ik de kaart weer snel terug krijg (of gewoon een nieuwe) want zit nu met een 4mb PCI kaartje en dat is niet fijn werken
Meer mensen zo`n probleem gehad wat hierboven staat? Ik denk dat het een hitte probleem is
motabeatz.com
BF2 is vet. Dat moet je niet gebruiken om te testen maar om te spelen !!!Astennu schreef op zaterdag 11 november 2006 @ 17:54:
[...]
Idd toen was het hier ook opgelost. Die Kaart moet volgens mij makkelijk meer kunnen. Op een X1900 XTX ging 1920-1200 met AA en AF perfect. Heb het spel toen wel eens gebruikt om wat te testen.
Ben blij dat ik vorig jaar mijn lian li pc65 heb vervangen voor een coolermaster ATX830. Prijzig, dat wel maar op een aantal schoonheidsfoutjes na is het echt een topkast, Ik heb nog zeker 4 cm ruimte over met een 8800 installed (ja ik kon de verleiding niet weerstaanAstennu schreef op zaterdag 11 november 2006 @ 19:08:
[...]
26 CM is echt de maximum mijn X1900 XTX gaf al problemen met me Antec Soho kast en dat is een behoorlijk grote kast. Dus ik gok dat een 8800 GTX al niet gaat passen.

Echter de lengte is niet het enige probleem. De cooler wordt ook langer en kan potentieel diverse kabels in de weg zitten. Imo moeten we stopppen bij de lengte van de 8800 anders wordt het echt te gek.
Staar je nou niet zo blind op dat verbruik. Zo erg is dat toch niet. Het geldt alleen als je gamed en dan heb je de lichten toch uit of zachter en dat compenseert weer. Ik ben uiteraard ook voor een laag verbruik maar in de praktijk valt het allemaal wel mee !Dus ik moet van tevoren maar goed gaan kijken of het past maar als i 225/300 watt gebruikt koop ik em zo i zo niet. Is echt veel te veel die nVidia kaart gebruikt maar 140. Of die R600 moet 2x zo snel zijn als de G80 maar dat verwacht ik niet.
Het valt me tegen dat ATI later is terwijl ze de Xenos ervaring hebben en eerlijk is eerlijk de G80 is echt goed ook qua IQ. Ik heb altijd gezegd dat nvidia een pitbull is waar je voor moet uitkijken en ze bewijzen het nu weer. Als Nvidia in de hoek wordt gedreven komen ze altijd sterk terug. Ik ben bijvoorbeeld ook onder de indruk van de 680 chipset. Nvidia had weinig ervaring met intel chipsets, de 5(90) serie was een sof maar een half jaar later persen ze toch de 680 eruit.
Nu is imo nvidia meer ervaren met chipsets maar ik vind het toch jammer dat ATI met de RD600 wat in potentie een geweldige chipset is niet tot hetzelfde in staat is, het duurt allemaal zo lang. Ik mis gewoon wat agressie bij ATI en dat vind ik jammer want het is een mooi bedrijf met mooie produkten.
Echter de R600 wordt vast een goede kaart, helaas wat later maar dat komt wel goed. Ik heb nog steeds vertrouwen in ATI, in mijn ogen zijn zij de winnaar in het x1900/7900gtx tijdperk. Alleen hebben ze het marketingtechnisch gewoon dom aangepakt en daardoor denkt iedereen dat nvidia beter was op single card high end gebied. Hopelijk gaan ze profiteren van de kennis van AMD want ATI is simpelweg een bedrijf met het hart op de juiste plek

[ Voor 18% gewijzigd door Help!!!! op 11-11-2006 19:43 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik ben het wel met je eens. Het verbruik is niet het ergste als hij in 2d maar niet veel verbruikt. Dus in 2d hetzelfde als de huidige X1900 XTX. maar met 300 watt moet ik wel een nieuwe PSU kopen en daar heb ik niet veel zin in dus ik hoop eigelijk op een kaart die maar 160 nodig heeft. Zie ook de G80 680 miljoen transistors en gebruikt maar 20 watt meer dan de X1950 XTX. Erg netjes hoor. Maar dat houd denk ik in dat dat chippie op een laag voltage draait en er dus makkelijk een snellere G81 kan komen die wel een veel hoger verbruik heeft maar ook een heel stuk sneller is.
Maar we zullen zien. Ik heb in ieder geval geen zin om een nieuwe voeding en kast te kopen omdat ik een nieuwe VGA kaart koop. Dus hopelijk gaan we nu een nieuw tijdperk in van kleiner sneller en zuiniger.
Maar we zullen zien. Ik heb in ieder geval geen zin om een nieuwe voeding en kast te kopen omdat ik een nieuwe VGA kaart koop. Dus hopelijk gaan we nu een nieuw tijdperk in van kleiner sneller en zuiniger.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Je kast weet ik niet maar als ik die 8800gtx + al mijn andere hardware met een 480w tagan kan draaien hoef je je met jouw voeding ws geen zorgen te maken.Astennu schreef op zondag 12 november 2006 @ 10:14:
Ik ben het wel met je eens. Het verbruik is niet het ergste als hij in 2d maar niet veel verbruikt. Dus in 2d hetzelfde als de huidige X1900 XTX. maar met 300 watt moet ik wel een nieuwe PSU kopen en daar heb ik niet veel zin in dus ik hoop eigelijk op een kaart die maar 160 nodig heeft. Zie ook de G80 680 miljoen transistors en gebruikt maar 20 watt meer dan de X1950 XTX. Erg netjes hoor. Maar dat houd denk ik in dat dat chippie op een laag voltage draait en er dus makkelijk een snellere G81 kan komen die wel een veel hoger verbruik heeft maar ook een heel stuk sneller is.
Maar we zullen zien. Ik heb in ieder geval geen zin om een nieuwe voeding en kast te kopen omdat ik een nieuwe VGA kaart koop. Dus hopelijk gaan we nu een nieuw tijdperk in van kleiner sneller en zuiniger.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 4629
Die 300 watt waar jij het over hebt is van het hele systeem wat is getest, niet enkel de videokaart. Ze hangen er een watt-meter tussen en die meet aan het stopcontact dus de hele PC. Tijdens het gamen is de CPU ook veel meer bezig bv. Waarschijnlijk zit je met je 160 watt al aan de hoge kant voor het verbruik van de videokaart zelf.
Anoniem: 151544
http://www.hardware.info/...ing_ATI_R600_kaart_nodig/
Herbewerking ATI R600 nodig omdat deze nog langer is dan de G80, namelijk 30cm.
Herbewerking ATI R600 nodig omdat deze nog langer is dan de G80, namelijk 30cm.

Bevestiging dat de quadfather met nVidea-chipset ook Crossfire ondersteund. Hopelijk maakt dit het ook op een nForce4 moederbord mogelijk.

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.
Haha ik zag het ook net op de FP, wou er ook iets over zeggen! Het zou een geweldig zijn als nforce moederborden voortaan Crossfire ondersteunen, in een keer kan Crossfire ook overweg met de grootste groep enthousiast moederborden!Joost E. Boere schreef op zondag 12 november 2006 @ 14:17:
Bevestiging dat de quadfather met nVidea-chipset ook Crossfire ondersteund. Hopelijk maakt dit het ook op een nForce4 moederbord mogelijk.
[afbeelding]
Dit topic is gesloten.
Let op:
Kijk naar de _topicregels_ voordat je post!!! Hou het on-topic.
Kijk naar de _topicregels_ voordat je post!!! Hou het on-topic.