Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Verwijderd
Zo, da's lekker. Ik ga eens kijken wat ik voor mijn X850 XT kan krijgen (toch wel 75 euro neem ik aan?) want dit vind ik wel een hele mooie upgrade.Mastasidaz schreef op woensdag 06 juni 2007 @ 17:05:
Had ik al zo'n vreselijk dillema:( nu is er nog een bijgekomen, ik zag bij alternate dat de X1950XT nu in de aanbieding is voor 149.
Link
Deze kaart doet in DX9 niet eens zoveel onder voor de 8800GTS 640MB.
Hoelang denken jullie dat games nog in DX9 gemaakt zullen blijven worden? Want als de 1950XT nog 2 jaar meekan is dit een erg goede prijs.
Thanx voor de tip
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Weet ik maar dat dacht ik van mijn vorige PSU ook ( 550 watt ) dus nu een 1000. Hopelijk gaat hij 3 jaar meeTed56 schreef op woensdag 06 juni 2007 @ 20:47:
1000w PSU is echt zwaar overdreven, alleen als je Quad CrossFire en een dik overglockte Quad processor heb + een tig of wat harde schijven is het aan te raden..
Maar wou een goede psu met hoog rendement, super stabiel en de 8P Pci expres stekker en toen kwam deze er uit
En dan vind ik het niet erg wat meer te betalen. + Hij is echt super stil hoor em helemaal niet HD maakt meer lawaai
[ Voor 28% gewijzigd door Astennu op 06-06-2007 21:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Welke type heb je precies?Astennu schreef op woensdag 06 juni 2007 @ 21:04:
[...]
Weet ik maar dat dacht ik van mijn vorige PSU ook ( 550 watt ) dus nu een 1000. Hopelijk gaat hij 3 jaar mee1000 watt voor een pc zou ook niet echt goed zijn voor de energie rekening
Maar wou een goede psu met hoog rendement, super stabiel en de 8P Pci expres stekker en toen kwam deze er uitde 850 watt van coolermaster heeft het standaard niet. Alleen de nieuwe ref heeft dat en bij deze weet ik het zeker
En dan vind ik het niet erg wat meer te betalen. + Hij is echt super stil hoor em helemaal niet HD maakt meer lawaai
Heb nu een silverstone op1000, maar deze maakt meer lawaai dan de 2900xt op 3d speed
Ben van plan om deze in te ruilen.
|2600k|Asus 290|
Daarbij cpu ook flinke oc (zie onder mijn webicoon)
Heb de 26pins aangesloten op ati kaart en de 8 pin (paste niet op 2900xt) op mobo.
De ``oude`` 4-pins atx heb ik door de helft gedaan en bij de achtpins aansluiting zitten.
Niet echt nodig maar voor de zekerheid.
[ Voor 15% gewijzigd door JohnB op 06-06-2007 21:29 ]
Ik heb de: Coolermaster Real Power M1000 Modular PSU (RS-A00-ESBA)Bullus schreef op woensdag 06 juni 2007 @ 21:19:
[...]
Welke type heb je precies?
Heb nu een silverstone op1000, maar deze maakt meer lawaai dan de 2900xt op 3d speed![]()
Ben van plan om deze in te ruilen.
http://www.coolermaster-e...r%20M1000%20Modular%20PSU

4Launch kan ze in ieder geval leveren. Ik vind het echt een super ding. Was ook veel stabieler dan die Silverstone en de Enermax Galaxy. De Thermaltake Roughpower is ook wel nice. Die is er ook in 1200 Watt
Ik had hier voor de 550 watt die was ook al nice. Maar deze is zo veel stabieler. 12v zakt 0.02 of zo onder belasting. Dus uber stabiel. Bijna geen PSU die in de buurt komt vooral niet voor die prijs.
[ Voor 9% gewijzigd door Astennu op 06-06-2007 21:32 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Kijken hoe mijn huidige voeding het houdt tot nu toe.
Nope, net Vista Ultimate installed, en weer werkt 1440x900 niet.mieJas schreef op woensdag 06 juni 2007 @ 11:15:
[...]
Gewoon 60 Hz, is ook een TFT hier (DVI).
edit
Wat ik gemerkt heb is, als je een verse install van windows hebt, dat je met de 7.5 drivers perfect 1400x900 kan instellen. Als je upgrade van een vorige driverversie, blijkt die resolutie geen optie te zijn.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
tnxAstennu schreef op woensdag 06 juni 2007 @ 21:30:
[...]
Ik heb de: Coolermaster Real Power M1000 Modular PSU (RS-A00-ESBA)
http://www.coolermaster-e...r%20M1000%20Modular%20PSU
[afbeelding]
4Launch kan ze in ieder geval leveren. Ik vind het echt een super ding. Was ook veel stabieler dan die Silverstone en de Enermax Galaxy. De Thermaltake Roughpower is ook wel nice. Die is er ook in 1200 Wattalleen dit zit volgens mij rond de 380 euro
.
Ik had hier voor de 550 watt die was ook al nice. Maar deze is zo veel stabieler. 12v zakt 0.02 of zo onder belasting. Dus uber stabiel. Bijna geen PSU die in de buurt komt vooral niet voor die prijs.
Toevallig heb ik mijn silverstone ook daar gekocht,dus dat wordt omruilen.
.Zo te zien is de lengte korter dan de silverstone,beter
|2600k|Asus 290|
Heeft 8 pin pci-e aansluiting voor de 2900XT, ik kon de 2900XT vandaag al hebben, alleen heeft de leverancier lopen klooien
Jep hij is best compact voor een 1000 watt. Kleiner dan de Thermaltake Roughpower en de Galaxy. Maar wel een stukje groter dan de 550 watt die ik eerst had. Hij heeft ook twee 12v transformators.Bullus schreef op woensdag 06 juni 2007 @ 21:59:
[...]
tnx![]()
Toevallig heb ik mijn silverstone ook daar gekocht,dus dat wordt omruilen.
.Zo te zien is de lengte korter dan de silverstone,beter
Maar het wordt weer tijd voor back ontopic
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Testen gedraaid met cat 7.5:
XP vs. Vista - A Tale of Framerates: Redux
Nee, merp!
12141
http://service.futuremark.com/compare?3dm06=2148473
E6600 @ 3.55
HD2900 @ 850/1030
Vrijwel geen verschil dus met de 7.4 (iets van 80 punten, hoewel die benchmark uitgevoerd was op hogere clockspeeds, alleen is het hier nu wat warmer.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Ik zou kijken als ie gelijk geklokt is
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
zelfs op 1050 normaal nog niet, maar het is hier savonds altijd flink warm op mn kamer, dus op 1050 kreeg ik wel wat strepen.N0taFAma schreef op woensdag 06 juni 2007 @ 22:59:
1030 Mhz geheugen geeft dat geen artifacts?
Ik zou kijken als ie gelijk geklokt is
Wat halen de rest van de mensen hier met de 2900's? Compare URLs? ff kijken of ik mss ergens niet optimaal presteer..
[ Voor 15% gewijzigd door Pubbert op 06-06-2007 23:42 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
die kabels schijnen nogal kort te zijn +\- 40 cm (24pin)mauricedb schreef op woensdag 06 juni 2007 @ 22:01:
Ik heb de Enermax Infinity 650 Watt besteld die morgen binnen zal komen![]()
Heeft 8 pin pci-e aansluiting voor de 2900XT, ik kon de 2900XT vandaag al hebben, alleen heeft de leverancier lopen klooienNu moet ik weer wachten totdat de kaart op voorraad is
Dan bestel je hem ergens anders? Genoeg shops met voorraad.mauricedb schreef op woensdag 06 juni 2007 @ 22:01:
Ik heb de Enermax Infinity 650 Watt besteld die morgen binnen zal komen![]()
Heeft 8 pin pci-e aansluiting voor de 2900XT, ik kon de 2900XT vandaag al hebben, alleen heeft de leverancier lopen klooienNu moet ik weer wachten totdat de kaart op voorraad is
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Mijn kaart doet 848-1050. Op 1100 MHz krijg ik artifacts.N0taFAma schreef op woensdag 06 juni 2007 @ 22:59:
1030 Mhz geheugen geeft dat geen artifacts?
Ik zou kijken als ie gelijk geklokt is
Als dit zo is heeft AMD/ATi een giga probleem. Want de G90 zou rond die tijd uit moeten komen. En de R600 kan de 8800 GTX niet eens aan laat staat de Ultra of zelfs de G90. En dan gaat het nog 6 maanden duren voor dat ATi met de R700 komt ? in dit geval lijkt het er op dat de R600 ATi's grootste flop ooit is. De X1800 was in verhouding beter en werd goed gemaakt door de X1900. Nu maar hopen dat er toch een R650/670 komt.Computex 07: There is no 65 nm R600
We learned a disturbing bit of news and that is that all the informations including the “leaks within AMD” about the 65 nanometre were false.
AMD wants to find some high profile mole(s) and deliberatly planted these two codenams and a chip specification. Fudzilla has seen these documents and can confirm that there were at least a few mentions of R650 or R670, but I have to dissapoint you all, as it is not real.
R600 is the best you will see from ATI until Christmas and you will have to find your peace with it.
However RV670 exists.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Sunnyvale, Californië - 22 mei 2007 - AMD (NYSE: AMD) heeft vandaag bekendgemaakt dat Marcus Hultin (alias Kinc) van NordicHardware.com dankzij de ATI Radeon™ HD 2900 XT GPU een nieuw single-cardrecord t.o.v. de Futuremark 3DMark®05 heeft neergezet, met een score van 30.092. Hultin gebruikte een systeem met een ATI Radeon HD 2900 XT grafische kaart, een kloksnelheid van 1144 MHz en een geheugenklok van 999 MHz bij een temperatuur onder het vriespunt. Het vorige single-cardrecord van 29.686 van de 3DMark 05 is hiermee overtuigend gebroken.
'Bij Futuremark testen we hoe we het uiterste uit een systeem kunnen halen', aldus Oliver Baltuch, VP Sales and Marketing van Futuremark Corporation. 'Het is geweldig dat iemand het record van de 3DMark05 heeft kunnen doorbreken met een grafische kaart van AMD, met door Futuremark grondig geteste en goedgekeurde drivers. De prestatie die hiermee wordt neergezet is van een ongekend niveau!'
Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)
Ja heel leuk als hij nu in verhouden net zo goed gepresteerd als in games was het helemaal goed geweest. Echter is dat niet het gevalvigilante888 schreef op donderdag 07 juni 2007 @ 09:21:
Marcus Hultin van NordicHardware.com heeft het 30.000-puntenrecord van de Futuremark 3DMark®05 doorbroken met behulp van de ATI Radeon™ HD 2900 XT
Sunnyvale, Californië - 22 mei 2007 - AMD (NYSE: AMD) heeft vandaag bekendgemaakt dat Marcus Hultin (alias Kinc) van NordicHardware.com dankzij de ATI Radeon™ HD 2900 XT GPU een nieuw single-cardrecord t.o.v. de Futuremark 3DMark®05 heeft neergezet, met een score van 30.092. Hultin gebruikte een systeem met een ATI Radeon HD 2900 XT grafische kaart, een kloksnelheid van 1144 MHz en een geheugenklok van 999 MHz bij een temperatuur onder het vriespunt. Het vorige single-cardrecord van 29.686 van de 3DMark 05 is hiermee overtuigend gebroken.
'Bij Futuremark testen we hoe we het uiterste uit een systeem kunnen halen', aldus Oliver Baltuch, VP Sales and Marketing van Futuremark Corporation. 'Het is geweldig dat iemand het record van de 3DMark05 heeft kunnen doorbreken met een grafische kaart van AMD, met door Futuremark grondig geteste en goedgekeurde drivers. De prestatie die hiermee wordt neergezet is van een ongekend niveau!'
pressrelease van AMD
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is leuk dat een kaart van 350Euro vol overclockt, beter presteert in 3dmark als een 8800 overclocked, als is het maar incidenteel. Dat de kaart minder snel is in andere games als een 8800GTX kun je weinig aan doen, die is ook zo'n 150 euro duurder. We kunnen ook wel kwaad worden dat de X1650 trager is als een X1950, maar die is ook gewoon 150 euro goedkoper.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Astennu schreef op donderdag 07 juni 2007 @ 08:40:
[...]
Mijn kaart doet 848-1050. Op 1100 MHz krijg ik artifacts.
[...]
Als dit zo is heeft AMD/ATi een giga probleem. Want de G90 zou rond die tijd uit moeten komen. En de R600 kan de 8800 GTX niet eens aan laat staat de Ultra of zelfs de G90. En dan gaat het nog 6 maanden duren voor dat ATi met de R700 komt ? in dit geval lijkt het er op dat de R600 ATi's grootste flop ooit is. De X1800 was in verhouding beter en werd goed gemaakt door de X1900. Nu maar hopen dat er toch een R650/670 komt.
Ik wilde eigenlijk wachten op een 65nm R600, maar als dit klopt bestel ik nu wel een 2900XT
Ik heb echt geen idee. Het is Fudzilla. Maar we dachten ook dat de slechte prestaties van de R600 niet waar waren. En die bleken ook te kloppen.... Ik hoop dat er nog een snellere kaart gaat komen. Anders heeft AMD een probleem. En moet zelfs ik nVidia gaan overwegen omdat het performance gat tussen de R600 en G90 ( waarschijnlijk ) erg groot gaat zijn. Ik ga er van uit dat de G90 een heel stuk sneller is dan de 8800 Ultra. Dus maar hopen dat er gewoon een R650/670 komt.WoutF schreef op donderdag 07 juni 2007 @ 10:11:
[...]
Hoe betrouwbaar is dit?
Ik wilde eigenlijk wachten op een 65nm R600, maar als dit klopt bestel ik nu wel een 2900XT
[ Voor 28% gewijzigd door Astennu op 07-06-2007 10:21 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Deze roadmap is van eind vorig jaar:WoutF schreef op donderdag 07 juni 2007 @ 10:11:
[...]
Hoe betrouwbaar is dit?
Ik wilde eigenlijk wachten op een 65nm R600, maar als dit klopt bestel ik nu wel een 2900XT

Daar staat duidelijk een "next gen R600" op voor Q3. Natuurlijk veranderen roadmaps continue, maar dat er iets is na R600 is wel duidelijk. Dat werd ook door Dave Orton bevestigd die het had over de refresh van de R600 op 65nm en dit toen voor het gemak maar even een "R650" noemde.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja kan ook zijn dat hij geen R650 heet. Maar ja zou wel raar zijn dat de R600 op 65nm en met veel interne tweaks gewoon nog R600 zou heten. We zullen wel zien. Ik hoop dat de Next gen R600 er gewoon komt. En dan heb ik het niet over de R700. R700 mag ook in december hoorCJ schreef op donderdag 07 juni 2007 @ 10:21:
[...]
Deze roadmap is van eind vorig jaar:
[afbeelding]
Daar staat duidelijk een "next gen R600" op voor Q3. Natuurlijk veranderen roadmaps continue, maar dat er iets is na R600 is wel duidelijk. Dat werd ook door Dave Orton bevestigd die het had over de refresh van de R600 op 65nm en dit toen voor het gemak maar even een "R650" noemde.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Er komt zeker nog een refresh van de R600. De R700 is nog te ver weg, en er moet iets zijn om die tijd te overbruggen. Echter een '65 nm R600' kost veel te veel resources, en kan je wel uitsluiten. De vraag is dus wat die R650 wordt. Ik gok dat het nog steeds een 80nm chip is met wat layout optimalisaties, 1GB GDDR4 en een iets hoger klok. Een soort R580->R580+.Astennu schreef op donderdag 07 juni 2007 @ 08:40:
Als dit zo is heeft AMD/ATi een giga probleem. Want de G90 zou rond die tijd uit moeten komen. En de R600 kan de 8800 GTX niet eens aan laat staat de Ultra of zelfs de G90. En dan gaat het nog 6 maanden duren voor dat ATi met de R700 komt ? in dit geval lijkt het er op dat de R600 ATi's grootste flop ooit is. De X1800 was in verhouding beter en werd goed gemaakt door de X1900. Nu maar hopen dat er toch een R650/670 komt.
En als je iets wil hebben tegen de G80 ultra, dan koop je toch 2 R600's?
En tegen G80 ultra sli? Quad crossfire komt naar je toe deze zomer
@CJ: Ik dacht dat de R700 op 55nm gebouwd zou worden?
Nu zijn er nog de mensen die teleurgesteld zijn in de kaart en de enige slechte reden die ik kan bedenken is het stoomverbruik. Want verder is het een uitstekende kaart voor je geld. Hij presteerd iig stukken meter als een 8800GTS640MB die duurder is en de 2900 kan veel verder geklokt worden. En bij alle benchmarks loopt hij 10-15(vd 100-150)fps achter op een 8800GTX en met AA 15-25 fps ik moet zeggen dat dit uitstekend is voor een kaart die 150-170 euro minder kost! En dat nog los van het feit of je hem overklock ja of nee. Ik moet zeggen dat 10-15% slechtere prestaties ook 10-15% vd prijs moeten uitmaken en zo kan je zeggen dat de 8800GTX maar 420 euro waard is.
Voor de liefhebbers is hier de HD2900XT1024 te koop: http://www.extreme-pc.ca/...nu3id=39&productid=371414
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja ik vind 2x R600 een veel te hoog verbruik hebben. 1 eigenlijk ook al. Ik denk dat ik dan voor 2x RV670 in CF ga want die is wel op 65nm. Of ik koop een RV670 Gemini kaartVerwijderd schreef op donderdag 07 juni 2007 @ 10:46:
[...]
Er komt zeker nog een refresh van de R600. De R700 is nog te ver weg, en er moet iets zijn om die tijd te overbruggen. Echter een '65 nm R600' kost veel te veel resources, en kan je wel uitsluiten. De vraag is dus wat die R650 wordt. Ik gok dat het nog steeds een 80nm chip is met wat layout optimalisaties, 1GB GDDR4 en een iets hoger klok. Een soort R580->R580+.
En als je iets wil hebben tegen de G80 ultra, dan koop je toch 2 R600's?
En tegen G80 ultra sli? Quad crossfire komt naar je toe deze zomer
@CJ: Ik dacht dat de R700 op 55nm gebouwd zou worden?
Een nieuwe R600 op 80nm wordt gewoon weer een ramp. Veel te veel leakage waardoor je veel warmte em een hoog stroomverbruik hebt.
Ik verwachte de R700 al niet voor volgend jaar. Maar een 65nm R600 is nu dus ook al min of meer uit uitgesloten
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verbuik zou veel te hoog zijn, de reden waarom hij uitgesteld was is hetzelfde denk ik verbuik dat te hoog was. Je kan gewoonweg niet een 300+watt kaart verkopen aan de mensen. Er zin weinig mensen die en een voeding en een kaart zullen kopen, die kost is gewoonweg te hoog.Solid_Aapie schreef op donderdag 07 juni 2007 @ 10:54:
Ik snap 1 ding niet van Ati, bijna elke 2900 haalt op zijn ddr een snelheid van 2000mhz(2x1000). Waarom hebben ze de kaarten hier niet stock op laten draaienIk bedoel als ze een paar euro extra een een betere koeling hadden besteed was de core koeler geweest en zou die het geheugen extra kunnen koelen. Met de hogere snelheden kan die beter meekomen met de 8800GTX(mischien sneller?).
Pak dan eenGTS 320MB versie, voor 95% van de mensen even goed en 30% goedkoper, in dat opzicht is de 2900XT/GTS 640 dus maar 250euro waard en een GTX een 300 euro.Nu zijn er nog de mensen die teleurgesteld zijn in de kaart en de enige slechte reden die ik kan bedenken is het stoomverbruik. Want verder is het een uitstekende kaart voor je geld. Hij presteerd iig stukken meter als een 8800GTS640MB die duurder is en de 2900 kan veel verder geklokt worden. En bij alle benchmarks loopt hij 10-15(vd 100-150)fps achter op een 8800GTX en met AA 15-25 fps ik moet zeggen dat dit uitstekend is voor een kaart die 150-170 euro minder kost! En dat nog los van het feit of je hem overklock ja of nee. Ik moet zeggen dat 10-15% slechtere prestaties ook 10-15% vd prijs moeten uitmaken en zo kan je zeggen dat de 8800GTX maar 420 euro waard is.
een R650 met alleen hogere clocks, en wat kleine wijzigingen is misschien nog lang niet genoeg om een G90 te verslaan...?
misschien krijgen ze de clocks wel niet hoger, en moeten ze ingrijpende wijzigingen doen aan de architectuur waardoor het geen r650 meer is ??
of misschien schaalt de R600 wel niet zo goed als de clocks omhoog gaan?
ja...en hier zie je ook meteen de reden waarom de R600 zo ''goedkoop'' kan worden neergezet....CJ schreef op donderdag 07 juni 2007 @ 10:55:
Voor de liefhebbers is hier de HD2900XT1024 te koop: http://www.extreme-pc.ca/...nu3id=39&productid=371414
512mb extra gehuegen kost al gauw 200-250 euro extra...
als ze deze kaart als eerste hadden uitgebracht, en daarna de 512mb versie was het helemaal een flop geweest
[ Voor 46% gewijzigd door Mr. Detonator op 07-06-2007 11:41 ]
Als ze de R600 laten zoals hij is qua shaders en TMU's denk ik dat ze em misschien tegen de performance van de 8800 Ultra aan kunnen krijgen door clockspeeds te verbeteren en dus leakage in de core aan te pakken. Maar ik denk dat de G90 te hoog gegrepen is want dat is een "nieuw" ontwerp. Waarschijnlijk op 65nm.Mr. Detonator schreef op donderdag 07 juni 2007 @ 11:32:
Misschien dat ze nou inzien dat de r600 een paar ''ontwerpfouten'' heeft, en ze er dus zoveel aan moeten veranderen dat het meteen een R700 word...
een R650 met alleen hogere clocks, en wat kleine wijzigingen is misschien nog lang niet genoeg om een G90 te verslaan...?
misschien krijgen ze de clocks wel niet hoger, en moeten ze ingrijpende wijzigingen doen aan de architectuur waardoor het geen r650 meer is ??
of misschien schaalt de R600 wel niet zo goed als de clocks omhoog gaan?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
ding schaalt juist aardig naar wat ik gelezen heb, tis meer een kwestie van stroomverbruik.Mr. Detonator schreef op donderdag 07 juni 2007 @ 11:32:
Misschien dat ze nou inzien dat de r600 een paar ''ontwerpfouten'' heeft, en ze er dus zoveel aan moeten veranderen dat het meteen een R700 word...
een R650 met alleen hogere clocks, en wat kleine wijzigingen is misschien nog lang niet genoeg om een G90 te verslaan...?
misschien krijgen ze de clocks wel niet hoger, en moeten ze ingrijpende wijzigingen doen aan de architectuur waardoor het geen r650 meer is ??
of misschien schaalt de R600 wel niet zo goed als de clocks omhoog gaan?
[...]
ja...en hier zie je ook meteen de reden waarom de R600 zo ''goedkoop'' kan worden neergezet....
512mb extra gehuegen kost al gauw 200-250 euro extra...
als ze deze kaart als eerste hadden uitgebracht, en daarna de 512mb versie was het helemaal een flop geweest
En als ze toch naar 65 overschakelen is het niet moeilijk om wat extra units bij te planten, omdat ze niet simpel kunnen shrinken.
[ Voor 20% gewijzigd door Bever! op 07-06-2007 11:39 ]
Ze kunnen nu ook al units bijplaatsen want de R600 is modulair alleen de core wordt dan nog groter en gaat nog meer stroom slurpen.Bever! schreef op donderdag 07 juni 2007 @ 11:39:
[...]
ding schaalt juist aardig naar wat ik gelezen heb, tis meer een kwestie van stroomverbruik.
En als ze toch naar 65 overschakelen is het niet moeilijk om wat extra units bij te planten, omdat ze niet simpel kunnen shrinken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
G90 is geen "nieuw" ontwerp. Je kan deze het beste omschrijven als een turbo G80.Astennu schreef op donderdag 07 juni 2007 @ 11:36:
[...]
Als ze de R600 laten zoals hij is qua shaders en TMU's denk ik dat ze em misschien tegen de performance van de 8800 Ultra aan kunnen krijgen door clockspeeds te verbeteren en dus leakage in de core aan te pakken. Maar ik denk dat de G90 te hoog gegrepen is want dat is een "nieuw" ontwerp. Waarschijnlijk op 65nm.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Zal je zien dat Nv daar ook VC-1 decodering integreerd en H264 @ L5.1. Dan halen ze ook nog eens op het gebied van video-decodering Ati links in; UVD heeft dan geen toegevoegde waarde meer.CJ schreef op donderdag 07 juni 2007 @ 12:38:
[...]
G90 is geen "nieuw" ontwerp. Je kan deze het beste omschrijven als een turbo G80.
En ook wel vreemd, dat ik bij Splinter Cell Chaos Theory (patched 1.5), Shadermodel 3.0, met HDR geen anti-aliasing kan aanzetten?
En elke keer als ik een venster in Windows XP, wil verslepen, dan gaat hij over op VPU Recovery.
Nog meer mensen, met het zelfde problemen?
[ Voor 6% gewijzigd door Splinter Cell op 07-06-2007 12:46 ]
Volgens geruchten schijnt de G92 2-3 keer de real world de perf van een G80 te leveren. Ik heb steeds meer het idee dat het voorlopig over is met ATI vwb het perf.leadership.Astennu schreef op donderdag 07 juni 2007 @ 11:36:
[...]
Als ze de R600 laten zoals hij is qua shaders en TMU's denk ik dat ze em misschien tegen de performance van de 8800 Ultra aan kunnen krijgen door clockspeeds te verbeteren en dus leakage in de core aan te pakken. Maar ik denk dat de G90 te hoog gegrepen is want dat is een "nieuw" ontwerp. Waarschijnlijk op 65nm.
Hopelijk eindigt het niet zoals matrox.
Niet op voorraad.
Klopt. Dat komt er ook in. Maar denk je echt dat AMD stil blijft staan in de tussentijd?Verwijderd schreef op donderdag 07 juni 2007 @ 12:41:
[...]
Zal je zien dat Nv daar ook VC-1 decodering integreerd en H264 @ L5.1. Dan halen ze ook nog eens op het gebied van video-decodering Ati links in; UVD heeft dan geen toegevoegde waarde meer.
En UVD heeft altijd een toegevoegde waarde. Of het nu op een AMD kaart is of op een NV kaart.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
idd conclusie: ze kunnen het niet, want dan wordt dat ding onkoelbaar en niemand heeft een geschikte psu.Astennu schreef op donderdag 07 juni 2007 @ 12:00:
[...]
Ze kunnen nu ook al units bijplaatsen want de R600 is modulair alleen de core wordt dan nog groter en gaat nog meer stroom slurpen.
Ik bedoel:
- 65nm chips zijn veel goedkoper te produceren
- Crossfire wordt steeds volwassener en schaalt steeds beter.
- Hitteproductie van de 65nm chips is een stuk lager dan van de R600.
- Je kunt meer ram op een dual kaart zetten. 1GB GDDR wat de 7950GX2 had klinkt natuurlijk wel lekker.
En met een goede dual RV670 in massaproductie zou ATi misschien wel een G90 kunnen bijhouden. De G90 is immers geen compleet nieuw ontwerp chip en zal dus waarschijnlijk niet 2x zo snel zijn als de 8800GTX.
[ Voor 7% gewijzigd door frankknopers op 07-06-2007 13:33 ]
Goud is geen geld
en:After the 65 nanometre RV630 there will be a 55 nanometre version.
The codename is RV635 and it is scheduled for Q1 next year.
We will tell you more soon, typing on a Nokia N61 in Carnegie's here in rainy Taipei is not than fun.
Logische keuze van intel. Want High end is maar 4% of zo. En moeilijk te halen. High end is wel een goede reclame.Fudzilla managed to confirm the existence of a Larabee project. Intel is working on a graphic solution that is supposed to come late 2008 if not even later.
We know it is much better than then integrated graphics and that Intel wants to make Ati and Nvidia run for their money.
We also managed to find out that Intel is after the volume market rather than the performance R600 and G80 market.
Edit meer ATi nieuws:
en:ATI is already shipping RV610 and RV630 to some major OEMs and some of them will quietly introduce the systems based on these new 65 nm DirectX 10 parts.
We don't know who is the first to have them but we learned that even some AIB partners will start shipping the cards in late June to early August.
This is finally some good news for ATI fanboys, as these sub $100 and $200 will finally start shipping soon.
Die laatste zin klopt toch niet ? RV610 was 25 watt en lager RV630 zat als het goed is iets hoger rond de 45. Zou wel leuk zijn RV630 25 WattA few DAAMIT partners are getting confident that ATI has a fighting chance. They learned that ATI won more then 60 percent of OEM deal versus Nvidia.
Ati RV610 is 65 nanometer and only 80 square mm, while its competitor, the G86, is 120+ in die size and it draws more power.
ATI has won on the price performance ratio as it is cheaper to make these products and that is what OEM's are all about.
The big OEM's love the power consumption of RV630 which is below 25W per card.
[ Voor 41% gewijzigd door Astennu op 07-06-2007 13:57 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Naja, ik heb tot het einde van het jaar om een definitieve beslissing voor de HTPC te maken. De overige onderdelen zijn al redelijk bekend; Een Onkyo TX-SR875 en een 37"Aquos (of een 37" met HDMI1.3a aansluiting, als die op dat moment beschikbaar/betaalbaar zijn).CJ schreef op donderdag 07 juni 2007 @ 13:02:
[...]
Klopt. Dat komt er ook in. Maar denk je echt dat AMD stil blijft staan in de tussentijd?
En UVD heeft altijd een toegevoegde waarde. Of het nu op een AMD kaart is of op een NV kaart.
Doel is duidelijk; Het moet een HTPC worden die alle HD formaten kan decoderen met hardware-assisitentie. En daarbij reken ik ook X264, die encodeert als H264@L5.1. Liefst moet ie zelfs "hogere" profielen kunnen meenemen, en ook YUV4:4:4 kleurruimte ("deepcolor" in de HDTV-wereld). De gebruikelijk eisen als "stil" en niet te warm etc. behoren logischerwijs ook tot de vereisten.
Aangezien een X2400 (of 2600) met UVD dich bij deze eisen in de buurt lijkt te komen, was mijn ook daar dan ook op gevallen. Maar eea is nog steeds een beetje afwachten (X264 mogelijk ? YUV4:4:4 mogelijk ? Dat soort vragen)
Verschil is wel dat de 7950GX2 een dual G71 was, en daarmee een combinatie van de 2 nV high-end chips destijds. RV670 is midrange.frankknopers schreef op donderdag 07 juni 2007 @ 13:32:
Was de RV670 niet ook een 65nm chip? Als we de richtprijzen van de 65nm HD2400 en HD2600 zouden kunnen doortrekken naar de RV670 dan zie ik al succesvolle dual-kaart als de 7950GX2 verschijnen.
De RV670 wordt een 256bit midrange kaart. Prestaties van een dual RV670 zullen wellicht concurrerend zijn met de R600 en 8800, maar niet met hun opvolgers.En met een goede dual RV670 in massaproductie zou ATi misschien wel een G90 kunnen bijhouden.
De 7800GTX was ook geen compleet nieuw ontwerp, maar een doorontwikkeling van de 6800. Toch is 1x 7800GTX vaak sneller dan 2x 6800 Ultra's in SLI.De G90 is immers geen compleet nieuw ontwerp chip en zal dus waarschijnlijk niet 2x zo snel zijn als de 8800GTX.
Vergroting van het aantal shaderprocessors (wat geruchten zeggen 1,5x), verhoging van de kloksnelheden en verdere efficiency tweaks zou wellicht een real world performance van 2x de 8800GTX kunnen leiden. De naamswijziging van G80 > G90 (ipv G81) duid i.i.g. op meer dan een die-shrink met wat minor tweaks, zoals bij G70 > G71.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Actually, de 7950GX was een Dual G71M en niet een gewone G71. Daardoor was het stroomverbruik lager in vergelijking met een normale G71.Cheetah schreef op donderdag 07 juni 2007 @ 15:15:
[...]
Verschil is wel dat de 7950GX2 een dual G71 was, en daarmee een combinatie van de 2 nV high-end chips destijds. RV670 is midrange.
Sterker nog. Ik heb ook 2-3x de performance van een G80 gehoord voor de G92... November-December 2007 zou de launchwindow moeten zijn.Vergroting van het aantal shaderprocessors (wat geruchten zeggen 1,5x), verhoging van de kloksnelheden en verdere efficiency tweaks zou wellicht een real world performance van 2x de 8800GTX kunnen leiden. De naamswijziging van G80 > G90 (ipv G81) duid i.i.g. op meer dan een die-shrink met wat minor tweaks, zoals bij G70 > G71.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar ik denk ook niet dat een Dual RV670 genoeg is tegen een G90. Misschien wel om de 8800 Ultra te verslaan.
Dus kortom als hij echt 2-3x sneller is is AMD/ATi voorlopig uit de high end markt en heeft de R600 eerder een performance van een mid range kaart gekregen. Want de R650 is waarschijnlijk nie top 65nm. Dus de chip blijft het zelfde en heeft mogelijk alleen hogere clocks.CJ schreef op donderdag 07 juni 2007 @ 15:23:
[...]
Actually, de 7950GX was een Dual G71M en niet een gewone G71. Daardoor was het stroomverbruik lager in vergelijking met een normale G71.
[...]
Sterker nog. Ik heb ook 2-3x de performance van een G80 gehoord voor de G92... November-December 2007 zou de launchwindow moeten zijn.
De R700 is nog een eind weg dus nVidia heeft weer een half jaar vrij spel
[ Voor 63% gewijzigd door Astennu op 07-06-2007 15:26 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
R700 Q1 08. G90/92 Nov/Dec 08. Half jaar... ja, als AMD weer vertraging heeft.Astennu schreef op donderdag 07 juni 2007 @ 15:24:
Nja de SLi scaling is niet altijd geweldig. Die van CF ook niet maar de nieuwe CF doet het een stuk beter.
Maar ik denk ook niet dat een Dual RV670 genoeg is tegen een G90. Misschien wel om de 8800 Ultra te verslaan.
[...]
Dus kortom als hij echt 2-3x sneller is is AMD/ATi voorlopig uit de high end markt en heeft de R600 eerder een performance van een mid range kaart gekregen. Want de R650 is waarschijnlijk nie top 65nm. Dus de chip blijft het zelfde en heeft mogelijk alleen hogere clocks.
De R700 is nog een eind weg dus nVidia heeft weer een half jaar vrij spel
En over de performance... jij weet wat R700 is? Je bent wel weer heel doemdenkerig bezig he? Het duurt nog meer dan een half jaar... nog geen details zijn er bekend over R700. Doe 'ns rustig aan. Sit back & relax.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik had het over de R650 VS G90. En ik ging er dan even van uit dat de G90 Nov er zou zijn en de R700 eind maart.CJ schreef op donderdag 07 juni 2007 @ 15:58:
[...]
R700 Q1 08. G90/92 Nov/Dec 08. Half jaar... ja, als AMD weer vertraging heeft.
En over de performance... jij weet wat R700 is? Je bent wel weer heel doemdenkerig bezig he? Het duurt nog meer dan een half jaar... nog geen details zijn er bekend over R700. Doe 'ns rustig aan. Sit back & relax.
Als ik jou hoor over de R650 dat het geen 65nm kan zijn gok ik dat ze die R650 geen super performance boost zal krijgen en misschien gelijk komt met de 8800 GTX/Ultra. En omdat de G90 nog eerder geplanned staat heeft nVidia gewoon weer een paar maanden vrij spel. Als AMD de R700 in het begin van Q1 uitbrengt valt het wel mee maar is het eind Q1 heeft nVidia toch een maand of 3-4 vrijspel gehad.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Dave Orton en consorten hebben dit allang aan zien komen, anders hadden ze zich niet zo gewillig aan AMD overgeleverd.edward2 schreef op donderdag 07 juni 2007 @ 13:02:
[...]
Volgens geruchten schijnt de G92 2-3 keer de real world de perf van een G80 te leveren. Ik heb steeds meer het idee dat het voorlopig over is met ATI vwb het perf.leadership.
Hopelijk eindigt het niet zoals matrox.
Ik blijf erbij dat als je gelooft in je eigen product/leiderschap, veel vertrouwen hebt in de toekomst en een beetje trots in je donder dan laat je je niet overnemen.
Ze zijn met hun staart tussen de benen naar AMD gerend.
[ Voor 10% gewijzigd door Verwijderd op 07-06-2007 16:19 ]
Verwijderd
Domme opmerking,i know...maar als je ziet dat de G80 toch nog steeds 580 euro(in Belgie,voor de goede orde)kost,en dus relatief weinig in prijs is gedaald...
Nu vraag ik me wekl af waarom nVidia beslist om de prijs van de Ultra's omlaag te doen?Zouden ze ergens iets opgevangen hebben?
ATi had het ook wel zonder AMD gekund hoor. R600 is niet bepalend voor het al dan niet goed lopen van ATI. Dat zijn de midrange en lowend kaarten + de andere divisies.Verwijderd schreef op donderdag 07 juni 2007 @ 16:15:
[...]
Dave Orton en consorten hebben dit allang aan zien komen, anders hadden ze zich niet zo gewillig aan AMD overgeleverd.
Ik blijf erbij dat als je gelooft in je eigen product/leiderschap, veel vertrouwen hebt in de toekomst en een beetje trots in je donder dan laat je je niet overnemen.
Ze zijn met hun staart tussen de benen naar AMD gerend.En het erge is dat het daar ook slecht mee gaat.
Als je ziet dat Intel nu ineens op de GPGPU trein springt en met Larrabee komt, dan kan je niets anders concluderen dan dat het de juiste beslissing was om samen te gaan met AMD. Intel gaat namelijk dezelfde richting op als AMD. En afzonderlijk waren AMD en ATi bij voorbaat al bijna niet opgewassen tegen Intel.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Hmm ... dus waar het op neer komt is dat AMD banger is voor INTEL dan voor NVIDIA gezien de GPU markt, interessant.CJ schreef op donderdag 07 juni 2007 @ 16:48:
[...]
ATi had het ook wel zonder AMD gekund hoor. R600 is niet bepalend voor het al dan niet goed lopen van ATI. Dat zijn de midrange en lowend kaarten + de andere divisies.
Als je ziet dat Intel nu ineens op de GPGPU trein springt en met Larrabee komt, dan kan je niets anders concluderen dan dat het de juiste beslissing was om samen te gaan met AMD. Intel gaat namelijk dezelfde richting op als AMD. En afzonderlijk waren AMD en ATi bij voorbaat al bijna niet opgewassen tegen Intel.
Dat is op zich ook niet zo raar als je kijkt naar het enorme R&D budget dat Intel kan klaarzetten. Tel daar bij op dat veel mensen die bij NV, ATi of S3 hebben gewerkt overgenomen zijn door Intel voor de GPU divisie van ze en het is wel duidelijk dat Intel dit keer serieus mee wil komen, al dan niet enkel in de midrange.Verwijderd schreef op donderdag 07 juni 2007 @ 18:01:
[...]
Hmm ... dus waar het op neer komt is dat AMD banger is voor INTEL dan voor NVIDIA gezien de GPU markt, interessant.
Nee, merp!
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Verwijderd
Of dat ze de verloren G80 vs. R600 slag goedmaken als het gerucht waar is.Verwijderd schreef op donderdag 07 juni 2007 @ 20:29:
Arme ATI...GEEN R650,maar ook geen R700?Met rond dezelfde periode de nVidia G92,die naar wordt gezegd,2-3x de power van een G80 heeft???Ik vrees dat het wel eens gedaan kan zijn met ATI,in het high-end segment....
Btw, Ik denk dat het allemaal wel meevalt hoe slecht het zou gaan bij ATI/amd. die jogens weten waar ze mee bezig zijn, en zitten heus niet stil.
Ik zeg niet dat het allemaal koek en ei is , maar sommige mensen overdrijven het zeker wel.
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Verwijderd
heh das enn mooie dame AstennuAstennu schreef op maandag 04 juni 2007 @ 18:22:
Als jullie het niet erg vinden ga ik even mijn nieuwe aanwinst showen: Het is een Vrouw ( wel eens waar niet echt maar goed) en de is 1 meter 80 groot :):
[afbeelding]
Leuk voor de verzamelingheb er ook een poster van. Echter staat er op dat poster ook een Windows Vista Certified logo. Dat is wel jammer
28 Juni koop ik ook iets apparts een prototype van de R580 van week 45 jaar 2005 van een ATi Engineer die ik leerde kennen via ebay :)deze kaart loopt core / mem 500Mhz 1200Mhz dus nog niet zo snel als de XT zelfs en de VESA connector is ook nog aanwezig. ik heb hem ook gevraagd ofdat hij om een Rev A1 prototype van de HD 2900 aan kon komen, hij zal daarvoor nog gaan kijken dus ik ben wel erg benieuwd hoe dat uit gaat lopen, eerst maar die R580 512MB Prototype dat is al heel wat voor me ATi verzameling
Verwijderd
R680 hoeft niet slecht te zijn hoor. Zoals al gezegd is de G90 ook 'maar' een soort van Turbo G80. Kunnen ze dan in dat geval beter G8x noemen ofzo en de G92 word dan G90Verwijderd schreef op donderdag 07 juni 2007 @ 20:29:
Arme ATI...GEEN R650,maar ook geen R700?Met rond dezelfde periode de nVidia G92,die naar wordt gezegd,2-3x de power van een G80 heeft???Ik vrees dat het wel eens gedaan kan zijn met ATI,in het high-end segment....
Verder zie ik bij dat 'gerucht' dat het gat tussen de HD 2600XT en de 2900XT ook opgevuld gaat worden. September 07' voor RV660, ik ben benieuwd of dat binnen mijn budget blijft.
[ Voor 15% gewijzigd door Verwijderd op 07-06-2007 22:09 ]
Edit: Die R680 Word in principe meer dan de helft zo klein als een R600
[ Voor 28% gewijzigd door Hekking op 07-06-2007 22:11 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Word oud en vang er veel geld voor, dit uit puur hollands oogpunt!
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Radeon™ Series - Armed Assault: Handle count leak maybe noticed during game play in Task Manager.
http://support.ati.com/ic...nowledge&questionID=27293
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
ja bedanktN0taFAma schreef op donderdag 07 juni 2007 @ 22:11:
Nice Obi One, protypes zijn leuk voor verzamelingen en niet zo vaak gemaakt.
Word oud en vang er veel geld voor, dit uit puur hollands oogpunt!
Zou AMD-ATi niet de R650 gaan gebruiken voor de 1024MB versie van de HD 2900XT ?
aangezien die op 0,65nm is gebakken net als RV630, het leek me wel een wijzere zet, ik dacht eerder dat de R600 alleen ingezet werd voor de 512MB versie en dat de 1024MB versie de R650 mee zou krijgen.
Ik volg dit topic niet zo langmeer aangezien ik in Spanje zit 5 weken op vakantie
vandaar ik me dit af vroeg hehe
Verwijderd
7590GX2 is nou niet echt succesvol te noemen. En het gegeven dat het een dual card is kan ook beter, gezien het gewoon 2 op elkaar geplakte kaarten waren. ATi kwam al eerder met een dubbele X1600 iirc, op 1 printplaat met 1 koeler etc.
Vergeet trouwens niet dat de huidige R600 de G80 vooralsnog niet heeft kunnen bijhouden met de huidige kaarten. Wees dus ook sceptisch of de upgrade van ATi de upgrade van nVidia kan verslaan.
Verwijderd
ik type op een spaans TB vandaar sommige vage tekens
@ Johan AD
onthou dat de R600 was op de G80GTS gericht en in de meeste apps issie sneller ook met FSAA en AF vooral de minimal FPS is meestal meer, de HD 2900XT 1GB zal wel tegen de GTX als ULTRA gericht zijn neem ik aan.
[ Voor 18% gewijzigd door Verwijderd op 07-06-2007 22:33 ]
Verwijderd
Naar wat ik opgevangen heb,zou september enkel voor samples zijn van R660,productie op volle kracht zou evenzeer pas in januari gaan zijn...Verwijderd schreef op donderdag 07 juni 2007 @ 22:07:
[...]
R680 hoeft niet slecht te zijn hoor. Zoals al gezegd is de G90 ook 'maar' een soort van Turbo G80. Kunnen ze dan in dat geval beter G8x noemen ofzo en de G92 word dan G90
Verder zie ik bij dat 'gerucht' dat het gat tussen de HD 2600XT en de 2900XT ook opgevuld gaat worden. September 07' voor RV660, ik ben benieuwd of dat binnen mijn budget blijft.
Ik koop nieuwe pc in augustus,na prijsdalingen intel.Ik ben moe van het wachten,en ik kan niet blijven uitstellen.Ik vind het ook jammer dat tegen dat ik een bijvoorbeeld 8800Gtx koop,er 4/5 maanden later een nieuwe Graka op de markt is.Ook vind ik het jammer dat ATI de gemaakte(ook deels door de mensen zelf en NIET enkel door ATI) beloftes niet kan waarmaken.Misschien koop ik in augustus wel een spotgoedkope graka om in januari een monster in de kast los te laten
Verwijderd
Wanneer ik 3d spellen (toepassingen) speel komen er allemaal bewegende verticale zwarte strepen in beeld. Ik heb niets overgeclockt!
Mijn systeem specs zijn als vogt:
Antec 550 Watt voeding
Asus P5W deluxe
2x 2Gb Corsiar 800mhz ddr2
Intel C2D 6600
WD Caviar 500 Gb 7200rpm Sata
Asus Radeon HD2900XT
Windows Vista Home Premium
AMD heeft ATI vooral nodig voor chipsets, oa om een stevige voet in de mobiele sector te krijgen. De grafische kaarten komen pas op de tweede plaats.Verwijderd schreef op donderdag 07 juni 2007 @ 18:01:
[...]
Hmm ... dus waar het op neer komt is dat AMD banger is voor INTEL dan voor NVIDIA gezien de GPU markt, interessant.
Die roadmap gaat tot Q4 2007, R700 is pas voor 2008.GEEN R650,maar ook geen R700?
x86 naar de GPUAls je ziet dat Intel nu ineens op de GPGPU trein springt en met Larrabee komt, dan kan je niets anders concluderen dan dat het de juiste beslissing was om samen te gaan met AMD. Intel gaat namelijk dezelfde richting op als AMD. En afzonderlijk waren AMD en ATi bij voorbaat al bijna niet opgewassen tegen Intel.
En AMD gaat heus niet zinken, ze hebben in al die jaren ban hun bestaan nog nooit winst gemaakt en toch blijven ze bestaan
Er komen binnenkort prijsdalingen, nVidia is weer erg agressief bezig. Zo gaat de Ultra richting 599 dollar.Domme opmerking,i know...maar als je ziet dat de G80 toch nog steeds 580 euro(in Belgie,voor de goede orde)kost,en dus relatief weinig in prijs is gedaald...
Feit maar dan moeten die kaarten ook goed presteren. Tot wat ik nu gezien heb worden de 2400 kaarten ingemaakt en de 2600 moeten uitkijken voor een 8600 met 256-bit geheugeninterface.Dat zijn de midrange en lowend kaarten + de andere divisies.
Misschien, als de kloksnelheid ook omhoog moet. Nu is het echter te vroeg voor een 65nm high-end gpu.Zou AMD-ATi niet de R650 gaan gebruiken voor de 1024MB versie van de HD 2900XT ?
nVidia had gezegd alle combinaties G8x gaande van G80 tot G89 te gebruiken, dus ik verwacht nog een hoop gpu's dit jaar.Kunnen ze dan in dat geval beter G8x noemen ofzo en de G92 word dan G90
[ Voor 70% gewijzigd door XWB op 08-06-2007 00:28 ]
Verwijderd
Wat is een betere/snellere kaart, de HD2600XT of de X1950XT?
Dit omdat de laatste nu voor 149 euro te krijgen is, ik neem overigens aan dat de 2600XT wel iets duurder wordt....
Het is computex tijd en er gaan een paar interessante geruchten rond. Sommige spreken elkaar tegen zoals altijd, maar in de meeste zit waarheid. Ten eerste gaat het gerucht dat ATI veel VGA partners zou willen afkappen, ze willen maar met ongeveer 5 grote jongens verder. Dit zullen dan Sapphire, Asus, MSI, Powercolor (TUL) en ??? zijn. Zelf denk ik dat dit onzin is, als ze dit gaan doen dan zouden ze hun eigen ATI merk misschien weer moeten gebruiken. Daarnaast een erg tegenstrijdig bericht (zoals ik al eerder zei), gerucht is ook dat ATI achter XFX aanzit. XFX is een dedicated nVidia partner, waar nVidia zelfs veel geld in heeft gepompt om ze in leven te houden, desondanks is het laatste jaar is XFX marktaandeel aan het verliezen, dit komt ook doordat merken als Evga en BFG zich aktief in de europese markt hebben gewaard. De marges op VGA zijn filterdun, dus het is erg moelijk om hiervaan te kunnen leven.
Intel gaat ook met graphics komen (project larrabee) wat eigenlijk een massive multi core general purpose chip is. Deze is eigenlijk voor 3 segmenten;
1) Deze is gedownscaled te integreren in chipsets / cpu's zoals het AMD / ATI fusion project. Ik hoor hier zeggen dat Intel hiermeer AMD na aapt, echter is het misschien andersom, Intel heeft een 5 tot 8 jaar geleden al ooit aan de Timna gewerkt, ook een CPU met VGA onboard. Echter is dit project gecanned, ook omdat het tecnhische moeiljk haalbaar was. AMD heeft het weer op de agenda gezet, en it makes sence, echter heeft men wel een mature 45nm process en beyond nodig om zo'n chip te realiseren dus praat je hier over het 2009 / 2011 timeframe.
2) Daarnaast wil Intel de larrabee ook gaan inzitten voor GPGPU berekeningen, dus het inzetten van een traditionele VGA kaart (wat het eigenlijk niet meer is, het zijn allemaal parralelle rekenunits die ook als shader ingezet kunnen worden) voor het berekenen van zeer intensieve problemen. Het bedrijf PeakStorm wat hiermee aan het pioneeren was en volgens mij als ik het goed heb als enige officiele hardware de 1900XT van ATI support is vandaag overgenomen door Google (http://www.eetimes.com/showArticle.jhtml?articleID=199901711). NVidia zoekt ook nieuwe manieren om geld te verdienen en heeft het CUDA platform (http://developer.nvidia.com/object/cuda.html) gelanceerd om GPGPU in de markt te gooien. Ik denk dat heel het GPGPU gebeuren op dit moment weinig nut heeft, eerst moeten die VGA Kaarten meer performance / watt krijgen (dus VEEL minder energie verbruiken) anders gaan ze erin de HPC markt nog niet eens naar kijken. Intel's project larrabee is dus nog helemaal zo stom nog niet, en tenzij ATI en nVidia niet enkel met marketing gelul komen over GPGPU en energie zuinige producten afleveren met een goede programmable interface dan hebben ze een kans. Zo niet, zal Intel hier met het succes weglopen, en ze moeten wel, want GPGPU is logische en bedreigt in de normale HPC markt het bestaansrecht van krachtige CPU's.
3) Ten slotte is de larrabee nog als discreet (losse) vga kaart in te zetten. En dit is denk ik het meest interesssant voor ons. Hier komen direct een paar interessante vragen om de hoek kijken. Gaat Intel deze enkel onder haar eigen marktnaam op de markt brengen, of gaat ze gebruik maken van partners (asus / msi) ? Of eigen en partners? Welk segment zal Intel de discreet graphics gaan inzetten? Het high-end segment, het midrange segment of enkel low-end segment. Gerucht is nu dat het enkel voor het midrange segment zal zijn tot 300$. Vergis je niet, Intel deed al CPU en GPU's ontwerpen voordat nVidia en ATI zo ongeveer bestonden. Dus qua hardware hoeft je niet te twijfelen aan de kracht van Intel's larrabee, echter weten we van de 2900XT dat niet enkel goede hardware leidt tot superieure performance. De drivers / software is wel het meest belangrijke gedeelte voor een GPU (of VPU hoe ATI het vroeger altijd noemde). Op het gebied van VGA drivers was Intel altijd ZEER traag. Maar Intel is hier hard verandering in het aanbrengen en hier ligt ook de grote bedreiging voor AMD en nVidia. Zie maar; http://www.tgdaily.com/content/view/31176/135/ Intel to improve video, vertex shading in its IGCs Intel heeft met 1 driver update de performance van haar G965 chipset zowat verdubbeld. Nu gaat het gerucht dat de nieuwe G33 / G35 IGP chip van Intel de AMD 690G zwaar verslaagd (ik heb geen benchmarks gezien, maar zou kunnen). Dit alles duid erop dat Intel VGA drivers serieus neemt qua performance, en zich steeds meer stapje voor stapje gaat meten met de GPU jongens op gebied van FPS en IQ. Ach ja we zullen wel zien.
Overigens stond op de Inq. http://uk.theinquirer.net/?article=40123 dat Intel een SLI licentie bemachtigd heeft. imho grote onzin en wel hierom;
- SLI is de enige troef die nVidia in handen heeft. CEO is zo arrogant dat het me verbaasd als ze SLI weggeven
- Het is een SERVER mainboard foto, daarop is SLI helemaal niet van belang
- Het is niet direct van Intel, maar van een vendor, wellicht heeft die gedacht, 2 VGA kaarten = Multi GPU = SLI. Zo erg is de term SLI namelijk gebrand in de markt.
Dus ik gok het op een vergissing omdat het helemaal niet logisch is.
Het geeft natuurlijk wel te denken als Intel met haar GPU's niet enkel de mainstream markt inwil, maar ook de high-end performance markt dan heb je wel multi GPU nodig. En om nog een 3de standaard naast CF en SLI in de markt te zetten is ook teveel van het goede.
Nee dat is waar. Dat heb je niet gezegd. Wel dat het erg lastig is omdat de hele chip opnieuw aangepast moet worden.CJ schreef op donderdag 07 juni 2007 @ 16:08:
Hmm... waar heb ik ook maar weer gezegd dat R650 geen 65nm kan zijn?
@ The Source:
Ik zit Intel als een giga bedreiging. Ze zijn zo groot en hebben zo veel geld dat ze alles wel voor elkaar kunnen krijgen als ze dat maar willen. Ik hoop alleen dat AMD ook een kas krijgt groter te worden zodat we straks niet alleen Intel over houden die AMD en nVidia opkoopt. Want dat zou makkelijk kunnen al helemaal als dat Larabee doorbreekt en iedereen Intel moet volgen. Dan moeten AMD en nVidia veel licentie geld gaan betalen. Wordt Intel nog groter en machtiger. Dus ik hoop dat dat Larabee eens flink flopt. Intel kwam ook al weg met dat EMT64. Want ze wouden niet AMD64 gaan gebruiken. daar waren ze te egoïstisch voor.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dan HIER een review van een zogenaamde HD2600XT op PC Online. Dit is wel een HD2600.... maar niet de snelste HD2600 die er is.... Dus voordat mensen gaan roepen dat het 'tegenvalt'.... houdt dat maar even in je achterhoofd.
Over Intel, nVidia & SLI... het wordt inmiddels weer ontkracht. Zie FP: nieuws: Intel krijgt geen sli-licentie van nVidia - update
[ Voor 9% gewijzigd door CJ op 08-06-2007 10:04 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niets van gehoord, maar argumentering klinkt logisch, cost is what matters. Daarbij kan ATI nu voor het AMD platform nog een leuke rebate op de CPU geven, helaas gaat het zoCJ schreef op vrijdag 08 juni 2007 @ 09:58:
@ The Source: Vraagje waar jij wel het antwoord op zal weten... Wat is er waar van de geruchten dat AMD 60% van de OEM-deals voor zich gewonnen heeft met de nieuwe HD serie? Ik hoorde hier al wat vaag over en zie nu ook het bericht op Fudzilla verschijnen: http://www.fudzilla.com/i...ask=view&id=1360&Itemid=1
Was al niet logisch, zie mijn voorgaande post.Over Intel, nVidia & SLI... het wordt inmiddels weer ontkracht. Zie FP: nieuws: Intel krijgt geen sli-licentie van nVidia - update
dan heb jij dus nog nooit van een 7800gt dual gehoord ?Verwijderd schreef op donderdag 07 juni 2007 @ 22:23:
ATi kwam al eerder met een dubbele X1600 iirc, op 1 printplaat met 1 koeler etc.
dat zijn 2 x 7800gt op een pcb... alleen schalen ze iets beter dan sli, omdat er geen communicatie is tussen 2 kaarten (latencies)..
dat is een hele tijd lang de snelste single-slot kaart geweest, tot de gx2 kwam
dat zal bij de 1600 ook zo zijn..(dat schalen)
ps. is die dual 1600 ooit leverbaar geweest ?
[ Voor 42% gewijzigd door Mr. Detonator op 08-06-2007 11:01 ]
Maargoed. Ik vind dat sommige lui hier wel erg doemdenken over AMD. Ik bedoel: De eerste fusieproducten van ATi/AMD moeten nog komen, en de HD2400 en HD2600 zijn uitstekend voor de markt die ze moeten bedienen. Het 65nm productieproces maakt dat de ATi midrange en budget veel goedkoper te produceren zijn dan de nVidia tegenhangers. En als OEM's kiezen voor een niet-onboard video-oplossing, willen ze gewoon de goedkoopste PCI-E kaart. De HD2400 en 2600 passen daar uitstekend in. Goede multimediamogelijkheden (UVD), lage prijzen en ook nog eens vrij energiezuinig. In elk geval zuiniger dan wat nVidia heeft te bieden voor midrange DX10 kaart.
De Barcelona is nog wel een beetje een moeilijk verhaal. Een tijdje terug een bericht dat de nieuwe stepping naar 2.9GHz kon opschalen, en nu gebruikt AMD zelf samples die maar op 1.8GHz geklokt zijn. Dat is niet zo handig...
Goud is geen geld

http://www.vr-zone.com/index.php?i=5044
Was te verwachten...
http://www.beyond3d.com/content/news/159
Ik hoop inderdaad niet dat dit representatief is voor de HD2600XT, als ik zo vluchtig naar deze grafieken kijk haalt hij nog nauwelijks de helft aan performance van een 8600GT van Nvidia.CJ schreef op vrijdag 08 juni 2007 @ 09:58:
@ The Source: Vraagje waar jij wel het antwoord op zal weten... Wat is er waar van de geruchten dat AMD 60% van de OEM-deals voor zich gewonnen heeft met de nieuwe HD serie? Ik hoorde hier al wat vaag over en zie nu ook het bericht op Fudzilla verschijnen: http://www.fudzilla.com/i...ask=view&id=1360&Itemid=1
Dan HIER een review van een zogenaamde HD2600XT op PC Online. Dit is wel een HD2600.... maar niet de snelste HD2600 die er is.... Dus voordat mensen gaan roepen dat het 'tegenvalt'.... houdt dat maar even in je achterhoofd.
Over Intel, nVidia & SLI... het wordt inmiddels weer ontkracht. Zie FP: nieuws: Intel krijgt geen sli-licentie van nVidia - update
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Verwijderd
Maar ach ja, prijs van vooruitgang
[edit] heb het al gevonden..met een externe pci-connector..
zijn er al laptops die zo'n connector hebben ?
[ Voor 42% gewijzigd door Mr. Detonator op 08-06-2007 12:57 ]
Het gaat om een ExpressCard slot, de opvolger van cardbus (pcmcia).Mr. Detonator schreef op vrijdag 08 juni 2007 @ 12:55:
met wat voor connector word Ati lasso eigenlijk aangesloten op een laptop ?
[edit] heb het al gevonden..met een externe pci-connector..
zijn er al laptops die zo'n connector hebben ?
Meeste laptops hebben die al, je kan het zien als een pci-e slot in het klein.
Pardon my dutch
Core: 950 en Mem: 980 3DMark 06: 20016
Stock 3Dmark 06: 17405
Dit is wel voor Crossfire setups!
Edit:
Nog een leuk filmpje erbij: http://www.youtube.com/watch?v=HRsMra1ZziY
[ Voor 21% gewijzigd door zzzzz op 08-06-2007 13:42 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Ik heb laatst in een meeting met de Retail Marketing Manager (zoiets?) van Intel een paar vragen over Larrabee gesteld waarbij de laatste vraag van mij was: 'Mag ik hieruit opmaken dat Intel zich op graphics gebied ook echt wil gaan meten met ATi en nVidia?' waarop het antwoord was: '... dat lijkt er wel op ...'The Source schreef op vrijdag 08 juni 2007 @ 10:45:
[...]
Niets van gehoord, maar argumentering klinkt logisch, cost is what matters. Daarbij kan ATI nu voor het AMD platform nog een leuke rebate op de CPU geven, helaas gaat het zoIk weet wel dat nVidia een high profile ATI klant aan het wegkapen is, namelijk Apple.
[...]
Was al niet logisch, zie mijn voorgaande post.
Ik denk sowieso dat het hele x86 principe met behulp van een aantal zeer kundige Intel engineers wel omgezet kan worden naar (GP)GPU rekenkracht, de vraag is alleen hoe lang het duurt. Ik heb onder mijn vriendenkring eens een query gedaan of ze lasso interessant zouden vinden, maar niemand antwoord positief. Ik ben zelf ook een laptopgebruiker (M10), maar ik zie het ook niet gebeuren hoor. Dat wordt een enorm kleine niche markt.
De meeste mensen deugen!
Een vga kaart in de laptop upgrade je niet. En laptop met high end kaarten zijn zo veel duurder ( 3-4x zo duur ) Dus ik zie wel voordeel. Al helemaal als het goed shaald dan gebruik ik als ik naar een lan ga gewoon de kaart uit me Desktop. Die zet ik dan in de lasso
Edit: Over de HD2600 Review:
Dit waren de kaarten:
Als je hier naar kijkt lijkt het mij dat de snellere versie van de HD2600 niet snel genoeg is. Want de kaart is veel trager dan de 8600 GT kaart. En ik weet niet wat de final clocks worden van de snelste HD2600 XT maar ik gok 850-2000 en dan haal je het dus nog niet. Kijk ook naar het verschil tussen de 8600 GT en GTS. Dat is ook niet super groot. Mja maar even revieuws afwachten van grotere sites maar dit ziet er niet super uit ik gok dat die HD2600 XT op 850-2000 misschien net over de 8600 GT heen gaat. Het lijkt op weer een slechte midrange kaart. Maar ik trek pas een echte conclussie als grote sites zoals B3D en Anandtech hetzelfde laten zien.AMD Radeon 2600XT HD (800/1400)
nVIDIA GeForce 8600GTS 公版(675/2000)NVIDIA GeForce 8600GTS public version (675/2000)
nVIDIA GeForce 8600GT 公版(540/1400)NVIDIA GeForce 8600GT public version (540/1400)
nVIDIA GeForce 8500GT 公版(450/800)NVIDIA GeForce 8500GT public version (450/800)
[ Voor 54% gewijzigd door Astennu op 08-06-2007 15:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit blijkt niet te kloppen, het bericht van AMD waar deze slide op is gebaseerd was een lokaas om te kijken wie deze berichten lekt.
Tenmiste zegt Fuad
Maar ik denk dat ie gelijk heeft
http://www.fudzilla.com/i...ask=view&id=1385&Itemid=1
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik haalde 17,5 FPs avg met alle details maximaal en 4x MSAA. Resolutie was 1680x1050
Goud is geen geld
We have responded to your issue.
Solution: This is a known issue. Please continue to use catalyst
7.4.
********
737-27932: Radeon series - Black Display with the Error "Out of Range"
When Selecting 1440x900/60Hz Resolution in Catalyst Control Center
The information in this article applies to the following
configuration(s):
* Catalyst Software Suite 7.5
* RadeonT HD2900 series
* RadeonT X1950 series
* RadeonT X1900 series
* RadeonT X1800 series
* RadeonT X1650 series
* RadeonT X1600 series
* RadeonT X1550 series
* RadeonT X1300 series
* RadeonT X1050 series
* RadeonT X850 series
* RadeonT X800 series
* RadeonT X700 series
* RadeonT X600 series
* RadeonT X550 series
* RadeonT X300 series
* RadeonT 9800 series
* RadeonT 9700 series
* RadeonT 9650 series
* RadeonT 9600 series
* RadeonT 9550 series
* RadeonT 9500 series
* Windows Vista 32-bit Edition
* Windows Vista 64-bit Edition
* Windows XP Professional
* Windows XP Home Edition
* Windows XP Media Center Edition
* Windows XP Professional x64 Edition
Symptoms:
Setting the resolution to 1440x900/60Hz in Catalyst Control Center
(Version 7.5)causes black display on the monitor with the error message
"OUT OF RANGE".
Solution:
Currently there is no solution. As a workaround please install Catalyst
Software Suite 7.4 or select 1440x900/75Hz in Catalyst Control Center
(Version 7.5)
ATI Engineering has been advised of this issue and is investigating. Any
updates will be published when they become available.
208468
Rate this article
<http://support.ati.com/ics/survey/survey.asp?deptID=894&surveyID=489&ty
pe=web>
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Resultaat: (8800GTS 640MB) van Fly-guy in geforce 8xxx topic
* Min FPS: 12,2
* Max FPS: 36,6
* Avg PFS: 20,6
Settings
[ Voor 72% gewijzigd door Mastasidaz op 08-06-2007 17:43 ]
Verwijderd
Er is de laatste tijd veel te doen geweest over ATI's UVD, de universele videodecoder die onderdeel zou uitmaken van de gehele nieuwe Radeon HD 2000 videokaarten reeks. Het is inmiddels duidelijk dat het topmodel, de Radeon HD 2900 XT, de geavanceerde videodecoder moet missen, maar de goedkopere kaarten, de Radeon HD 2400 en 2600, hebben hem wél. Het bewijs daarvoor levert Cyberlink; zij toonden tijdens Computex hun nieuwste versie van PowerDVD Ultra met ondersteuning voor Blu-ray / HD-DVD en met ondersteuning voor zowel nVidia Purevideo als ATI's UVD. Een op de complexe H.264 codec gebaseerde Blu-ray disc werd op een testsysteem met AMD Athlon 64 X2 5000+ processor en ATI Radeon HD 2400 videokaart vloeiend afgespeeld met slechts tussen de 13% en 17% CPU-belasting. Het is dan wel duidelijk dat de GPU vrijwel al het werk doet; normaal gesproken zou een Athlon 64 X2 5000+ niet eens snel genoeg zijn om met 100% CPU-load een met H.264 gecodeerde Blu-ray in 1080p resolutie af te spelen. De 7.3 versie van Cyberlink PowerDVD Ultra is per direct beschikbaar, zodat mensen die een nieuwe ATI-kaart gaan aanschaffen direct van de UVD kunnen profiteren. De H.264 codec binnen PowerDVD wordt overigens niet alleen voor Blu-rays en HD-DVD's gebruikt, maar ook voor gedownloade H.264 films.

Met dat UVD heeft Ati toch een sterke troef in handen!
Dit topic is gesloten.
![]()
Laatste tijd zien we vaak tech-vragen hier langskomen, dat is niet de bedoeling! Open daar gewoon een los topic voor.
Wat we niet willen zien:
- Ati vs nVidia flamerij
- Op de man spelen, fanboy-labeling (OW wegens flamen)
- Slowchat...
- het 1001 keer herhalen van zelfde 'nieuws' (R650 vertraagd...) is geen nieuws, dus offtopic.
- Bovengenoemde vragen bij problemen met nieuwe hardware, op daarvoor gewoon een nieuw topic
Wat dan wel?
- Goed _onderbouwde_ reacties over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)