Ik zie op dit moment nog steeds Club3D als enige leverancier van x800Xl AGP kaarten in de pricewatch staan. Is er misschien al wat bekend over wanneer de andere merken hun AGP kaarten hier lanceren?
Ben niet echt een gamer; heb daarom een Asus X600 pro/td aangeschaft, deze heb ik op een Asus A8N-sli deluxe moederbord aangesloten.
Nu het vreemde: ik werk met 2 schermen (allebei analoog, allebei 21", ene is een Oce, andere ene HP) en als ik de oce op dvi uitgang aansluit (met converter) dan streept het beeld ietwat, totdat ik in windows ben (dan is alles in orde) en de andere monitor op de analoge uitgang die flipt helemaal totdat ik in windows ben, dan is alles weer goed.
wissel ik de 2 monitoren om op de kaart, dan gaat het licht even op groen maar springen dan allebei in standby mode (de pc start wel gewoon door) en blijven zo
In de BIOS heb ik de PEG-link op disabled gezet, ik had ergens gelezen dat je hem op slow moet zetten, maar die optie heb ik niet (bios 1007).
Iemand een idee wat hier aan de hand is? spellen spelen, film kijken dat werkt allemaal, toch is en blijft dit zeer irritant!
Nu het vreemde: ik werk met 2 schermen (allebei analoog, allebei 21", ene is een Oce, andere ene HP) en als ik de oce op dvi uitgang aansluit (met converter) dan streept het beeld ietwat, totdat ik in windows ben (dan is alles in orde) en de andere monitor op de analoge uitgang die flipt helemaal totdat ik in windows ben, dan is alles weer goed.
wissel ik de 2 monitoren om op de kaart, dan gaat het licht even op groen maar springen dan allebei in standby mode (de pc start wel gewoon door) en blijven zo
In de BIOS heb ik de PEG-link op disabled gezet, ik had ergens gelezen dat je hem op slow moet zetten, maar die optie heb ik niet (bios 1007).
Iemand een idee wat hier aan de hand is? spellen spelen, film kijken dat werkt allemaal, toch is en blijft dit zeer irritant!
Ik zelf heb nog een brakke Club 3D 9700 liggen. 1 1/2 jaar lang men trouwe metgezel geweest. Altijd als Pro gewerkt. Eigenlijk nooit klachten over gehad (liep als een zonnetje) tot maandje geleden toen de fan van de stock koeler niet meer mee wou werken. Alleen is die dus dood gegaan met verwisselen van koeler (notitie aan mezelf niet te hard trekken als coolpasta als soort lijm is gaan zitten tussen core en coolblokje). Maar ja heb zelf al een nieuwe PC met club 3d X800XL dus nu moet men servertje het maar doen met een 7000'tje.Anoniem: 23009 schreef op zaterdag 30 april 2005 @ 17:00:
zijn hier meer mensen die een 9700 Pro hebben gehad of nog zelfs hebben?.



Ik heb een 9500 @ 9700 Pro
Doet het nog goed, maar helaas voor hoge resoluties (1680x1050) is het niet meer snel genoeg... Doom 3: 16fps, Far Cry: nog minder,...

Met maar 128bits geheugen toegang is dat niet gek nee ;-)Phuncz schreef op maandag 02 mei 2005 @ 14:57:
Ik heb een 9500 @ 9700 ProDoet het nog goed, maar helaas voor hoge resoluties (1680x1050) is het niet meer snel genoeg... Doom 3: 16fps, Far Cry: nog minder,...
En ja, de tand des tijds begint zich in ook de 9x00 serie te bijten zoals normaal met dit soort kaarten, de eerste serie in een DirectX versie zet de trend... maar de tweede overheerst het pas helemaal! Maar toch is de 9x00 toch zijn geld waar gebleken, het is de ti4x00 van het DX9 tijdperk geweest.
Maar...ze worden ouder..en er zijn betere kaarten...ja!
Deze pc moet nog 6 maandjes mee en de 9700 Pro zal mij nog 6 maanden verheugen met..redelijke resultaten in goede games! Volgende pc.... X800/x850 here I come!
There is no place like ::1
Mja de volgende zal nog even moeten wachten. Ik ben eigenlijk HEEL tevreden geweest met mijn Radeon 9500, deze modde zich fijn naar een volwaardige Radeon 9700 Pro, enkel een beetje artifacts. Hij heeft goed gediend en dient nog steeds voldoende. En dat voor 150€ twee jaar geleden !
Maar euhm, een 9700 Pro had toch een 256-bits geheugenbus, of zit ik fout ?
Maar euhm, een 9700 Pro had toch een 256-bits geheugenbus, of zit ik fout ?
Yup ... en radeon 9500 NP's waren er met 9700 Pro PCB-tjes ( er waren teveel daarvan ) dus konden gemod worden naar 9700 pro's! De 9500 Pro dertegen was altijd 128bits! Een 9500 Pro geclockt op 9700 snelheden zal dan ook maar de helft van de geheugen bandbreedte hebben ;-)Phuncz schreef op maandag 02 mei 2005 @ 15:31:
Mja de volgende zal nog even moeten wachten. Ik ben eigenlijk HEEL tevreden geweest met mijn Radeon 9500, deze modde zich fijn naar een volwaardige Radeon 9700 Pro, enkel een beetje artifacts. Hij heeft goed gediend en dient nog steeds voldoende. En dat voor 150€ twee jaar geleden !
Maar euhm, een 9700 Pro had toch een 256-bits geheugenbus, of zit ik fout ?
Een 9500NP dertegen gemod naar een 9700 Pro is... een 9700 Pro!
[Voor 6% gewijzigd door swampy op 02-05-2005 16:14]
There is no place like ::1
Ik heb nu nog een Hercules R9800, zit er aan te denken om die te gaan vervangen door de XL en dan die Hercules te zetten in een pc voor mijn schoonzus die ik ga samenstellen voor ze 

Ik had voorheen een Hercules 9700 nonpro, red PCB. Deze liep standaard op 277core en 270mem. Met een andere bios draaide hij met standaard cooling, conform jou foto, op 369core en 351mem. Echt een beest van een vidokaart was dat, maar goed, hij was toen ook stevig geprijst. Nooit spijt van gehad overigens. Heb nu een original ATI X800XT.Anoniem: 23009 schreef op zaterdag 30 april 2005 @ 17:00:
kijk is aan welkom in de wereld van ATi Canadaja echt de X800XL is idd erg goed en ook meer waard voor zijn geld als een 6800GT, ik heb namelijk ook een 6800GT gehad en ik vond hem zwaar tegen vallen, maar je hebt de perfecte zet gedaan hoor
ik heb nu de ASUS Radeon X800XT PE AGP en die kan nog wel een poosje mee, ik heb ook een goede 3 jaar gedaan met me Hercules Radeon 9700 Pro dat was echt een mega kaart van zijn tijd, ik heb er nog nooit spijt van gehad ook, zijn hier meer mensen die een 9700 Pro hebben gehad of nog zelfs hebben?.
dit was de Hercules 3D Prophet 9700 Pro 128MB DDR X-Mas Red Limited Edition die ik had:
[afbeelding]
Zelf ging mijn Radeon 9500 NP van 275/270 naar 400/300 max met goede koeling. Het geheugen weigert verder te gaan
Als dat op 350 zou gaan, had ik nog effe verder gekunt denk ik 
Mijn volgende kaart wordt een X800XL AGP denk ik. Of een 6600GT Dual DVI als die X800XL niet in Dual DVI te verkrijgen is binnen dit en een half jaar.


Mijn volgende kaart wordt een X800XL AGP denk ik. Of een 6600GT Dual DVI als die X800XL niet in Dual DVI te verkrijgen is binnen dit en een half jaar.
Ik neem aan dat jullie dit al gelezen hebben?
nieuws: ATi-videokaarten met 512MB binnenkort verkrijgbaar
Er staat o.a. :
"...Eind mei zullen tijdens de Computex-beurs in Taiwan naar alle waarschijnlijkheid de eerste aankondigingen van 512MB X800-kaarten plaatsvinden ... "
Ik zal een ding zegen, maak daar maar 5 Mei van... meer zeg ik niet
nieuws: ATi-videokaarten met 512MB binnenkort verkrijgbaar
Er staat o.a. :
"...Eind mei zullen tijdens de Computex-beurs in Taiwan naar alle waarschijnlijkheid de eerste aankondigingen van 512MB X800-kaarten plaatsvinden ... "
Ik zal een ding zegen, maak daar maar 5 Mei van... meer zeg ik niet

Leuk al die voortborduringen op de X800 en X850 kaarten.
Maar ik zie liever zo snel mogelijk de R520 verschijnen, liefst ook met 512MB.
Hoe lang zou dat nog gaan duren?
Maar ik zie liever zo snel mogelijk de R520 verschijnen, liefst ook met 512MB.
Hoe lang zou dat nog gaan duren?
512mb, is dat niet een beetje overkillGfMike schreef op maandag 02 mei 2005 @ 16:27:
Ik neem aan dat jullie dit al gelezen hebben?
nieuws: ATi-videokaarten met 512MB binnenkort verkrijgbaar
Er staat o.a. :
"...Eind mei zullen tijdens de Computex-beurs in Taiwan naar alle waarschijnlijkheid de eerste aankondigingen van 512MB X800-kaarten plaatsvinden ... "
Ik zal een ding zegen, maak daar maar 5 Mei van... meer zeg ik niet

Ik vind de Geforce 6200 met 512MB (ja het gaat gebeuren), een X800 kan er wel eens goed gebruik van maken bij hoge resoluties, uncompressed textures en met FSAA/AF.
Alleen 512MB X800 kaarten of ook 512MB R520 kaarten? Je mag ook via de mail antwoorden.GfMike schreef op maandag 02 mei 2005 @ 16:27:
Ik neem aan dat jullie dit al gelezen hebben?
nieuws: ATi-videokaarten met 512MB binnenkort verkrijgbaar
Er staat o.a. :
"...Eind mei zullen tijdens de Computex-beurs in Taiwan naar alle waarschijnlijkheid de eerste aankondigingen van 512MB X800-kaarten plaatsvinden ... "
Ik zal een ding zegen, maak daar maar 5 Mei van... meer zeg ik niet

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Mja, momenteel alleen nuttig voor Doom3 highest quality voor zover ik weet.512mb, is dat niet een beetje overkill
De vraag is hoe duur een reep 256MB GDDR3 op bijna 600MHz kost. 1GB PC6400 (400MHz) DDR2 RAM kost nu 227,00 bij iComputers. 256MB dus rond de 65euro (?).
Het gebruikte geheugen op de XT PE draait bijna op 600MHz. Volgens mij kost zo'n reepje makkelijk 150 euro voor consumenten. Ik weet niet in hoeverre GDDR3 reepjes hoger te clocken zijn. Denk dat er iig zeker 100 euro bovenop de adviesprijs komt... Tis echt moeilijk te voorspellen.
Ik vind het trouwens wel lomp om nu een X800 kaart met 512MB te kopen als de nieuwe GPU serie er aan komt.
[Voor 33% gewijzigd door Yokozuna op 02-05-2005 17:15]
@ CJ
Ik heb je E-mail niet eens, dus dat word lastig
wat dat overkill betreft, ik denk dat dat wel meevalt met een X800/X850 kaart, ga er van uit dat het om 16 pipeline kaarten gaat.
Hoge resoluties met AA en AF geactiveerd vinden veel geheugen wel fijn met de moderne games.
Of het echt nut heeft ben ik ook benieuwd naar, als alles mee zit krijg ik volgende week een 512MB kaartje in huis van ATI, ik zal hem dan vergelijken met een 256MB kaart.
[edit]punt van Yokozuna zit wel wat in, waarom nu een 512mb kaart kopen als de nieuwe generatie er aan zit te komen.
Bedenk dan wel dat de nieuwe generatie voorlopig nog lang niet te koop zal wezen en deze 512mb kaarten wel.
Ik heb je E-mail niet eens, dus dat word lastig

wat dat overkill betreft, ik denk dat dat wel meevalt met een X800/X850 kaart, ga er van uit dat het om 16 pipeline kaarten gaat.
Hoge resoluties met AA en AF geactiveerd vinden veel geheugen wel fijn met de moderne games.
Of het echt nut heeft ben ik ook benieuwd naar, als alles mee zit krijg ik volgende week een 512MB kaartje in huis van ATI, ik zal hem dan vergelijken met een 256MB kaart.
[edit]punt van Yokozuna zit wel wat in, waarom nu een 512mb kaart kopen als de nieuwe generatie er aan zit te komen.
Bedenk dan wel dat de nieuwe generatie voorlopig nog lang niet te koop zal wezen en deze 512mb kaarten wel.
[Voor 21% gewijzigd door GfMike op 02-05-2005 18:55]
Ja ik vind de aankondiging van deze 512 mb kaarten van zowel ATI als NVidia eerder een teken dat de next generation nog wel even op zich laat wachten.GfMike schreef op maandag 02 mei 2005 @ 18:52:
@ CJ
Bedenk dan wel dat de nieuwe generatie voorlopig nog lang niet te koop zal wezen en deze 512mb kaarten wel.
Ik denk ook niet dat ik deze zomer al een G70/80 en/of R520 kan bemachtigen.
Niet op voorraad.
Het klinkt een beetje als een FX5200 met 256Mb geheugen ja... geheugen als verkoop punt want ik schat zelf in dat de 256Mbk kaartjes voor de komende tijd toch echt wel genoeg zijn. Tuurlijk zal er na 1-2 jaar 512Mb een interresante keus worden maar... nu is het nog een neuwigheid ;-)edward2 schreef op maandag 02 mei 2005 @ 19:18:
[...]
Ja ik vind de aankondiging van deze 512 mb kaarten van zowel ATI als NVidia eerder een teken dat de next generation nog wel even op zich laat wachten.
Ik denk ook niet dat ik deze zomer al een G70/80 en/of R520 kan bemachtigen.
There is no place like ::1
GFMike, ruik ik een aankondiging van AMR?
Al elke generatie sinds de geforce DDR is er als laatste kaart voor de release van de opvolger, een kaart waar je je afvraagt wat het nut is van zoveel RAM. Een Geforce 2MX met 64MB, een Geforce 4MX met 128MB, een Radeon 9800 Pro met 256MB, etc. etc. En dit gaat nu gewoon verder. Soms maakt het uit, soms niet. Ik denk in dit geval toch wel een serieus deel maar enkel bij 1600x1200 en hoger op een zeer snel systeem. Zo blijft er nog steeds een über-droomkaart die alleen de echte highend aantrekken voor een laatste aanschaf voor de release van de nieuwe generatie.
hm...

De R500 maakt zn intrede, eerste diagram
http://pc.watch.impress.co.jp/docs/2005/0502/kaigai176.htm

De R500 maakt zn intrede, eerste diagram
http://pc.watch.impress.co.jp/docs/2005/0502/kaigai176.htm
Een 1Ghz GPU van ati.... geesh....nou ja, zolang ik nog geen reviews zie zijn wij niet zeker!
There is no place like ::1
Een overstap van minder dan 600MHz naar 1GHz, wie zou dat nou geloven. De geruchtenmolen draait steeds harder 

eigenlijk heeft de reporter het over de gpu in de PS3 (die van nvidia dus), maar volgens mij heeft hij wat bronnen door elkaar gehaalt, nVidia is nog lang niet van plan een unified pipeline architectuur uit te bouwen (aldus volgens de laatste interviews hadden ze een andere visie).swampy schreef op maandag 02 mei 2005 @ 21:07:
Een 1Ghz GPU van ati.... geesh....nou ja, zolang ik nog geen reviews zie zijn wij niet zeker!
ATi had ook technologie gekocht om bepaalde rekenkundige delen van een chip 2 keer of meer sneller te doen lopen (bv de shaders) dan de rest. Stel dat de gpu normaal op 500Mhz loopt maar de shaders draaien dubbel zo snel, 1Ghz.
En dan heb je nog het schedulling patent dat recentelijk verscheen...
Dit is gewoon een diagram van de xbox360 gpu zeker weten, en deze gpu komt naar de pc in 2006.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Een pool van 24 shaders? Of moet ik het plaatje niet te letterlijk nemen?oeLangOetan schreef op maandag 02 mei 2005 @ 20:10:
hm...
[afbeelding]
De R500 maakt zn intrede, eerste diagram
http://pc.watch.impress.co.jp/docs/2005/0502/kaigai176.htm
Fast14 tech van IntrinsityATi had ook technologie gekocht om bepaalde rekenkundige delen van een chip 2 keer of meer sneller te doen lopen (bv de shaders) dan de rest. Stel dat de gpu normaal op 500Mhz loopt maar de shaders draaien dubbel zo snel, 1Ghz.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Misschien issie wel dual core 

Is Unified Architectuur, komt pas in 2006 naar de pcCJ schreef op maandag 02 mei 2005 @ 21:44:
[...]
Een pool van 24 shaders? Of moet ik het plaatje niet te letterlijk nemen?

Volledig WGF 2.0 compatible, wat mss een eis van longhorn kan zijn.
R500 is niet hetzelfde als R520, maar dus een "vroege" R600 voor de nieuwe consoles.
Het plaatje kan dus best kloppen.
Op die afbeelding kan je mooi zien dat de shaders (zoals je zelf al zei) aan dubbele snelheid lopen. (x2 clock domain)ATi had ook technologie gekocht om bepaalde rekenkundige delen van een chip 2 keer of meer sneller te doen lopen (bv de shaders) dan de rest. Stel dat de gpu normaal op 500Mhz loopt maar de shaders draaien dubbel zo snel, 1Ghz.
Intel doet het ook met bepaalde delen van hun P4 core, dus het is niet echt nieuw, alleen totaal onverwachts

Dat waren ze idd niet direct van plan, maar er gaan nu veel geruchten de ronde. NV50 zou geschrapt zijn omdat nVidia ook voor Unified Architectuur zou gaan.eigenlijk heeft de reporter het over de gpu in de PS3 (die van nvidia dus), maar volgens mij heeft hij wat bronnen door elkaar gehaalt, nVidia is nog lang niet van plan een unified pipeline architectuur uit te bouwen (aldus volgens de laatste interviews hadden ze een andere visie).
Ze mogen er allesinds aan beginnen, best lullig voor nVidia als ATI begin 2006 als enige met een Unified Architectuur gpu komt, waardoor je longhorn volledig kan benutten. (als WGF tenminste een eis van longhorn is voor maximaal gebruik)
[Voor 158% gewijzigd door XWB op 02-05-2005 22:50]
wel zonde van die 9700 Pro, een goede R300 kaartje is nooit weg ejpur_DutchDevil schreef op maandag 02 mei 2005 @ 14:42:
[...]
Ik zelf heb nog een brakke Club 3D 9700 liggen. 1 1/2 jaar lang men trouwe metgezel geweest. Altijd als Pro gewerkt. Eigenlijk nooit klachten over gehad (liep als een zonnetje) tot maandje geleden toen de fan van de stock koeler niet meer mee wou werken. Alleen is die dus dood gegaan met verwisselen van koeler (notitie aan mezelf niet te hard trekken als coolpasta als soort lijm is gaan zitten tussen core en coolblokje). Maar ja heb zelf al een nieuwe PC met club 3d X800XL dus nu moet men servertje het maar doen met een 7000'tje.![]()
![]()

en ja de Radeon 9700 ro heeft ATi een nieuwe leven gegeven en een goede zet in de goede richting, het was de eerste volledige DX9 kaart die er was, Matrox Parhelia 512 was de eerste met DX9 Vertex en Pixel shaders, maar toch jammer dat die een beetje mislukt was.
[Voor 14% gewijzigd door Anoniem: 23009 op 03-05-2005 00:47]
ah Parhelia..ach ja... 512bits memory bus..etc.... een kaart op DAT gebied zijn tijd vooruit, maar... 3d prestaties... het is gewoon geen gamerskaart! Het is een..iets tussen 3d en 2d... waarbij 2d duidelijk sterker is! ( kwa beeld kwaliteit etc )Anoniem: 23009 schreef op dinsdag 03 mei 2005 @ 00:38:
[...]
wel zonde van die 9700 Pro, een goede R300 kaartje is nooit weg ejmaar goed liver ee 7000 dan een vage NV FX 5200 geval. qua 2D ga je met een 7000 niet op achteruit als met een 9700 Pro, daar is ATi alstijd sterk in geweest.
en ja de Radeon 9700 ro heeft ATi een nieuwe leven gegeven en een goede zet in de goede richting, het was de eerste volledige DX9 kaart die er was, Matrox Parhelia 512 was de eerste met DX9 Vertex en Pixel shaders, maar toch jammer dat die een beetje mislukt was.
En ja de R300 was... de ti4200 van het DX9 tijdperk ;-)
There is no place like ::1
Kwa anti aliasing presteert de Parhelia, ondanks zijn waardeloze allround prestaties, nog steeds beter dan huidige ATi en nVidia kaarten door puur de randen van polygonen e.d. in een hogere res te samplen. Je kon toen voor 16x F(ragment)AA kon kiezen, gewoon optimale afronding dus, met echt minimaal prestatieverlies. Erg jammer dat de 2 grote spelers er nog niet van gejat hebben. Met enige verbetering van deze techniek kan AA echt geperfectioneerd worden:swampy schreef op dinsdag 03 mei 2005 @ 02:00:
ah Parhelia..ach ja... 512bits memory bus..etc.... een kaart op DAT gebied zijn tijd vooruit, maar... 3d prestaties... het is gewoon geen gamerskaart! Het is een..iets tussen 3d en 2d... waarbij 2d duidelijk sterker is! ( kwa beeld kwaliteit etc )
FAA positives:
- When compared to the 4X sample mode, FAA does a better job on the edges.
- FAA allows for a large number of samples to be used with a minimal penalty on performance.
- Works in both OpenGL and Direct3D with no API tradeoffs.
- Doesn't work 100% of the time, across the board. You can spot areas in the provided screenshots that not working. When actually playing a game, you don't tend to notice some of the imperfections, but they are imperfections nonetheless.
- Will not work on stencil buffers.
- Because it only works on edges, you must apply anisotropic filtering to address textures. Not really a negative per-se, but is a consequence of the implementation.

[Voor 73% gewijzigd door Yokozuna op 03-05-2005 14:06]
Is hier iemand met een Radeon 9500 en een Intel Pentium 4 2,2 - 2,3GHz P4 (Northwood 533MHz FSB)?
Zo ja, zou je misschien een ietwat ongewone test willen uitvoeren?
Namelijk je kaart terugklokken naar 166/166 en dan de eerste 4 benchmarks van 3dMark2001se (Car chase, Dragothic, Lobby, Nature) willen uitvoeren en hier de score vermelden?
Ik ben namelijk nieuwsgierig naar hoeveel procent die core beter is dan oudere cores (3dfx' VSA-100) Heb sinds vrijdag zelf namelijk een Sapphire Radeon 9250 128MB en die produceert 'slechts' minder dan 200 punten meer dan de V5 5500 (op dezelfde kloksnelheid natuurlijk).
Ja ik weet het, nogal een verschil tussen de kaarten zelf, mid/high-end vs. low-end, 2chips vs. 1 chip, etc.
PS; als er mensen zijn met eenzelfde configuratie maar met een Radeon 8500, 9600, 9700 of 9800, zouden die deze test dan ook willen uitvoeren? Liefst kaarten met 64MB geheugen maar 128MB mag natuurlijk ook. Mijn dank is groot!
Zo ja, zou je misschien een ietwat ongewone test willen uitvoeren?
Namelijk je kaart terugklokken naar 166/166 en dan de eerste 4 benchmarks van 3dMark2001se (Car chase, Dragothic, Lobby, Nature) willen uitvoeren en hier de score vermelden?
Ik ben namelijk nieuwsgierig naar hoeveel procent die core beter is dan oudere cores (3dfx' VSA-100) Heb sinds vrijdag zelf namelijk een Sapphire Radeon 9250 128MB en die produceert 'slechts' minder dan 200 punten meer dan de V5 5500 (op dezelfde kloksnelheid natuurlijk).
Ja ik weet het, nogal een verschil tussen de kaarten zelf, mid/high-end vs. low-end, 2chips vs. 1 chip, etc.

PS; als er mensen zijn met eenzelfde configuratie maar met een Radeon 8500, 9600, 9700 of 9800, zouden die deze test dan ook willen uitvoeren? Liefst kaarten met 64MB geheugen maar 128MB mag natuurlijk ook. Mijn dank is groot!
[Voor 27% gewijzigd door NitroX infinity op 03-05-2005 14:40]
Graphene; a material that can do everything, except leave the lab. - Asianometry
De parhelia had een 256b mem bus, maar slaagde er niet in de de vram op hun normale snelheid te laten lopen. De parhelia was gewoon een inefficient design, er waren geen Z-compressie of culling methodes aanwezig op de chip.swampy schreef op dinsdag 03 mei 2005 @ 02:00:
[...]
ah Parhelia..ach ja... 512bits memory bus..etc.... een kaart op DAT gebied zijn tijd vooruit, maar... 3d prestaties... het is gewoon geen gamerskaart! Het is een..iets tussen 3d en 2d... waarbij 2d duidelijk sterker is! ( kwa beeld kwaliteit etc )
En ja de R300 was... de ti4200 van het DX9 tijdperk ;-)
Dat is waar ook, stomme ik, .. geen Z-compressie... dat is pijnlijk, ook een van de redenen waarom de FX5200 zo slecht presteert...het heeft al weinig geheugen bandbreedte en zonder Z-compressie is het gewoon om te huilen wat het ermee kan!oeLangOetan schreef op dinsdag 03 mei 2005 @ 15:28:
[...]
De parhelia had een 256b mem bus, maar slaagde er niet in de de vram op hun normale snelheid te laten lopen. De parhelia was gewoon een inefficient design, er waren geen Z-compressie of culling methodes aanwezig op de chip.
Tegenwoordig met Z-compressie die onder bepaalde settings 24:1 kan halen....
There is no place like ::1
Anoniem: 115890
Dit is zwaar irritant, nog 2 weken wachten op me X850XT PE 
Trouwens loopt deze gewoon perfect op een Asus A8N SLI deluxe boardje ?

Trouwens loopt deze gewoon perfect op een Asus A8N SLI deluxe boardje ?
[Voor 39% gewijzigd door Anoniem: 115890 op 03-05-2005 16:48]
waarom zou hij het niet goed doen?Anoniem: 115890 schreef op dinsdag 03 mei 2005 @ 16:48:
Trouwens loopt deze gewoon perfect op een Asus A8N SLI deluxe boardje ?

is dit topic niet voor bedoeld eigenlijk...NitroX infinity schreef op dinsdag 03 mei 2005 @ 14:31:
Is hier iemand met een Radeon 9500 en een Intel Pentium 4 2,2 - 2,3GHz P4 (Northwood 533MHz FSB)?
offtopic:
nee,
maar wel een AXP@2,14GHz&1024MB met een 9800SE@PRO.
op default (380/340) 12853 pts
op 168/168 (mem wil niet lager) 9000 pts
op 105/168 7249pts...
kweet niet of je dr wat aan hebt, en is die voodoo uberhaupt wel DX8?
want alsie niet DX8 is (wat die 9250 wel is) mistie daarvoor ook al aardig wat punten...
en waarom wil je die 9250 (verkapte 8500 toch?) vergelijken met een 9500???
nee,
maar wel een AXP@2,14GHz&1024MB met een 9800SE@PRO.
op default (380/340) 12853 pts
op 168/168 (mem wil niet lager) 9000 pts
op 105/168 7249pts...
kweet niet of je dr wat aan hebt, en is die voodoo uberhaupt wel DX8?
want alsie niet DX8 is (wat die 9250 wel is) mistie daarvoor ook al aardig wat punten...
en waarom wil je die 9250 (verkapte 8500 toch?) vergelijken met een 9500???
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Jah, sorry, maar om voor zo'n simpel vraagje nou een nieuw topic te openen lijkt me een beetje overbodigPuppetmaster schreef op dinsdag 03 mei 2005 @ 22:34:
[...]
is dit topic niet voor bedoeld eigenlijk...

Dat geeft mij al een goede indicatie van wat ik wilde weten, hartelijk bedanktofftopic:
nee,
maar wel een AXP@2,14GHz&1024MB met een 9800SE@PRO.
op default (380/340) 12853 pts
op 168/168 (mem wil niet lager) 9000 pts
op 105/168 7249pts...
kweet niet of je dr wat aan hebt, en is die voodoo uberhaupt wel DX8?
want alsie niet DX8 is (wat die 9250 wel is) mistie daarvoor ook al aardig wat punten...
en waarom wil je die 9250 (verkapte 8500 toch?) vergelijken met een 9500???

Graphene; a material that can do everything, except leave the lab. - Asianometry
Tbreak jumps the gun....
De eerste X800XL 512MB staat online: http://www.tbreak.com/rev...=grfx&id=369&pagenumber=1
De eerste X800XL 512MB staat online: http://www.tbreak.com/rev...=grfx&id=369&pagenumber=1
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niet echt je van het het verschil, zal wel aan de drivers/games liggen.
En dan vooral dat laatste stukje:CJ schreef op dinsdag 03 mei 2005 @ 23:11:
Tbreak jumps the gun....
De eerste X800XL 512MB staat online: http://www.tbreak.com/rev...=grfx&id=369&pagenumber=1
Voor dat geld kun je een X850XT PE kopen, je zou dus wel gek zijn deze 512MB versie te kopen.We don’t think that its time for it now and would rather get the 256MB XL at $250 than the 512MB version that ATI is recommending to be sold for around $450.
[Voor 11% gewijzigd door Yokozuna op 04-05-2005 00:52]
Anoniem: 127429
x850xt gebruikers ... ik overweeg de aankoop van deze kaart :
ASUS Radeon AX850XT 256MB AGP TV/OUT
Zijn er mensen die deze draaien hebben, eventueel op een msi k8n neo2 plat. bordje ? Zo ja, wat zijn de bevindingen ? Is het aangeraden deze nu te kopen of beter om te wachten op de next-gen ? (ben nogal ongeduldig maar wil aan de andere kant geen geld over de balk gooien). Ik heb totaal geen ervaring met ATi so far
ASUS Radeon AX850XT 256MB AGP TV/OUT
Zijn er mensen die deze draaien hebben, eventueel op een msi k8n neo2 plat. bordje ? Zo ja, wat zijn de bevindingen ? Is het aangeraden deze nu te kopen of beter om te wachten op de next-gen ? (ben nogal ongeduldig maar wil aan de andere kant geen geld over de balk gooien). Ik heb totaal geen ervaring met ATi so far

Als je niet bereid bent te wachten tot augustus - september, zou ik ervoor gaan. Maar persoonlijk vindt ik het "niet erg verstandig" nu nog een hi-end kaart te kopen gebaseerd op een oude architectuur (ja, 3jaar is stokoud in 3dkaarten).Anoniem: 127429 schreef op woensdag 04 mei 2005 @ 01:32:
x850xt gebruikers ... ik overweeg de aankoop van deze kaart :
ASUS Radeon AX850XT 256MB AGP TV/OUT
Zijn er mensen die deze draaien hebben, eventueel op een msi k8n neo2 plat. bordje ? Zo ja, wat zijn de bevindingen ? Is het aangeraden deze nu te kopen of beter om te wachten op de next-gen ? (ben nogal ongeduldig maar wil aan de andere kant geen geld over de balk gooien). Ik heb totaal geen ervaring met ATi so far
tss stelletje NDA brekers, mogen ze pas op 5 bekend maken dit...CJ schreef op dinsdag 03 mei 2005 @ 23:11:
Tbreak jumps the gun....
De eerste X800XL 512MB staat online: http://www.tbreak.com/rev...=grfx&id=369&pagenumber=1
Preformance valt me tegen, had op 1600x1200 met AA4x wel ietsje meer verwacht.
tijd voor een R520 met 512mb dus

[edit]mmm.. NDA liep 3 Mei af dus... zie www.ati.com
[Voor 26% gewijzigd door GfMike op 04-05-2005 20:43]
Wat dacht je van gewoon overkill. 512mb in imo een jaar of zelfs anderhalf jaar compleet overbodig. Maargoed voor sommige staat het wel stoer natuurlijk.Aight! schreef op woensdag 04 mei 2005 @ 00:35:
Niet echt je van het het verschil, zal wel aan de drivers/games liggen.
Beyond3D heeft inmiddels ook z'n review online gezet van de Sapphire X800XL 512MB. Opvallend is dat deze gebruik maakt van het PCB van de X800XT (PE), maar wel de cooler gebruikt van de X850XT (PE). Bron: http://www.beyond3d.com
Volgens Beyond3D is een reden dat ATi deze SKU als 512MB variant naar voren schuift en niet de X850XT (PE), dat ATi zich klaar maakt om een nieuwe high end chip te introduceren die wel 512MB heeft. Het zou weinig nut hebben als de X850XT PE nu met 512 MB uit zou komen voor een hoog bedrag, terwijl een maand later de R520 gelanceerd zou worden met 512MB. Een chip gebruiken die meer op de midrange gericht is (maar door z'n 16 pipes wel mee kan met de 'echte' high end chips) zou een "vriendelijker" prijsje moeten hebben en dus een groter publiek moeten aanspreken.
Volgens Beyond3D is een reden dat ATi deze SKU als 512MB variant naar voren schuift en niet de X850XT (PE), dat ATi zich klaar maakt om een nieuwe high end chip te introduceren die wel 512MB heeft. Het zou weinig nut hebben als de X850XT PE nu met 512 MB uit zou komen voor een hoog bedrag, terwijl een maand later de R520 gelanceerd zou worden met 512MB. Een chip gebruiken die meer op de midrange gericht is (maar door z'n 16 pipes wel mee kan met de 'echte' high end chips) zou een "vriendelijker" prijsje moeten hebben en dus een groter publiek moeten aanspreken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Overbodig maar niet ongevraagd, gisteren werd er al in de PC-winkel waar ik werk gevraagd naar een 512MB kaart. Er is dus zeker een markt voor, waarom dan ook niet ? Zowiezo zie je veel desktops van bv. HP, Packard Bell en dergelijke met videokaarten van 256MB promoten, al is het maar een X300 die er zowiezo geen reet aan heeft. Maar mensen kunnen tellen en weten dat meer geheugen beter is...
Voor gebruikers met bizarre vermogensbehoeften heeft PC Power & Cooling een nieuwe voeding met een continuvermogen van 850 watt en een piekvermogen van 950 watt geïntroduceerd.
...
Het enorme vermogen van de Turbo-Cool 850SSI zou voldoende moeten zijn om nVidia's volgende generatie G70- videocores, die volgens de geruchten een zeer hoog energieverbruik krijgen, van prik te voorzien.
OMG... Ik hoop dat dat niet wil zeggen dat ze nog eens 50% meer gaan trekken ofzo... Dit is dan wel het ATI topic, maar elke generatie ATI zit toch gemiddeld 25% onder het stroomverbruik van een concurrerende kaart. Hoe komt dit eigenlijk ? Ook dat ATI-kaarten beduidend koeler blijven, maar dat zal komen door een lager voltage ?
...
Het enorme vermogen van de Turbo-Cool 850SSI zou voldoende moeten zijn om nVidia's volgende generatie G70- videocores, die volgens de geruchten een zeer hoog energieverbruik krijgen, van prik te voorzien.
OMG... Ik hoop dat dat niet wil zeggen dat ze nog eens 50% meer gaan trekken ofzo... Dit is dan wel het ATI topic, maar elke generatie ATI zit toch gemiddeld 25% onder het stroomverbruik van een concurrerende kaart. Hoe komt dit eigenlijk ? Ook dat ATI-kaarten beduidend koeler blijven, maar dat zal komen door een lager voltage ?
Die G70 van nVidia zal wss wel enorm veel gaan verbruiken, onlangs gelezen dat nVidia het vermogen dat een PCI-E slot kan opnemen wil verhogen naar 150W (is nu rond de 60W ofzo)OMG... Ik hoop dat dat niet wil zeggen dat ze nog eens 50% meer gaan trekken ofzo...
[Voor 23% gewijzigd door XWB op 04-05-2005 17:42]
Anoniem: 115890
Ik zou liever de Sapphire X850XT PE pakken deze heeft een vriend van me ook op een k8n neo plat, en heeft er geen problemen mee, tevens is sapphire goedkoper dan de AsusAnoniem: 127429 schreef op woensdag 04 mei 2005 @ 01:32:
x850xt gebruikers ... ik overweeg de aankoop van deze kaart :
ASUS Radeon AX850XT 256MB AGP TV/OUT
Zijn er mensen die deze draaien hebben, eventueel op een msi k8n neo2 plat. bordje ? Zo ja, wat zijn de bevindingen ? Is het aangeraden deze nu te kopen of beter om te wachten op de next-gen ? (ben nogal ongeduldig maar wil aan de andere kant geen geld over de balk gooien). Ik heb totaal geen ervaring met ATi so far
Ik denk dat de G-70 een fractie meer zal gaan verbruiken als nu het geval is. Waar we wel rekening mee moeten houden is dat nvidia ook al heeft aangegeven SLI te verbeteren om meer als 2 kaarten te ondersteunen en deze voeding zou de oplossing kunnen zijn voor dat soort praktijken.Hacku schreef op woensdag 04 mei 2005 @ 17:41:
[...]
Die G70 van nVidia zal wss wel enorm veel gaan verbruiken,
(Hint) Leuk om misschien te delen dit stukje...Lijkt me namelijk zeer onwaarchijnlijk dat nvidia dit uit zichzelf wil gaan ondernemen. Denk eerder dat de gehele industrie dit moet willen om het erdoor te krijgen.onlangs gelezen dat nVidia het vermogen dat een PCI-E slot kan opnemen wil verhogen naar 150W
[Voor 8% gewijzigd door sjekneck op 04-05-2005 18:25]
Anoniem: 115890
Zou het in de toekomst kunnen zijn dat je gewoon 2x Sapphire X850XT PE bij elkaar kunt prikken op een SLI boardje en dat het ook werkt of moetje daar een nieuwe generatie kaart voor kopen ?
http://www.theinq.net/?article=22917sjek schreef op woensdag 04 mei 2005 @ 18:23:
[...]
(Hint) Leuk om misschien te delen dit stukje...Lijkt me namelijk zeer onwaarchijnlijk dat nvidia dit uit zichzelf wil gaan ondernemen. Denk eerder dat de gehele industrie dit moet willen om het erdoor te krijgen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LOL, tuurlijk ze gooien er ff 100 watt bij. Waarschijnlijk post TheInq morgen weer dat er 100 vanaf gaat

Ik was eigenlijk best trots op mijn Tagan 480W, je gaat toch niet zeggen dat je een voeding van 2x die capaciteit nodig hebt voor 2 nvidia kaartjes te draaien ? Want meer stroom trekken is zowiezo meer hitte en ja, het is al erg genoeg gesteld met de stofzuigerreeks... Wat zal het de volgende keer worden ? 1300W voeding ?? Ik zie het al gebeuren... Lekker voor de stroomrekening... Straks heeft die G70 nog meer koeling nodig dan een 3,8GHz Prescott...
Ik hoop dat ATI's AMR ook niet tot van die gekke toestanden gaat leiden.
Ik hoop dat ATI's AMR ook niet tot van die gekke toestanden gaat leiden.
[Voor 8% gewijzigd door Phuncz op 04-05-2005 20:22]
hmm mooi kaartje ik heb zijn broer de ASUS X800XT PE AGP met ViVo. ik raad wel aan dat als je graag gebruik maakt van de ATi Rage Theater chip, installeer wel alleen de ASUS drivers, want met de originele ATi en Omega's krijk ik vaak een Unknown item in me lijkst, zal wel iets met die Rage chip te maken of die gele exteren adapter net onder de molex PSU aansluiting.Anoniem: 127429 schreef op woensdag 04 mei 2005 @ 01:32:
x850xt gebruikers ... ik overweeg de aankoop van deze kaart :
ASUS Radeon AX850XT 256MB AGP TV/OUT
Zijn er mensen die deze draaien hebben, eventueel op een msi k8n neo2 plat. bordje ? Zo ja, wat zijn de bevindingen ? Is het aangeraden deze nu te kopen of beter om te wachten op de next-gen ? (ben nogal ongeduldig maar wil aan de andere kant geen geld over de balk gooien). Ik heb totaal geen ervaring met ATi so far
Maar toch gebruik ik het liefst de Omega drivers, weet iemand hoe ik dit kan oplossen met die rage chip met de Omega drivers, iemand daar ervaring mee?
Regards,
Obi-Wan Kenobi.
[Voor 10% gewijzigd door Anoniem: 23009 op 05-05-2005 01:07]
Up until the April 25th, I worked for a adverstising/consulting firm that was involved in a project with Dell for the Dimension XPS Gen5 (or 6). For personal reasons I was fired from that firm. All the details released here were protected under multiple NDA's. Upon being fired, all the promotional material I was working on was removed for those very reasons and then I was able to take my PC home.
The cool part is that the USB Key in my briefcase did contain an older file - a wallpaper in JPEG format that gives some concise information. Normally our firm wouldn't have any sort of hands on, but the project manager requested some physical material to work with, so a working XPS tower with a pre-release Xaveon AMR setup made it into our office for some demo viewing and photography work (not featured here, unfortunately). It was running a Pentium D 840 EE at 3.6GHz and 2GB DDR2-667. There were no details on the actual speeds of the video cards.
Some of the details have changed since and/or need clarification:
(1) The ATI Xaveon with multiple VPU setups (i.e. AMR) is for real, and a small in-house demonstration showed the XPS hooked up to four - yes, 4 of Dell's 24" LCD's! They seemed to be running at their native resolution of 1920x1200, even with games.
Half-Life 2 does not run multiple monitors correctly as of yet, but updates to the Source engine with the Aftermath expansion will indeed do up to three monitors. We did see Far Cry running on three monitors with a couple of minor glitches, but that showed great potential. They was no clarification about AA or FSAA at that time, but the monitors were all set to 1920x1200.
The Xaveon will be released in four flavors - Xaveon XT, Xaveon Pro, Xaveon, and Xaveon HD. ATI claims a consistent 60% to 95% increase in game performance with AMR, and a full 2.5x increase over two GeForce 6800 Ultras in SLI mode. The Xaveon HD of particular interest will ship at speeds slightly lower than the XT, but will include ATI's unannounced Theatre 600HD chip - and that name says it all. The Xaveon series will be launched by other manufacturers at the same time.
(2) The Soundblaster Audigy 3 was not on target, and will not be released until approximately Q4. Last I heard, it will come under a different name. The newer ad is with an Audigy 4 Pro.
(3) The Special Edition Pentium 4 is a single-core processor running default at 4.0GHz. It will apparently ship with the 955X Chipset in very, very limited quantities. The 4MB L2 Cache is wrong, and will only be 2MB. But this processor runs at 3990MHz with H/T on a 1066MHz FSB. Dell claimed it would outrun the upcoming Athlon 64 FX 57 on almost all gaming benchmarks. It was also possible Dell would include overclocking similar to the Pentium D 840 EE (maybe up to 4.25GHz). Please note that only Dell will be selling this CPU! If you thought Dell was in bed with Intel before, consider this their lovechild.
(4) Dell includes a mounting bracket to convert one of the external drive slots into a fourth internal hard-drive slot, allowing for the advertised 4-drive setup. Dell might also offer RAID 5 support for this setup.
(5) WD is ready to ship a 146GB version of its 10,000RPM Raptor line, although the drives will cost over $400 each. The drives have native command queuing and will perform even better than the current 74GB versions. Dell seems to have an exclusive on this one for at least a month. There was also initial talk about a 500GB 7200RPM release, but that has been postponed.
(6) The S-ATA version of the DVD±RW drives with the larger cache is everything short of confirmed, and will be manufactured by Samsung. Klipsch seems ready to release their new 7.1 system. This will also remain a Dell exclusive until Q4. The Logitech MX1100 is being renamed to the MX1000 Pro, and the Cordless Elite will carry a Dell branding. Microsoft Plus! 2005 has been canned until the release of Longhorn.
The graphic was last modified on March 27, and used older source material including the monitors and tower. Newer versions of this wallpaper will surface with Dell's new sub-site - www.dellgamer.com when it is launched.
http://www.geocities.com/xaveon_xt/The_Xaveon.html
Voor wat het waard is uiteraard
The cool part is that the USB Key in my briefcase did contain an older file - a wallpaper in JPEG format that gives some concise information. Normally our firm wouldn't have any sort of hands on, but the project manager requested some physical material to work with, so a working XPS tower with a pre-release Xaveon AMR setup made it into our office for some demo viewing and photography work (not featured here, unfortunately). It was running a Pentium D 840 EE at 3.6GHz and 2GB DDR2-667. There were no details on the actual speeds of the video cards.
Some of the details have changed since and/or need clarification:
(1) The ATI Xaveon with multiple VPU setups (i.e. AMR) is for real, and a small in-house demonstration showed the XPS hooked up to four - yes, 4 of Dell's 24" LCD's! They seemed to be running at their native resolution of 1920x1200, even with games.
Half-Life 2 does not run multiple monitors correctly as of yet, but updates to the Source engine with the Aftermath expansion will indeed do up to three monitors. We did see Far Cry running on three monitors with a couple of minor glitches, but that showed great potential. They was no clarification about AA or FSAA at that time, but the monitors were all set to 1920x1200.
The Xaveon will be released in four flavors - Xaveon XT, Xaveon Pro, Xaveon, and Xaveon HD. ATI claims a consistent 60% to 95% increase in game performance with AMR, and a full 2.5x increase over two GeForce 6800 Ultras in SLI mode. The Xaveon HD of particular interest will ship at speeds slightly lower than the XT, but will include ATI's unannounced Theatre 600HD chip - and that name says it all. The Xaveon series will be launched by other manufacturers at the same time.
(2) The Soundblaster Audigy 3 was not on target, and will not be released until approximately Q4. Last I heard, it will come under a different name. The newer ad is with an Audigy 4 Pro.
(3) The Special Edition Pentium 4 is a single-core processor running default at 4.0GHz. It will apparently ship with the 955X Chipset in very, very limited quantities. The 4MB L2 Cache is wrong, and will only be 2MB. But this processor runs at 3990MHz with H/T on a 1066MHz FSB. Dell claimed it would outrun the upcoming Athlon 64 FX 57 on almost all gaming benchmarks. It was also possible Dell would include overclocking similar to the Pentium D 840 EE (maybe up to 4.25GHz). Please note that only Dell will be selling this CPU! If you thought Dell was in bed with Intel before, consider this their lovechild.
(4) Dell includes a mounting bracket to convert one of the external drive slots into a fourth internal hard-drive slot, allowing for the advertised 4-drive setup. Dell might also offer RAID 5 support for this setup.
(5) WD is ready to ship a 146GB version of its 10,000RPM Raptor line, although the drives will cost over $400 each. The drives have native command queuing and will perform even better than the current 74GB versions. Dell seems to have an exclusive on this one for at least a month. There was also initial talk about a 500GB 7200RPM release, but that has been postponed.
(6) The S-ATA version of the DVD±RW drives with the larger cache is everything short of confirmed, and will be manufactured by Samsung. Klipsch seems ready to release their new 7.1 system. This will also remain a Dell exclusive until Q4. The Logitech MX1100 is being renamed to the MX1000 Pro, and the Cordless Elite will carry a Dell branding. Microsoft Plus! 2005 has been canned until the release of Longhorn.
The graphic was last modified on March 27, and used older source material including the monitors and tower. Newer versions of this wallpaper will surface with Dell's new sub-site - www.dellgamer.com when it is launched.
http://www.geocities.com/xaveon_xt/The_Xaveon.html
Voor wat het waard is uiteraard

Niet op voorraad.
Niet zo zeuren, niemand verplicht je tot aanschaf van zulke kaarten.....Phuncz schreef op woensdag 04 mei 2005 @ 20:20:
Ik was eigenlijk best trots op mijn Tagan 480W, je gaat toch niet zeggen dat je een voeding van 2x die capaciteit nodig hebt voor 2 nvidia kaartjes te draaien ? Want meer stroom trekken is zowiezo meer hitte en ja, het is al erg genoeg gesteld met de stofzuigerreeks... Wat zal het de volgende keer worden ? 1300W voeding ?? Ik zie het al gebeuren... Lekker voor de stroomrekening... Straks heeft die G70 nog meer koeling nodig dan een 3,8GHz Prescott...
Ik hoop dat ATI's AMR ook niet tot van die gekke toestanden gaat leiden.
Nee idd niet, de games van tegenwoordig wel 

@ Edward,
Leuk verhaal, ik hoop dat het waar is, als het waar is is het best itteresant.
Xaveon ipv Radeon is op zich ook niet verkeerd. een Xaveon XT klinkt naar mijn mening beter dan een Radeon X900 XT e.d. (aan de andere kant, naam van het product boeit eigenlijk niet, preformance en specs tellen alleen
)
Eerst maar even afwachten of dit allemaal echt zo is.
Leuk verhaal, ik hoop dat het waar is, als het waar is is het best itteresant.
Xaveon ipv Radeon is op zich ook niet verkeerd. een Xaveon XT klinkt naar mijn mening beter dan een Radeon X900 XT e.d. (aan de andere kant, naam van het product boeit eigenlijk niet, preformance en specs tellen alleen

Eerst maar even afwachten of dit allemaal echt zo is.
als je nu op die link klikt staat er wel een interessante melding...edward2 schreef op donderdag 05 mei 2005 @ 01:52:
<verhaal>
http://www.geocities.com/xaveon_xt/The_Xaveon.html
Voor wat het waard is uiteraard


NOTICE OF DOMAIN TERMINATION
Page No Longer Available
By court order, all content pertaining to the directories and subdirectories of http://www.geocities.com/xaveon_xt has been removed by the domain provider. Legal notices issued to Yahoo! and it's associates by the following corporations and their associates indicate the violation of several non-disclosure agreements:
(a) Dell Corporation, (b) Intel Corporation, (c) ATI Canada, (d) Creative Corporation and (e) Logitech Corporation.
Existence of any material from the listed domain, either in textual or graphic format is also a violation of the non-disclosure agreements issued by the previous corporations and their associates.
Yahoo! GeoCities is not responsible in any form for the domain and/or content within the domain it hosts.
We apologize for this inconvenience.
[Voor 62% gewijzigd door Help!!!! op 05-05-2005 12:11]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nu is de vraag nog of de dat bericht ook niet een hoax is
Al bij al zou ik het graag willen geloven dat Ati zo'n whoopass stoot kan uitdelen, toch blijf ik liever sceptisch. Het zijn erg veel grote bedrijven die "ineens" met beestig gewilde hardware uitkomen. Het klinkt te zeer wat we willen horen dan wat we zouden horen.

Niet dat ik daar niet aan gedacht heb hoor ..Phuncz schreef op donderdag 05 mei 2005 @ 13:14:
Nu is de vraag nog of de dat bericht ook niet een hoax isAl bij al zou ik het graag willen geloven dat Ati zo'n whoopass stoot kan uitdelen, toch blijf ik liever sceptisch. Het zijn erg veel grote bedrijven die "ineens" met beestig gewilde hardware uitkomen. Het klinkt te zeer wat we willen horen dan wat we zouden horen.


[Voor 4% gewijzigd door Help!!!! op 05-05-2005 13:48]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Xaveon klinkt leuk, waar het niet dat er al een beveiligings eStore is die Xaveon heet. http://www.xaveonsecurity.com/ en er nog meer dingen zijn die er op wijzen dat het een hoax is. Kijk bv eens naar waar het plaatje van Yahoo! GeoCities is opgeslagen....
[Voor 17% gewijzigd door CJ op 05-05-2005 13:54]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hey kerels omdat hier de ATi fanaten zitten lijkt het me het handigst om mijn vraag hier te stellen, is er in het verleden een Radeon 9700 Pro uitgebracht met speeds hoger dan de standaart PRO (325-310). Ik denk dat jullie hier wel een antwoord op hebben.
Heb ik namelijk nodig om die bios in men kaart te flashen, ik denk dat die ee hogere voltage heeft voor de core dat ik dan ook verder kan clocken.
Heb ik namelijk nodig om die bios in men kaart te flashen, ik denk dat die ee hogere voltage heeft voor de core dat ik dan ook verder kan clocken.
Sapphire had een paar zwaar overgeklockte 9700 kaarten die ook nog s passief gekoelt waren, maar waar je een bios voor die kaarten gaat halen weet ik ook nie, ze waren bovendien absurd duur?Anoniem: 62850 schreef op donderdag 05 mei 2005 @ 19:37:
Hey kerels omdat hier de ATi fanaten zitten lijkt het me het handigst om mijn vraag hier te stellen, is er in het verleden een Radeon 9700 Pro uitgebracht met speeds hoger dan de standaart PRO (325-310). Ik denk dat jullie hier wel een antwoord op hebben.
Heb ik namelijk nodig om die bios in men kaart te flashen, ik denk dat die ee hogere voltage heeft voor de core dat ik dan ook verder kan clocken.
Nee, er is geen Extreme-versie uitgebracht van de 9700Pro ofzoiets, tenminste dat is wat ik ervan weet (en dat is toch aardig veel, alles gevolgd sinds de introductie van de Radeon 9700-serie
)
Biossen? Ik heb even ge-GooGled, dit (en dit, maar dat is Russisch
) kwam eruit. Voor de rest, ik denk niet dat er een Turbo-bios is. Gewoon Rivatuner pakken en opstoken die handel! Veel succes!
Overigens, er zijn 9700-cores (niet al teveel) die redelijk makkelijk voorbij de 400 MHz komen. Het record met DIK extreme koeling (alleen lucht, dat moet ik er wel bijzeggen) is geloof ik iets van 540 MHz, dat ding zag er gewoon niét uit, het leek wel een spaceshuttle
)

Biossen? Ik heb even ge-GooGled, dit (en dit, maar dat is Russisch


Overigens, er zijn 9700-cores (niet al teveel) die redelijk makkelijk voorbij de 400 MHz komen. Het record met DIK extreme koeling (alleen lucht, dat moet ik er wel bijzeggen) is geloof ik iets van 540 MHz, dat ding zag er gewoon niét uit, het leek wel een spaceshuttle

Met een wat leukere luchtkoeling haalde ik op mijn 9500 NP @ 9700 Pro ook al 400MHz op de core. Wat hoger zou wel gelukt zijn als ik de core voltage zou opschroeven. Maar ik heb weinig zin aan de kaart te gaan solderen
Eerst een ander kaartje, dan is het niet zo erg als ik hem opstook 
Maar euhm, je hebt het meeste winst bij het geheugen hoger te klokken geloof ik. Helaas haalt mijn kaartje amper 295/300MHz max...


Maar euhm, je hebt het meeste winst bij het geheugen hoger te klokken geloof ik. Helaas haalt mijn kaartje amper 295/300MHz max...
Bij mij haalt het geheugen overclocken helemaal niks uit men 03 score was 5900 op 400-270 en op 400-310 (40x2= effectief 80 Mhz) was het score iets meer dan 6000.Phuncz schreef op donderdag 05 mei 2005 @ 21:55:
Met een wat leukere luchtkoeling haalde ik op mijn 9500 NP @ 9700 Pro ook al 400MHz op de core. Wat hoger zou wel gelukt zijn als ik de core voltage zou opschroeven. Maar ik heb weinig zin aan de kaart te gaan solderenEerst een ander kaartje, dan is het niet zo erg als ik hem opstook
Maar euhm, je hebt het meeste winst bij het geheugen hoger te klokken geloof ik. Helaas haalt mijn kaartje amper 295/300MHz max...
En met de core te verhogen dan ? Ik haalde anders aardig wat verschillen tussen 270 en 300. Moet wel zeggen dat ik niet bench met 3DMark brol (yes eat me
) maar met Q3 (vroeger dan). Nu ja, Core zal zowiezo niet veel verder gaan dan dit zonder voltmod 


Ik hoop niet dat R520 in de komende week gelanceerd wordt, want dan zit ik in Kreta. 

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik ook niet, heb nog niet echt kunnen sparen voor al die vette shizzle 
Maar even een vraagje: hoe gaat de release eruit zien denk je ? Wederom enkel de snelste versies die mondjesmaat te leveren zijn voor 600-700€ ? Want misschien als ik toch 300€ moet neerdokken voor een X800XL, kan ik beter uitkijken naar een R520 budget versie ofzo.

Maar even een vraagje: hoe gaat de release eruit zien denk je ? Wederom enkel de snelste versies die mondjesmaat te leveren zijn voor 600-700€ ? Want misschien als ik toch 300€ moet neerdokken voor een X800XL, kan ik beter uitkijken naar een R520 budget versie ofzo.
Beknopte review van ATI All-In Wonder X800 XT:
http://graphics.tomshardware.com/graphic/20050505/index.html
http://graphics.tomshardware.com/graphic/20050505/index.html
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Al gezien vanmorgen, bedroevende kwaliteit van de tv-tuner in vergelijking met de TV Wonder Elite.
Het feit dat je dit al zegt doet mij vermoeden dat jij het vermoeden hebt dat er vermoedens zijn dat de R520 volgende week gelaunched wordt, hoe kom je daarbij? (Volg je em trouwens nog?CJ schreef op vrijdag 06 mei 2005 @ 08:44:
Ik hoop niet dat R520 in de komende week gelanceerd wordt, want dan zit ik in Kreta.

offtopic:
Veel plezier dan rasegoïst, áltijd maar aan zichzelf denken die CJ LOL
Maar daar is toch ook gewoon Internet? Niet zeuren dan... 
Veel plezier dan rasegoïst, áltijd maar aan zichzelf denken die CJ LOL



[Voor 3% gewijzigd door Jejking op 06-05-2005 12:26]
ATI AMR details hit rumour level
http://www.theinquirer.net/?article=23053SOME DETAILS APPEAR TO BE COMING out about ATI's AMR. While they are considered 'rumour' level right now, we put more than 50-50 faith in them. AMR will be different from SLI, but also similar, freakily. A while back, we took a gander at the concepts behind tiling, AFR and split screen on NVidia's and ATI's approaches, theoretically in ATI's case.
What some of these sources are saying is that AMR will have a "master" and a "slave" card. These sources also say that the "master| will be a new board layout for AMR, and there is no word whether it will work without AMR.
The problem here is that OEMs don't like carrying multiple SKUs for the same chip. If you want to have an X700 AMR rig to sell, you need to design an X700 "master" and an X700 "slave", keep both in stock, explain to the mouth-breathers why the two "slaves" don't work the way they thought. Essentially you have to endlessly explain everything to customers. No one likes having to humiliate themselves by doing that. Sources are saying that the OEMs are balking at the idea of making a low volume "master "card, so ATI will probably be the only one to do it.
The other word out of different sources is that, as with SLI, ATI will have a "dongle" to connect the two cards. If true, and without a bridge, PCIe would get hammered into paste with all that traffic. It is good to contemplate the notion that ATI is making a long term solution rather than a short term hack.
Overall, the rumours have some interest. No word on performance, and I would cringe a little at the image quality implications if the VGA to VGA dongle part is true. Also, it may limit the inter-card communications, or at least force that to be passed over PCIe. Shades of 3DFx eh? I guess we will know for sure around Computex time.
The dongles are reported to go from DVI to DVI, or from VGA to VGA, which may limit what cards you can put where, and how it would work out. That said, since most cards worth a damn have both outs, this should not cause many problems.
Zo ken ik er nog eentje. Hierbij een hoop uitleg over ATi's AMR, let's read it on!
Voor de luie mensen, zie hier een samenvatting uit Jejking's hoge hoed!
Voor de luie mensen, zie hier een samenvatting uit Jejking's hoge hoed!

Will NVIDIA SLi get caught in the ATi CrossFire ?
Based on information from a number of sources, HEXUS can exclusively reveal details about ATi’s dual-card technology for Multi Video Processing units (MVP).
ATi seems to have had the technology to implement MVP for a long time, but saw the potential in the mainstream/enthusiast market last year with the launch of NVIDIA SLi, and what red blooded bloke wouldn’t like a bit of twin action now and again, eh?
Apparently the first solution available will be based on ATi RADEON X850 XT (R480) and therefore some of the good news promised is that any existing owner will be able to upgrade to ATi MVP goodness.
Some, perhaps mainly early, NVIDIA GeForce 6800 Ultra cards have not been shipped ‘SLi ready’ – but it seems that any ATi PCIe 3D accelerator, based upon its R480 VPU, will be able to function as the ‘slave unit’.
Nothing kinky here folks, the ‘Master/Slave’ reference tells you which card is in control of assembling the final image in its frame buffer. Just like NVIDIA SLi, the ATi MVP solution will require a compatible mainboard (first seen by HEXUS on the ASUSTeK booth at this years CeBIT exhibition) and so it will be interesting to see which core-logic technology ATi will be supporting with its MVP.
Having developed military solutions based on up to 32 cards in the past, it appears that ATi has decided on a ‘tile’ based rendering approach as the default technology and perhaps the judgement was that this method offers the most ideal balance of speed and image quality (minimum size 32 pixels square). However it’s more than likely that the ATi MVP solution will be flexible to offer other rendering modes like AFR (Alternate Frame Rendering) as well.
So now you’re thinking how cool is this, and you want one…. well, erm… the thing is right now there aren’t actually any of these cards available, so although ATi have done us all a favour by building in a level of future proofing by maintaining the use of ‘older’ cards for us, we can’t actually go ATi MVP right now.
Despair not though, as our information is that ATi itself will be the first to market with these exciting new products, and it’s on the cards that its third party Add In Board (AIB) partners such as GeCUBE, Sapphire and TUL will follow suit – and our money’s on this being very soon after the start of the Computex exhibition in Taiwan later this month.
In a superb retro throw back to the 3DFX Voodoo 2 days of yore, the two ATi MVP cards are set to be connected via an external dongle, which will enable the cards to work together in a 3D accelerated fragging frenzy.
This solution has raised more than one or two eyebrows here at HEXUS, as ATi have been heard to slam NVIDIA’s connector between their 2 cards as being a 'poor solution'.
Though it’s obvious that this will allow a neat and cost-effective backwards compatibility with older ATi cards, one has to ponder on the external dongle issue, and you have to wonder if ATi were having a pop at NVIDIA’s neater internal connector just to give us hacks something to write about?
The other possibility is that a dongle will only be required for ultra-high-speed cards, where data integrity and frame timing is most critical.
Indeed, when ATi Technologies’ Rick Bergman announced the ATi RS400 (core logic for Intel processors) at this years CeBIT, there was a specific reference to ATI’s ability to set-up MVP between an add-in card and the mainboards integrated graphics accelerator.
The idea that combining an add-in ATi 3D graphics accelerator with a mainboard based upon an ATi chipset with integrated graphics, and automatically get scalable performance is very sexy and – if true (and we believe it is) - leads to the possibility of putting a pair of top-end 3D cards into a system with an ATI based mainboard, and having all three VPUs working on the output simultaneously.
It seems that the hardware to do this has been built into every top-end ATi product since the ATi RADEON 9700 Pro, and opens up interesting possibilities up and down the price range.
What kind of jump in performance would you get with an ATi HyperMemory card in an ATi RADEON Xpress 200G (RS480) based mainboard such as the EQS M56K9-MLF, if they combine graphics capabilities? Would that even work?
If ATi Master Cards are available from its partners in June, then it seems that NVIDIA’s glorious reign in the dual-card market could be under threat.
The advent of products based upon ATi’s forthcoming R520 VPU is likely to move ATi’s product stack – relative to NVIDIA’s – thereby creating the potential for some very uncomfortable matches for the green team…
ATi R520 is set set to be placed in direct competition with NVIDIA GeForce 6800 Ultra (fastest card to fastest card). This could make the NVIDIA GeForce 6800GT product’s life rather difficult as it will be head-2-head with ATI RADEON X850 XT (R480). Working on the assumption that ATi will continue manufacturing all of these products, then will not a dual-card ATI R480 solution be competing directly with a brace of NVIDIA GeForce 6800GT in SLi mode?
The gap in performance between 6800GT and X850 is already measurably significant so it seems reasonable to presume that ATi MVP solution will cream existing 6800GT SLi rigs by more than 25%...
Whatever the outcome, the world of desktop performance graphics just became a hell of a lot more serious!
As HEXUS reported earlier this week, ATi Technologies has now demonstrated 512MB technology, and as we understand that its been working on physical R520 product since this Christmas - it seems highly likely that it will pull the covers back on MVP at Computex...
..which leads to the stunning possibility of not only a pair of 512MB ATi R520 cards smashing through games in tandem, but with an added extra boost from a mainboards onboard ATi graphics chip…
hmmm...
externe dongle, van DVI naar DVI oid?
vind ik het Nvidia bruggetje toch mooier eig...
externe dongle, van DVI naar DVI oid?

vind ik het Nvidia bruggetje toch mooier eig...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Laten we even in het midden houden dat dit GERUCHTEN zijn... Het kan alle kanten op, met of zonder dongle, met of zonder brug, met of zonder een kabel, etc.
ja tuurlijk, maar ook over geruchten kan je een mening hebben of het een elegante oplossing is of niet 

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Feit, alhoewel ik ATI niet bezig zie met een dongle zoals de Voodoo-reeks als het met dual head promoot. Zowiezo via DVI lijkt het me niet zo logisch, is een aardige omweg ipv. rechtstreekse connectie met de "core" bij wijze van spreke.
[Voor 39% gewijzigd door Phuncz op 06-05-2005 19:29]
Staat nog niet echt iets duidelijk of ik nu met mijn huidige SLI mobo gewoon AMR kan runnen, als ATI slim is via een bios flash, anders zou je weer een nieuw moederbord moeten kopen.
We moeten nog een eind wachten op AMR als we deze geruchten moeten geloven, w8 and see, btw de R520 lijk me steeds verder weg, ik hoop dat er tegen september kaarten beschikbaar gaan zijn.
Overigens, ik las gisteren een review, vergelijking tussen de 6600GT en de X700Pro.
Daarbij las ik bij de videokaartspecificaties dat de 6600GT slechts tot OpenGL1.5 ondersteunde,
en de X700Pro tot OpenGL2.0! Dit lijkt me wel érg vreemd, want volgens mij was Doom3 gemaakt op OpenGL2.0
. Weet iemand hoe dit zit?
Edit: Ik hoop voor OelangOetan dat het niet waar is wat hij zegt, kunnen we nog langer op de R520 wachten en daar heb ik eigenlijk niet zo'n zin in
. Ik wil alleen maar een R520 in mijn nieuwe pc, is dat teveel gevraagd?! 
Daarbij las ik bij de videokaartspecificaties dat de 6600GT slechts tot OpenGL1.5 ondersteunde,
en de X700Pro tot OpenGL2.0! Dit lijkt me wel érg vreemd, want volgens mij was Doom3 gemaakt op OpenGL2.0

Edit: Ik hoop voor OelangOetan dat het niet waar is wat hij zegt, kunnen we nog langer op de R520 wachten en daar heb ik eigenlijk niet zo'n zin in


[Voor 27% gewijzigd door Jejking op 07-05-2005 20:54]
OGL 2.0 ondersteuning is een software kwestie, doom3 gebruikt 1.5, niet 2.0. ATi heeft nu al voor alle dx9 kaarten volledige OGL2.0 ondersteuning in de drivers (het grootste verschil met ogl1.5 is een hoop syntaxisverandering, niet echt functionaliteit, uitgenomen non power of 2 textures).Jejking schreef op zaterdag 07 mei 2005 @ 20:17:
Overigens, ik las gisteren een review, vergelijking tussen de 6600GT en de X700Pro.
Daarbij las ik bij de videokaartspecificaties dat de 6600GT slechts tot OpenGL1.5 ondersteunde,
en de X700Pro tot OpenGL2.0! Dit lijkt me wel érg vreemd, want volgens mij was Doom3 gemaakt op OpenGL2.0. Weet iemand hoe dit zit?
Edit: Ik hoop voor OelangOetan dat het niet waar is wat hij zegt, kunnen we nog langer op de R520 wachten en daar heb ik eigenlijk niet zo'n zin in. Ik wil alleen maar een R520 in mijn nieuwe pc, is dat teveel gevraagd?!
Ik denk dat OGL2.0 nog maar een maand of 3 volledige gespecifieerd is, geef nvidia dus nog een beetje tijd.
Het schijnt dat ATi in de laatste maanden behoorlijk wat vooruitgang heeft geboekt met hun OGL drivers, misschien een langzame introductie van de herschreven OGL drivers?
en over de R520, tjah, tegen september (na mn vacantiejob & als ik geen 2de zit heb gehad) zal ik genoeg geld hebben voor een pci-express moederbord en een R520 van rond de 550 euro, ik alleen ben bang dat ze in september nog steeds belachelijk duur en schaars zullen zijn.
[Voor 11% gewijzigd door oeLangOetan op 08-05-2005 14:20]
Weet iemand trouwens hoe het nu zit met die rialto brugchip voor conversie van pci-e naar agp?
Heb dezed chip nog steeds nergens gezien en hoor er ook niks meer over....
Heb dezed chip nog steeds nergens gezien en hoor er ook niks meer over....
There are 10 types of people in this world, those who understand binary and those who don't
zou normaalgezien moeten worden verkocht, alle x850 agp kaarten gebruiken de railto.chrisstructor schreef op zondag 08 mei 2005 @ 14:29:
Weet iemand trouwens hoe het nu zit met die rialto brugchip voor conversie van pci-e naar agp?
Heb dezed chip nog steeds nergens gezien en hoor er ook niks meer over....
Heb inderdaad een paar reviewtjes gezien nuoeLangOetan schreef op zondag 08 mei 2005 @ 14:44:
[...]
zou normaalgezien moeten worden verkocht, alle x850 agp kaarten gebruiken de railto.

Nu hopen dat de volgende generatie chips deze rialto ook nog heeft voor agp.
There are 10 types of people in this world, those who understand binary and those who don't
Op t.net heeft men geruchtenmolen ook gevonden: nieuws: Nieuwe geruchten over ATi's Multi-VPU-technologie
Als dit maar niet waar is:
http://www.theinquirer.net/?article=23097


http://www.theinquirer.net/?article=23097
ATI's R520 delayed until autumn
July launch put on hold
By Fuad Abazovic: maandag 09 mei 2005, 10:13
WE ALL EXPECTED to see the ATI R520 launched either in May or in early July at Computex but our sources suggest now that it won't happen that early.
ATI is now focusing on Multi VPUs as it realised that it desperately need an answer to Nvidia's SLI. Even if ATI launches the R520 next month, Nvidia will still beat it with its two 6800 Ultra cards, so what ATI really needs is that Multi VPU. First release Multi VPU, then move to R520, that’s the current plan.
Motherboard manufacturers are getting ready with their own dual PCIe boards based on RD400 and RD480 chipsets, so Multi VPU is really close to introduction. ATI is now expected to reveal the boards at Computex as this is the only show where it can effectively show them off to other than a limited audience before autumn.
Once this marchitecture is launched, ATI will follow with R520 announcement. We suggest that ATI will use a similar strategy it used with the R300, Radeon 9700 introduction when it announced cards in late July/August to have them in shops in September. This is what we expect to see this time again.
By then, we expect Nvidia to be ready with its G70. We haven’t heard of any technology problems with the R520 and we are informed that this is pure strategy, and a marketing decision. But something tells me to look deeper here, just in case.
We believe that if Nvidia managed to push G70 earlier to the market then ATI would be able to respond instantly with the R520. We know that R520 is taped out, in good shape and real, just not ready for an announcement.
All of you that have been saving for R520, don’t spend that money on your summer holiday if you want Shader Model 3.0 from ATI this autumn. µ
[Voor 3% gewijzigd door Help!!!! op 09-05-2005 12:35]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik had niet anders verwacht. Hoewel ik dat natuurlijk ook niet zeker wist, ging ik er vanuit dat ik zeker deze zomer geen R520 te pakken zou krijgen.Help!!!! schreef op maandag 09 mei 2005 @ 12:34:
Als dit maar niet waar is:![]()
![]()
http://www.theinquirer.net/?article=23097
[...]
Het is maar de vraag of NV wel haast maakt met de G70 nou. Volgens mij niet..
Niet op voorraad.
Ik denk dat het voor beide bedrijven interessant is om de releasedate op te schuiven om zo de druk wat te verlichten en ook genoeg resources te hebben voor andere belangrijke zaken als SLI / AMR , chipsets enz.edward2 schreef op maandag 09 mei 2005 @ 13:30:
[...]
Ik had niet anders verwacht. Hoewel ik dat natuurlijk ook niet zeker wist, ging ik er vanuit dat ik zeker deze zomer geen R520 te pakken zou krijgen.
Het is maar de vraag of NV wel haast maakt met de G70 nou. Volgens mij niet..
Daarnaast begint zeker bij ATI nu pas echt volume in de retail te komen en ook NV heeft niet te klagen qua verkopen van de huidige serie meen ik.
T zou me niks verbazen als de R520 en G70 pas rond oktober mondjesmaat te verkrijgen zijn en enigzins in volume vlak voor de feestdagen.

Balen want ik wil eigenlijk een hele nieuwe set halen maar vind t ook wat zonde om mijn X800pro AGP nu in te ruilen voor bijv een X800XL PCI-E en dan die over een half jaar weer voor een R520.... Had gehoopt rond Juni alles in 1 keer te doen...

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
tsja, ik vond SLI altijd al een "vooruitgang-tegenhoudende" oplossing.
jammer als dit doorgaat...
jammer als dit doorgaat...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
dat gevoel heb ik eigenlijk ook altijd gehad! Ik vind SLI eigenlijk maar irritant. Toen ik schreef "belangrijke zaken" bedoelde ik dan ook uit het oogpunt van ATI en nVidia en Marketing.Puppetmaster schreef op maandag 09 mei 2005 @ 18:52:
tsja, ik vond SLI altijd al een "vooruitgang-tegenhoudende" oplossing.
jammer als dit doorgaat...
SLI is in theorie leuk maar hoe t in de praktijk echt uitwerkt? dr zitten best veel nadelen aan. Ik zou liever zien dat ze al die resources gewoon in nieuwe cores steken. Hoeveel mensen gaan er nu daadwerkelijk gebruik van maken....?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Inderdaad, als je kijkt naar de vele nadelen tov. 1 algemeen voordeel: extra snelheid. Je verliest (in dit geval) een PCI-Express 16x slot (en ook 16x lanes voor bv. viermaal PCI-E 4x), je hebt extra stroomconsumptie, extra hitte, in het geval van nvidia ook geen dual screen, speciale hardware benodigd (moederbord, voeding, koeling), etc. Op zich sta ik er niet van te popelen een SLI setup te halen al had ik het geld teveel.
Ik denk het ook, zeker nu het pas halverwege de huidige generatie goed is doorgedrongen.Help!!!! schreef op maandag 09 mei 2005 @ 18:57:
[...]
dat gevoel heb ik eigenlijk ook altijd gehad! Ik vind SLI eigenlijk maar irritant. Toen ik schreef "belangrijke zaken" bedoelde ik dan ook uit het oogpunt van ATI en nVidia en Marketing.
SLI is in theorie leuk maar hoe t in de praktijk echt uitwerkt? dr zitten best veel nadelen aan. Ik zou liever zien dat ze al die resources gewoon in nieuwe cores steken. Hoeveel mensen gaan er nu daadwerkelijk gebruik van maken....?
Er is enerzijds veel effort gestoken in SLI, waardoor daar nu op verdiend moet worden, anderzijds geeft dit nVidia in dit opzicht voorlopig een voorsprong op ATI waardoor nVidia voorlopig niet hoeft.
Ook hebben beide fabrikanten al eens aangegeven dat de produkcycles langer worden.
Normaal gesproken zou ik zeker voor SLI gegaan zijn, maar zo aan het eind van de productcycle begin ik er niet meer aan. Bovendien was de SLI-support in het begin alles behalve goed.
[Voor 11% gewijzigd door edward2 op 09-05-2005 19:42]
Niet op voorraad.
precies!Phuncz schreef op maandag 09 mei 2005 @ 19:35:
Inderdaad, als je kijkt naar de vele nadelen tov. 1 algemeen voordeel: extra snelheid. Je verliest (in dit geval) een PCI-Express 16x slot (en ook 16x lanes voor bv. viermaal PCI-E 4x), je hebt extra stroomconsumptie, extra hitte, in het geval van nvidia ook geen dual screen, speciale hardware benodigd (moederbord, voeding, koeling), etc. Op zich sta ik er niet van te popelen een SLI setup te halen al had ik het geld teveel.
Ook kan je dacht ik niet elk merk videokaart in een willekeurig mobo steken. Dus je wordt ook beperkt in je combo's mobo en videokaart.
Verder lijkt me dat het riscio van compatibiliteitsproblemen tussen hardware onderling en software (games) en de hardware ook enorm toenemen.
Verder heb je nog de diverse verschillende systemen van SLI; AFR SFR en zodirekt tile based.
Twee koelers nodig.
T is in mijn ogen allemaal te onoverzichtelijk en te foutgevoelig. Ik zou al veel meer voelen voor meerdere cores op 1 kaart.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dit topic is gesloten.