Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 39 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 3.289 views sinds 30-01-2008

Acties:
  • 0Henk 'm!

  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Eigenlijk best vreemd, want nVidia heeft 100M minder transistoren op hetzelfde proces in een kleinere core, en toch zitten zowel een XTX als GTX op 650Mhz. nVidia zat zo te pronken met het feit dat ze meer "speed per mm2 die" hadden.
Het is een misvatting om te denken dat een kleinere core altijd beter klokken dan een grotere core. De X1600 en X1300 klokken namelijk minder met dezelfde spanning als de X1800..... Als een transistor eenmaal "goed" is, dan maakt het niet uit hoeveel van deze worden gebuikt, ze zullen altijd de klokfrequentie kunnen halen. Het enige nadeel van een grotere core is dat de kans groter is op een slechte transistor, en dat de core warmer wordt waardoor de "goede" transistors over het algemeen minder hoog klokken.
nVidia heeft bij de 7900 serie besloten om wat reserve pipes te verwijderen om zo nog kleinere core's te maken voor grotere productie. (G71 heeft minder transistoren dan G70) Dit heeft echter wel tot gevolg dat (bijna) alle transistoren in de core "goed" moeten zijn om deze met optimale klokfrequentie te laten werken. Er ontstaan veel core's die niet de optimale klokfrequentie kunnen halen. Deze kunnen worden ondergebracht in de 7900 GT serie.

Aggresieve fabrikanten zoals XFX en EVGA zijn iets te aggresief bezig geweest mekaar de loef af te steken door als maar zwaarde overklokmodellen van de 7900GT te maken. Dit komt ze nu duur te staan.
Het feit dat de X1900XTX met meer transistoren beter klokt komt waarschijnlijk door de reserve "shaderpipes e.d.". Hiermee kunnen bijna altijd beste transistors ingezet worden voor optimale kloksnelheid. De prijs is wel dat de core groter en warmer word.
In dit geval treft nVidia geen schuld en dienen XTX en EVGA een ander beleid te voeren.

De situatie word een stuk erger als de standaard 7900GTX versies deze problemen vertonen. Dan is nVidia ook te aggresief bezig om de concurrentie bij te benen.

In het ergste geval vertonen de cores (zowel de 7900GT als GTX) degradatie naarmate de bedrijfuren vorderen. Dan heeft nVidia geen enkele controle over hoeveel RMA gevallen die nog kunnen komen. Dit zou op een fout in het bakproces of op een verkeerde werkspanning kunnen duiden. In beide gevallen is nVidia de schuldige.
Had ATi dan blijkbaar toch gelijk toen ze ten tijde van de GF7800GTX512 zeiden dat de GF7 serie vervroegd zou kunnen doorbranden als het op te hoge snelheden zou draaien?
Deze G70 is een andere core dan de G71 (110nm vs 90nm) De uitspraak van ATI sloeg op het feit dat de G70 op een te hoge voltage zou werken met degradatie als gevolg. De 7900 zou idd. een te hoge spanning kunnen hebben, maar is en wezen een heel andere core waarmee deze uitspraak geen waarde heeft.

[Voor 10% gewijzigd door wagnef op 02-06-2006 19:05]


Acties:
  • 0Henk 'm!

  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
RappieRappie schreef op vrijdag 02 juni 2006 @ 09:49:
[...]


Volgens mij is het heel simpel.

nVidia klokt de kaarten gewoon te hoog. :| En nu heeft (bijna) iedereen met een GTX of hoog geklokte GT grote problemen. (Of ze krijgen ze; daar ben ik van overtuigd.)

Ik haal nog maar 6FPS in 3DMark06 "deep freeze" trouwens. Terwijl dat 30 a 35FPS was. >:)
Niet nVidia, maar de kaartenbakkers ( BFG, eVGA, XFX ) die de de kaarten standaard flink overklokken veroorzaken de meeste problemen. Met name de GT's hebben hieronder te lijden, al dan niet door dat best wel brakke koelertje wat er op zit. nVidia garandeerd gewoon dat de kaarten, zowel de GT's als de GTX's, het op de stock speeds gewoon doen.

Al moet dit wel met een flinke korrel zout genomen worden, want ook ik was een slachtoffer van een slechte Asus 7900GTX. Ook op stock en ook arty's in 06 en BF2.

Gelukkig nu ruim 2 maanden een Leadtek, die het wel prima doet ( 690/1750 )
Maar dat er iets niet pluis was of is, dat mag wel duidelijk zijn ja.

[Voor 4% gewijzigd door uploader26 op 02-06-2006 19:12]

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


Acties:
  • 0Henk 'm!

  • waterking
  • Registratie: juli 2005
  • Laatst online: 18-10 16:04
Wat een negatieve houding in dit topicje ten opzicht van nvidia zeg.
Ik denk ook vooral dat de gevallen die nvidia terug krijgt van veel mensen zijn die hun kaart nog verder geprobeert hebben te oc'en. Er zal wel enig reactie op mijn bericht komen, maar als ik in het geforce topic lees zie ik dat veel mensen net even meer uit hun kaart proberen te trekken.

Je ati sterft toch ook als je hem geoc'ed laat draaien met een stockkoeler ?
Zie ook veel kaarten uit de x8** serie.

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0Henk 'm!

  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
waterking schreef op vrijdag 02 juni 2006 @ 21:26:
Wat een negatieve houding in dit topicje ten opzicht van nvidia zeg.
Ik denk ook vooral dat de gevallen die nvidia terug krijgt van veel mensen zijn die hun kaart nog verder geprobeert hebben te oc'en. Er zal wel enig reactie op mijn bericht komen, maar als ik in het geforce topic lees zie ik dat veel mensen net even meer uit hun kaart proberen te trekken.

Je ati sterft toch ook als je hem geoc'ed laat draaien met een stockkoeler ?
Zie ook veel kaarten uit de x8** serie.
ja maar juist die mensen zitten op dit/dat topic waardoor je niet echt een objectief beeld krijgt. Veel klachten zijn er dus over de kaarten.. en die negatieve sfeer jegens NVidia.. tjah het is en blijft een ATi topic hea.. is precies hetzelfde in NVidia topic :9 :+ en als je hem "goed" overclock'd sterft je kaart niet hoor.. ik heb mijn X800pro vroeger op XT speeds laten lopen voor 1,5 jaar.. nooit problemen gehad.. :)

[Voor 10% gewijzigd door jimbojansen op 02-06-2006 21:49]


Acties:
  • 0Henk 'm!

  • waterking
  • Registratie: juli 2005
  • Laatst online: 18-10 16:04
Zelf blijf ik ook liever uit de buurt van nvidia.
Vanaf de 6 serie heb ik er niet meer mee gewerkt puur omdat ati gewoon betere kwaliteit beeld aflevert. Ik zoek nu ook een x1800** het liefst een xt .. :9

[Voor 4% gewijzigd door waterking op 02-06-2006 22:21]

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0Henk 'm!

  • 70373R
  • Registratie: maart 2002
  • Laatst online: 05-11-2012
waterking schreef op vrijdag 02 juni 2006 @ 22:08:
Vanaf de 6 serie heb ik er niet meer mee gewerkt puur omdat ati gewoon betere kwaliteit beeld aflevert.
Nu de drivers nog..

" 1 muis maakt nog geen piepshow ! "


Acties:
  • 0Henk 'm!

  • waterking
  • Registratie: juli 2005
  • Laatst online: 18-10 16:04
idd ati kan met ccc m'n kont kussen :P
edit: omega ownage >:)

[Voor 9% gewijzigd door waterking op 02-06-2006 22:36]

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Dat gaat al tijden niet meer op. Ik heb ati kaarten vanad de 8500 en die had idd drivers die niet al te lekker werkte. Vergeleken met toen zijn deze drivers super. En ik heb nooit echt grote problemen gehad. Ik snap niet waar het vandaan komt maar de meeste bugs die andere hadden had ik niet. Alleen de Crossfire problemen zijn wel echte driver + game fouten. Maar SLi was in het begin net zo slecht. Dat is inmiddels volwassen geworden en voor crossfire zal het nog even duren. Maar voor de rest zijn de drivers prima geen gigantise bugs of zo. Athans ik heb die niet meer gehad sinds catalyst.

[Voor 3% gewijzigd door Astennu op 02-06-2006 22:39]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Brainless-NL
  • Registratie: oktober 2002
  • Laatst online: 06-10 15:58
waterking schreef op vrijdag 02 juni 2006 @ 22:35:
[...]


idd ati kan met ccc m'n kont kussen :P
edit: omega ownage >:)
Keihard mee eens. Wat een aanfluiting is dat CCC! Heeft ati plannen om dit te gaan verbeteren? Het is naar mijn mening 1 grote bonk trage overkitschte sofware. Mijn pc doet er minstens 20 seconden langer om op te starten als ik de normale catalysts neem! Sta ik hier alleen in, of heeft iedereen dat?

Leve de omega drivers :Y)

[Voor 6% gewijzigd door Brainless-NL op 02-06-2006 22:42]


Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Overigens... wat ik me hierbij gedeeltelijk offtopic afvraag, hoe kan het dat bij mensen met een identieke configuratie van hun PC de één zware problemen heeft in games en de ander totaal niets? Heeft dit puur te maken met de software die op de PC geïnstalleerd staat? Dat lijkt me wel de meest aannemelijke verklaring. Mocht dat ook zo zijn, dan kan je in feite ATi (in dit geval dan) weinig aanrekenen. Of mis ik hier nu een belangrijk punt?

Acties:
  • 0Henk 'm!

  • waterking
  • Registratie: juli 2005
  • Laatst online: 18-10 16:04
Dat is een goede vraag. Wat je je ook kunt afvragen met welke condities dit gepaart gaat.
Zoals welke oc' software, andere hardware componenten, welke versie van een game enz. enz.

Antwoord op je vraag zul je nooit krijgen.

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0Henk 'm!

  • 70373R
  • Registratie: maart 2002
  • Laatst online: 05-11-2012
Astennu schreef op vrijdag 02 juni 2006 @ 22:38:
[...]


Dat gaat al tijden niet meer op. Ik heb ati kaarten vanad de 8500 en die had idd drivers die niet al te lekker werkte. Vergeleken met toen zijn deze drivers super. En ik heb nooit echt grote problemen gehad. Ik snap niet waar het vandaan komt maar de meeste bugs die andere hadden had ik niet. Alleen de Crossfire problemen zijn wel echte driver + game fouten. Maar SLi was in het begin net zo slecht. Dat is inmiddels volwassen geworden en voor crossfire zal het nog even duren. Maar voor de rest zijn de drivers prima geen gigantise bugs of zo. Athans ik heb die niet meer gehad sinds catalyst.
Ik heb het niet alleen over windows !

" 1 muis maakt nog geen piepshow ! "


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
70373R schreef op vrijdag 02 juni 2006 @ 23:55:
[...]


Ik heb het niet alleen over windows !
Neeh okeey daar heb je gelijk in Linux schijnt niet goed te gaan. Maar daar heb ik geen ervaring mee gehad. Daar moeten ze idd meer hun best gaan doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

wagnef schreef op vrijdag 02 juni 2006 @ 18:59:
[...]
nVidia heeft bij de 7900 serie besloten om wat reserve pipes te verwijderen om zo nog kleinere core's te maken voor grotere productie. (G71 heeft minder transistoren dan G70) Dit heeft echter wel tot gevolg dat (bijna) alle transistoren in de core "goed" moeten zijn om deze met optimale klokfrequentie te laten werken. Er ontstaan veel core's die niet de optimale klokfrequentie kunnen halen. Deze kunnen worden ondergebracht in de 7900 GT serie.
Dat is een misvatting dat er reservepipes zijn verwijdert bij de G71 tov de G70. De G71 is kleiner geworden omdat de lengte van de pipelines een stuk korter is geworden. nVidia heeft aan "re-pipelining" gedaan in de G71. Er zijn verschillende manieren om pipelines in een GPU aan te brengen. Een pipeline heeft verschillende lagen, waar de pixel doorheen moet. Een aantal van die lagen binnen de pipeline zijn reserve-lagen, dus geen reservepipelines (!). nVidia zag dat het mogelijk zou moeten zijn om een aantal van die reserve-lagen binnen een pipelin weg te halen, zonder dat de performance slechter werd. De boel is dus efficienter geworden.

Door het verwijderen van die transistoren + kleiner productieproces werd de G71 die minder groot dan de G70, wordt het minder warm en is het in het algemeen hoger te klokken met een simpelere cooling. En je ziet ook dat deze theorie klopt, aangezien de 7900GTX evenveel stroom verbruikt als de 7800GTX, maar wel 220Mhz hoger is geklokt en toch 24M minder transistoren bevat.

Er zaten dus geen extra verborgen pipelines in de G70, terwijl die er waarschijnlijk wel zijn in de G73 (namelijk 1 quad). ;)
Aggresieve fabrikanten zoals XFX en EVGA zijn iets te aggresief bezig geweest mekaar de loef af te steken door als maar zwaarde overklokmodellen van de 7900GT te maken. Dit komt ze nu duur te staan.
Fabrikanten hebben gewoon geen rekening gehouden met de verschillende interne klokdomeinen van de G71. Vaak is het de vertex-clock die voor problemen zorgt, aangezien deze al van huis uit do nVidia overgeklokt is. Als nVidia goed had samengewerkt met de fabrikanten dan was er vast wel een manier te vinden om de vertex-shaders op gelijke snelheid te klokken als de pixelshaders. Ook de geheugenkloks die out-of-spec draaien schijnen volgens nVidia zelf problemen te veroorzaken.
Het feit dat de X1900XTX met meer transistoren beter klokt komt waarschijnlijk door de reserve "shaderpipes e.d.". Hiermee kunnen bijna altijd beste transistors ingezet worden voor optimale kloksnelheid. De prijs is wel dat de core groter en warmer word.
In dit geval treft nVidia geen schuld en dienen XTX en EVGA een ander beleid te voeren.
Ik denk dat een andere grote reden is dat de X1900XTX met meer transistoren net zo hoog klokt als de 7900GTX omdat ATi veel ervaring heeft met grote dies en hoge kloksnelheden. De R3x0 serie was een stuk groter dan de NV3x serie van nVidia als het op core-grote aankomt en toch haalde deze kloksnelheden van 400Mhz+ toen niemand dit voor mogelijk hield.. Het was 0.15u vs 013u. nVidia bracht dit nog als groot 'voordeel' naar voren, maar ze hadden niet gerekend op de grote rekenkracht van de R3x0. Ik weet nog wel dat de meeste mensen toendertijd dachten dat 275Mhz de max zou zijn met 110M transistoren op 0.15u.
De situatie word een stuk erger als de standaard 7900GTX versies deze problemen vertonen. Dan is nVidia ook te aggresief bezig om de concurrentie bij te benen.
En dit is volgens mij steeds vaker het geval. Je ziet uit meer hoeken verhalen komen van mensen die problemen hebben op stocksnelheden met hun 7900GTX, maar ook met hun 7900GT. Zie bijvoorbeeld: http://www.hardforum.com/showthread.php?t=1059136

En op HardForum is ook het volgende verschenen: http://www.hardforum.com/showthread.php?t=1060819

Dan nog een ander iets... R600 gaat echt flink huishouden. }) Niet alleen de pixelshaders en vertexshaders zijn samengevoegd tot een unified shader architecture, ook de nieuwe verplichte Geometry shader zit ingebakken in de shaderpool en ook ATi Physics zal hier ook flink van kunnen profiteren.

[Voor 3% gewijzigd door CJ op 03-06-2006 14:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Ik hoop dat die R600 de nieuwe Radeon 9700 Pro wordt. Dat was echt een geweldige kaart voor die tijd.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Maverick
  • Registratie: oktober 2001
  • Laatst online: 20:24
Astennu schreef op zondag 04 juni 2006 @ 10:49:
Ik hoop dat die R600 de nieuwe Radeon 9700 Pro wordt. Dat was echt een geweldige kaart voor die tijd.
Voor die tijd? Ik gebruik em nog, werkt nog steeds geweldig dat ding :)

PSN: DutchTrickle PVoutput


Acties:
  • 0Henk 'm!

  • 70373R
  • Registratie: maart 2002
  • Laatst online: 05-11-2012
Astennu schreef op zondag 04 juni 2006 @ 10:49:
Ik hoop dat die R600 de nieuwe Radeon 9700 Pro wordt. Dat was echt een geweldige kaart voor die tijd.
De R600 laat niet lang meer op zich wachten toch ?

De verwachting is dat R600 eind 2006 op de markt komt en waarschijnlijk minimaal 4 shaderarrays zal hebben van elk 16 ALUs

Dit duurd te lang... Ik kan niet wachten :D

[Voor 25% gewijzigd door 70373R op 04-06-2006 11:00]

" 1 muis maakt nog geen piepshow ! "


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
70373R schreef op zondag 04 juni 2006 @ 10:59:
[...]


De R600 laat niet lang meer op zich wachten toch ?

De verwachting is dat R600 eind 2006 op de markt komt en waarschijnlijk minimaal 4 shaderarrays zal hebben van elk 16 ALUs

Dit duurd te lang... Ik kan niet wachten :D
De bedoeling is tegelijk met vista dus als het goed is eind dit jaar. Maar als ze nog met een gebooste X1900 gaan komen en vista er nog niet is zouden ze em nog wel eens wat naar achter kunnen schuiven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!
Zelfs al is Vista er nog niet, dan is R600 toch nog de snelste ATi kaart voor DX9 games. Dus er staat ATi niets in de weg om R600 voor de release van Windows Vista uit te brengen. Een zelfde situatie zagen we met de R300 en DX9. De Radeon 9700Pro kwam ook een half jaar eerder dan DX9 uit en deed het in DX8 games ook heel erg goed. ATi heeft al aangegeven dat R600 prima met DX9 overweg kan, maar zal pas echt z'n spierballen kunnen laten zien in DX10 games.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • MelvinB
  • Registratie: oktober 2002
  • Laatst online: 08-10 17:48
Maverick schreef op zondag 04 juni 2006 @ 10:57:
[...]


Voor die tijd? Ik gebruik em nog, werkt nog steeds geweldig dat ding :)
Ik heb em ook nog steeds!

Ik zou eigenlijk al een nieuwe pc moeten hebben, maar ach, ik heb et nog niet echt nodig. Komt wel als UT2007 uit is. Rond die tijd ben ik nu van plan een nieuwe pc te bouwen en hopelijk is de R600 er dan.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Jejking schreef op zaterdag 27 mei 2006 @ 19:19:
Op TrustedReviews een review van de X1900GT. Wat me opvalt:

In D3D komt ie zeer goed mee met de 7900GT en maakt gehakt van de X1800GTO.
Maar hoe hoger de instellingen hoe meer ie terugvalt naar niveau X1800GTO? Waarom?
Mischien memory bandwith ? Mischien is dat ook de rede dat er gezegt werd dat de R580 pas echt tot zijn recht zou komen als je GDDR4 zou gebruiken. Want dat merkte ik ook wel met me XTX die toch 75 Mhz extra op het geheugen kon hebben. Dat scheelde toch al in de FPS. En die kaarten hebben volgens mij maar 1000 MHz tov de 1500 van de XT en XTX.

Iemand enig idee of er nog een X1950 of iets in die richting komt met GDDR4 ?? Of gaan we meteen naar de R600 ?

[Voor 8% gewijzigd door Astennu op 04-06-2006 22:59]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Astennu schreef op zondag 04 juni 2006 @ 22:57:
[...]


Mischien memory bandwith ? Mischien is dat ook de rede dat er gezegt werd dat de R580 pas echt tot zijn recht zou komen als je GDDR4 zou gebruiken. Want dat merkte ik ook wel met me XTX die toch 75 Mhz extra op het geheugen kon hebben. Dat scheelde toch al in de FPS. En die kaarten hebben volgens mij maar 1000 MHz tov de 1500 van de XT en XTX.

Iemand enig idee of er nog een X1950 of iets in die richting komt met GDDR4 ?? Of gaan we meteen naar de R600 ?
ik meende ergens gelezen te hebben dat de R580+ GDDR4 zou krijgen.. volgens mij stond het ook op FP ergens.. gebruik google :P nu ff geen zin om op te zoeken..

Acties:
  • 0Henk 'm!

  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
waar blijft 6.6! :7

ik meende ook ergens in dit topic gelezen te hebben dat je de r600 i.c.m een r580 in CF kon zetten o.i.d :? :X

[Voor 75% gewijzigd door Legendary1983 op 05-06-2006 13:31]

Darkmoon Faire [EU] Craoker - Undead Warrior


Acties:
  • 0Henk 'm!

  • Pinda
  • Registratie: februari 2006
  • Niet online
Hmm ik heb een X1800XT besteld bij Alternate in Duitsland maar ik vind de betalingsmethoden een beetje vaag, wat ik er uit begreep is dat je niet via rembours kan betalen en er stond ook nog iets over creditcards wat ik niet 100% begreep. Vooruitbetalen kan volgensmij wel maar dat wil ik niet. Heeft iemand ervaring met het bestellen bij Alternate in Duitsland? Het zou mooi zijn als ik de X1800XT daar kon krijgen omdat ie daar maar 230 euro is! :D

Acties:
  • 0Henk 'm!

  • Arrigi
  • Registratie: november 2004
  • Laatst online: 15:00
Legendary1983 schreef op maandag 05 juni 2006 @ 13:30:
waar blijft 6.6! :7

ik meende ook ergens in dit topic gelezen te hebben dat je de r600 i.c.m een r580 in CF kon zetten o.i.d :? :X
Ja. Met de R580 voor de physics dan :).

Acties:
  • 0Henk 'm!

  • Pinda
  • Registratie: februari 2006
  • Niet online
Arrigi schreef op maandag 05 juni 2006 @ 13:44:
[...]


Ja. Met de R580 voor de physics dan :).
offtopic:
OMG, je bent op precies dezelfde dag/datum geboren als ik :o 23 oktober 1989 wel te verstaan :9

Acties:
  • 0Henk 'm!

  • 70373R
  • Registratie: maart 2002
  • Laatst online: 05-11-2012
Legendary1983 schreef op maandag 05 juni 2006 @ 13:30:
waar blijft 6.6! :7

ik meende ook ergens in dit topic gelezen te hebben dat je de r600 i.c.m een r580 in CF kon zetten o.i.d :? :X
Normaliter zet ATi binnen anderhalve week van een nieuwe maand de officiële stuurprogramma's online en is het lekken van een bètaversie een voorbode dat de finalversie eraan zit te komen.

" 1 muis maakt nog geen piepshow ! "


Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

EliteBastards heeft n leuk stukje geschreven over de performance van ATi & nVidia in HL2 Episode 1... De conclusie luidt dat de X1900XTX king of the hill is (hmmz, waarom is er niet met een 7900GTX getest? :/ ), en de 7900GT en X1800XT elkaar constant in de haren vliegen.

Hoe hoger de resolutie hoe beter de X1800XT tot zijn recht komt, vooral met AA&AF aan!

Overigens wel lachen om te zien dat de X1300Pro het niet af laat weten op 1600x1200 met AA&AF, in tegenstelling tot de 6600GT. Maar ja goed, op zo'n resolutie heb je toch geen acceptabele performance meer met beide kaarten, dus dat boeit vrij weinig :)

Acties:
  • 0Henk 'm!

  • booger
  • Registratie: april 2005
  • Laatst online: 10-04-2012
Wat mij opviel is dat ook bij veel andere tests de X1900XTX en de 7900GT met elkaar vergeleken worden. Wat ik niet snap want de X1900XTX is de top kaart van ati maar de 7900GT niet die van Nvidia en hij heeft maar 256mb geheugen, dit is dan toch niet eerlijk?

Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Vind ik ook niet echt super eigenlijk...

7900GT = 7900GTX, omdat ze dezelfde hoeveelheid pipes en vertexshaders hebben.
7900GT < 7900GTX, omdat de klokspeeds lager zijn.
7900GT < 7900GTX, omdat het geheugen 256MB tov 512MB bij 90% van de merken is.

Dus... :?

Edit: jammer trouwens dat er ook weinig andere types kaarten mee zijn genomen. Ik noem maar wat: X1800GTO, X1800XL, X1900GT.

[Voor 21% gewijzigd door Jejking op 05-06-2006 17:07]


Acties:
  • 0Henk 'm!

  • Arrigi
  • Registratie: november 2004
  • Laatst online: 15:00
Jejking schreef op maandag 05 juni 2006 @ 17:06:
Edit: jammer trouwens dat er ook weinig andere types kaarten mee zijn genomen. Ik noem maar wat: X1800GTO, X1800XL, X1900GT.
En een ATi kaart van dezelfde gen als de 6600GT ontbreekt ook. Kben er nieuwsgierig naar omdat m'n X800XL het in 1600x1200 0xAA 8xAF mét HDR het nog vlotjes doet.. komt zelfs regelmatig boven de 40fps.

Grafiekje van de FPS (elke 2 sec):
http://img280.imageshack.us/img280/1262/x800xlhl2ep13gg.th.png

Settings:
http://img336.imageshack.us/img336/5005/hl2ep1settings9gf.th.jpg

Kaartje doet het nog vlot.. vooral met HL2 dan.

Acties:
  • 0Henk 'm!
The Inq komt onder andere met het bericht dat ATi schijnbaar mobo-fabrikanten heeft gevraagd om hun mobos te voorzien van een derde PCIe 16x slot (fysiek, dus intern mag-ie ook op 4x of 8x draaien). The Inq weet niet waarom... maar wij weten natuurlijk al wel beter. ;)

Bron: http://www.theinq.net/?article=32190

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!
Nieuwsflash: Computex - ATi lanceert ATi Physics

En hier hebben we het antwoord op de vraag die The Inq zich stelde:

nieuws: ATi demonstreert physicsengine op CrossFire-configuratie

http://enthusiast.hardocp.com/images/articles/1149562136LKJxy5fFg4_1_1_l.jpg
http://enthusiast.hardocp...3OSwxLCxoZW50aHVzaWFzdA==

En over hoge stroomrekening gesproken: http://enthusiast.hardocp...62136LKJxy5fFg4_1_4_l.jpg

En ATi had het volgende te zeggen: “Expect new Crossfire revisions early next year to overtake SLI. We are not here to play second fiddle.”

;)




Asus introduceert X1600XT Dual

Ook Asus was al een tijd bezig met twee cores op 1 PCB. Een tijd terug lekten er al screens van de X1600XT Dual, maar nu is-ie dan eindelijk offiicieel gelanceerd:

http://www.ocworkbench.com/2006/computex2006/day1/asus/IMG_0237%20copy.jpg
Bron: http://www.ocworkbench.co...utex2006/day1/asus/p7.htm




Dan nog een leuk discussiepunt... Intel lanceert succesvol het Conroe platform en zo'n beetje elk Conroe mobo met Intel chipset ondersteunt CrossFire (zie ook Computex waar bij elk bord zo'n beetje ATi CrossFire support staat). Intel heeft het grootste marktaandeel ter wereld wat betreft mobo-chipsets. Je zou dus kunnen zeggen dat ATi CrossFire aan de voorbode van de echt grote doorbraak staat, zeker nu ATi Physics ook gelanceert is. nVidia kan volgens mij nu niet anders dan ook officieel SLi toe te staan op Intel chipsets (en ATi chipsets), willen ze nog mee komen in de toekomst.

[Voor 115% gewijzigd door CJ op 06-06-2006 11:55]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Hulde voor deze post. _/-\o_

Deze mocht er wel bij:
For those of you looking for the full press writeup from ATI, we have zipped us a PDF for your reading pleasure.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


Acties:
  • 0Henk 'm!

  • G_M_C
  • Registratie: december 2003
  • Niet online
Even een vraag voor de mensen die "up to specs" zijn met de huidige generatie Ati kaarten;

Ik ben op zoek naar een kaart voor op AGP, met volledige SM3.0 en zo groot mogelijke snelheid in shader-ops. Daarnaast moet deze kaart zo veel mogelijk grafisch geheugen hebben, met een zo hoog mogelijke snelheid (liefst 512 Mb). En het liefst óók met HDCP/HDMI (zoals bij de Saphire X1600 Pro/HDMI).

Als ik dan ga zoeken kom ik op een X1600, maar die heeft dan weer DDR2.

Mijn vraag is of ik iets (een kaart) over het hoofd heb gezien, of is er bijvoorbeeld een X??? kaart die te modden is zodat ie meer shader-ops kan of is er één kaart die opvallen goed te OC'en is etc, of is er een bepaald merk die net toevallig zo'n kaart in de planning/markt heeft ?

PS: Kom niet met antwoorden van ... Koop PCI-e want dat is ..... ; Daar zit ik dus niet op te wachten.

Reden waarom ik dit vraag: Ik ben op zoek naar zo'n kaart, om mijn video-bewerkings-hobby verder te kunnen uitbreiden. Ik gebruik nl. een aantal filters die op deGPU draaien, vandaar de zo hoog mogelijke shader-ops-snelheid en het zo groot mogelijke texture-geheugen.

[Voor 18% gewijzigd door G_M_C op 06-06-2006 12:07]


Acties:
  • 0Henk 'm!

  • Apoca
  • Registratie: november 2001
  • Laatst online: 21:34

Apoca

Array Technology Industry

CJ schreef op dinsdag 06 juni 2006 @ 11:09:
nVidia kan volgens mij nu niet anders dan ook officieel SLi toe te staan op Intel chipsets (en ATi chipsets), willen ze nog mee komen in de toekomst.
Wat ik mooier zou vinden is als Crossfire op mijn nVidia X16 SLi mobo zou kunnen :)

P.s. Op NGOHQ is toch al een SLi Patch te downloaden die SLi op dergelijke Intel mobo's toelaat.

[Voor 21% gewijzigd door Apoca op 06-06-2006 14:01]

Asus C6E / Ryzen 7 3700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
G_M_C schreef op dinsdag 06 juni 2006 @ 12:01:
Even een vraag voor de mensen die "up to specs" zijn met de huidige generatie Ati kaarten;

Ik ben op zoek naar een kaart voor op AGP, met volledige SM3.0 en zo groot mogelijke snelheid in shader-ops. Daarnaast moet deze kaart zo veel mogelijk grafisch geheugen hebben, met een zo hoog mogelijke snelheid (liefst 512 Mb). En het liefst óók met HDCP/HDMI (zoals bij de Saphire X1600 Pro/HDMI).

Als ik dan ga zoeken kom ik op een X1600, maar die heeft dan weer DDR2.

Mijn vraag is of ik iets (een kaart) over het hoofd heb gezien, of is er bijvoorbeeld een X??? kaart die te modden is zodat ie meer shader-ops kan of is er één kaart die opvallen goed te OC'en is etc, of is er een bepaald merk die net toevallig zo'n kaart in de planning/markt heeft ?

PS: Kom niet met antwoorden van ... Koop PCI-e want dat is ..... ; Daar zit ik dus niet op te wachten.

Reden waarom ik dit vraag: Ik ben op zoek naar zo'n kaart, om mijn video-bewerkings-hobby verder te kunnen uitbreiden. Ik gebruik nl. een aantal filters die op deGPU draaien, vandaar de zo hoog mogelijke shader-ops-snelheid en het zo groot mogelijke texture-geheugen.
Wat wil je met de kaart gaan doen ? een X1600 is geen slechte keuze. De XT versies hebben GDDR3 aan boord en volgens mij zijn die ook te krijgen in 512 mb alleen ik denk niet in PCI-E.

Dus je zult denk ik genoege moeten nemen met GDDR2 en die X1600 Pro maar een beetje oc'en. Want zoals het er nu uit ziet komen er geen snellere ATi kaarten op AGP.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • G_M_C
  • Registratie: december 2003
  • Niet online
Astennu schreef op dinsdag 06 juni 2006 @ 13:51:
[...]
Wat wil je met de kaart gaan doen ? een X1600 is geen slechte keuze. De XT versies hebben GDDR3 aan boord en volgens mij zijn die ook te krijgen in 512 mb alleen ik denk niet in PCI-E.

Dus je zult denk ik genoege moeten nemen met GDDR2 en die X1600 Pro maar een beetje oc'en. Want zoals het er nu uit ziet komen er geen snellere ATi kaarten op AGP.
Ik vind het dus behoorlijk jammer (en een beetje verlakkerij van ten minste 50% van de compu-bezitters) dat Ati of zijn partners geen AGP kaarten meer maken.Daardoor ben ik al voor mijn game-systeem over moeten gaan naar nVidia, waarvan er dus wel hele snelle kaarten zijn op AGP. En die bewijzen duidelijk dat AGP helemaal geen bottelneck is

Maar ik moet nog een PS3.0/groot textuur-geheugen kaart hebben voor mijn video-systeem, want wegens het ontbreken daarvan heb ik mijn nVidia kaart daar nu tijdelijk in moeten zetten (terwijl die eigenlijk bedoeld is voor mijn game-systeem).

En ondanks dat mijn video-encodeer systeem maar één dubbel bezette 533MHz FSB (dual Xeon) icm PC2100 registered geheugen (2.5,3,3,8 ... sloom dus) heeft, haal ik met die nVidia-kaart hele-maal op stock nog ~4500 punten in 3DM06.

Kan je nagaan, AGP kan nog meer dan je denkt, en vandaar dat ik voorlopig niet bereid ben om over te gaan naar PCI-E. Dat komt pas als ook de nieuwe core-achitectuur een beetje van de grond komt, ik blijf geen nwe. mobo's kopen !

[Voor 4% gewijzigd door G_M_C op 06-06-2006 14:16]


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
G_M_C schreef op dinsdag 06 juni 2006 @ 14:14:
[...]


Ik vind het dus behoorlijk jammer (en een beetje verlakkerij van ten minste 50% van de compu-bezitters) dat Ati of zijn partners geen AGP kaarten meer maken.Daardoor ben ik al voor mijn game-systeem over moeten gaan naar nVidia, waarvan er dus wel hele snelle kaarten zijn op AGP. En die bewijzen duidelijk dat AGP helemaal geen bottelneck is

Maar ik moet nog een PS3.0/groot textuur-geheugen kaart hebben voor mijn video-systeem, want wegens het ontbreken daarvan heb ik mijn nVidia kaart daar nu tijdelijk in moeten zetten (terwijl die eigenlijk bedoeld is voor mijn game-systeem).

En ondanks dat mijn video-encodeer systeem maar één dubbel bezette 533MHz FSB (dual Xeon) icm PC2100 registered geheugen (2.5,3,3,8 ... sloom dus) heeft, haal ik met die nVidia-kaart hele-maal op stock nog ~4500 punten in 3DM06.

Kan je nagaan, AGP kan nog meer dan je denkt, en vandaar dat ik voorlopig niet bereid ben om over te gaan naar PCI-E. Dat komt pas als ook de nieuwe core-achitectuur een beetje van de grond komt, ik blijf geen nwe. mobo's kopen !
Waarom willen mensen zo graag AGP ik snap dat echt niet. Er is geen Multi VPU mogelijk en dat is de toekomst. Ik zou niet anders meer willen. En ik denk dat als je een X1900 XT AGP zou vergelijken met een PCI E je wel degelijk peformance verschil ziet. Zie maar eens X1600 in Crossfire op een 2x X8 pci 2x X16 is veel sneller. En AGP X8 is vergelijkbaar met PCIe X8 ( Ik denk dat PCI E dan ook al in het voordeel is ) Dus voor high end kaarten maakt het wel degelijk uit. Dus je moet het zelf weten ......

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

....als je denkt met je 550 a 700 watt voeding voorbereid te zijn op de toekomst B) :

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770

+ nog wat andere videokaart ontwikkelingen
DirectX 10 GPUs to Consume up to 300W

ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card. ATI and NVIDIA won't confirm or deny our findings and we are receiving conflicting information as to the exact specifications of these new GPUs, but the one thing is for sure is that the power requirements are steep.

Power supply makers are being briefed now in order to make sure that the power supplies they are shipping by the end of this year are up to par with the high end GPU requirements for late 2006/early 2007. You will see both higher wattage PSUs (1000 - 1200W) as well as secondary units specifically for graphics cards. One configuration we’ve seen is a standard PSU mounted in your case for your motherboard, CPU and drives, running alongside a secondary PSU installed in a 5.25” drive bay. The secondary PSU would then be used to power your graphics cards.

OCZ had one such GPU power supply at the show for us to look at. As you can see above, the 300W power supply can fit into a 5.25" drive bay and receives power from a cable passed through to it on the inside of your PC's case.

OCZ is even working on a model that could interface with its Powerstream power supplies, so you would simply plug this PSU into your OCZ PSU without having to run any extra cables through your case.

In order to deal with the increased power consumption of this next-generation of DirectX 10 GPUs apparently manufacturers are considering the possibility of using water cooling to keep noise and heat to a minimum.

As depressing as this news is, there is a small light at the end of the tunnel. Our sources tell us that after this next generation of GPUs we won’t see an increase in power consumption, rather a decrease for the following generation. It seems as if in their intense competition with one another, ATI and NVIDIA have let power consumption get out of hand and will begin reeling it back in starting in the second half of next year.

In the more immediate future, there are some GPUs from ATI that will be making their debut, including the R580+, RV570 and RV560. The R580+ is a faster version of the current R580, designed to outperform NVIDIA’s GeForce 7900 GTX. The RV570 is designed to be an upper mid-range competitor to the 7900GT, possibly carrying the X1700 moniker. The only information we’ve received about RV570 is that it may be an 80nm GPU with 12-pipes. The RV560 may end up being the new successor to the X1600 series, but we haven’t received any indication of specifications.

After the HDMI/HDCP fiasco that both ATI and NVIDIA faced earlier this year, we’re finally seeing video cards equipped with HDMI outputs and full HDCP support. The HDCP solution of choice appears to be a TMDS transmitter by Silicon Image that has found its way onto almost all of the HDMI equipped video cards we’ve seen.

While some of the HDMI equipped graphics cards simply use the HDMI output as a glorified DVI connector, other companies have outfitted their designs with a SPDIF header to allow for digital audio passthrough over HDMI as well. Remember that the HDMI connector can carry both audio and video data, and by outfitting cards with a header for internal audio passthrough (from your soundcard/motherboard to the graphics card) you take advantage of that feature of the HDMI specification.

Alongside HDMI support, passively cooled GPUs are “in” these days as we’ve seen a number of fanless graphics cards since we’ve been here. The combination of HDMI output and a passive design is a definite winner for the HTPC community, who are most likely to be after a video card equipped with a HDMI output at this point.
+ op de volgende pagina:
Much to our surprise, ATI recently informed all of the motherboard manufacturers that CrossFire is currently not supported on 965 (Broadwater) platforms. Apparently the chipset lacks support for peer to peer writes, which are necessary for CrossFire to function. ATI is investigating if a workaround is possible but for now the only option for CrossFire on an Intel chipset with Conroe support is using the 975X platform. :X :'( :(

[Voor 7% gewijzigd door Help!!!! op 06-06-2006 14:45]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Leven underclocking zeggen we dan maar, het stroomverbruik van hedendaagse videokaarten is echt ránzig te noemen als je kijkt hoe bijvoorbeeld de rest van het systeem zuipt :|

Ik vraag me bij deze écht af waarom ATi en nVidia niet (willen?) inzien dat er ook een grote markt is voor de energiezuinige consument? Want als ik dan dadelijk een R600LE ofzoiets dergelijks in mijn pc wil zetten omdat de sterkste versies te duurder zijn, dan moet ik al aan een nieuwe PSU. CJ, heb jij toevallig meer informatie over het stroombeleid van ATi (en nVidia?) in de toekomst?

Acties:
  • 0Henk 'm!

  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Jejking schreef op dinsdag 06 juni 2006 @ 14:46:
Leven underclocking zeggen we dan maar, het stroomverbruik van hedendaagse videokaarten is echt ránzig te noemen als je kijkt hoe bijvoorbeeld de rest van het systeem zuipt :|

Ik vraag me bij deze écht af waarom ATi en nVidia niet (willen?) inzien dat er ook een grote markt is voor de energiezuinige consument? Want als ik dan dadelijk een R600LE ofzoiets dergelijks in mijn pc wil zetten omdat de sterkste versies te duurder zijn, dan moet ik al aan een nieuwe PSU. CJ, heb jij toevallig meer informatie over het stroombeleid van ATi (en nVidia?) in de toekomst?
Tja, als je vind dat de kaart te veel stroom zuipt kan neem je toch een lichtere versie? Ik geloof ook niet dat de "energiezuinige consument" voor een high-end model zal gaan. Meer prestaties gaat nu eenmaal gepaart met meer stroomgebuik zolang de snelheidswinst voor een volgende generatie groter is dan de onwikkeling van nieuwe productiemethodes toelaat.
Dit is allemaal het gevolg van de hevige concurrentie tussen ATI en nVidia. De time to market tijden zijn dermate kort met groter en heter wordende GPU's tot gevolg.

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Help!!!! schreef op dinsdag 06 juni 2006 @ 14:41:
[...]
Much to our surprise, ATI recently informed all of the motherboard manufacturers that CrossFire is currently not supported on 965 (Broadwater) platforms. Apparently the chipset lacks support for peer to peer writes, which are necessary for CrossFire to function. ATI is investigating if a workaround is possible but for now the only option for CrossFire on an Intel chipset with Conroe support is using the 975X platform.
[...]
Dit gaat hopelijk niet over de nieuwe RD600?!

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

edward2 schreef op dinsdag 06 juni 2006 @ 16:57:
[...]


Dit gaat hopelijk niet over de nieuwe RD600?!
Dit gaat over de Intel chipsets zelf. De ATI chipsets zullen Crossfire uiteraard ondersteunen.

Maw als je een Mobo met een native intel chipset wilt dan zul je de 975 (highend) chipset moeten nemen. De 965 is echter nieuwer, meer mainstream en ws goedkoper.

Dit is dus jammer voor ATI omdat hoe meer CF chipsets verkocht worden hoe beter voor het CF marktaandeel.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
edward2 schreef op dinsdag 06 juni 2006 @ 16:57:
[...]


Dit gaat hopelijk niet over de nieuwe RD600?!
RD600 = ATi
965 en 975 = Intel

Dus die heeft dat probleem niet.

Over dat stroom verbruik:

Het begint idd wel erg te worden. Intel en AMD zijn nu bij zinne gekomen en hebben de mid range erg zuinig gemaakt. Alleen de High end gebruikt nog veel maar dan heb je mischien 5%-10% meer prestatie.

Bij ATi is het peformance verschil meteen 250% en dan heb je ook wel een stroom besparing van 300% ( X1900 VS X1600 ) Dus het moet wel de andere kant op. Ik heb ook me CF Setup geunderclockt en dat scheelde al meer dan 100 Watt op 2 kaarten. En de peformance is maar iets lager dan standaard. Want voor 25 mhz meer moet ik nu 0.075 volt inzetten wat ongeveer gelijk is aan 20 watt per kaart. En dat is gewoon zonde en je merkt het verschil toch niet.

Ik denk terrug aan de tijd van de Radeon 8500 die werd totaal niet warm en was toch heel erg snel. Die kaarten waren veel cooler dan de GF3 kaarten. Mja die tijd is duidelijk voorbij.

Weet iemand of die 3e kaart bij ATi Physix ook nog wat anders kan doen ? want anders staat dat ding uit zijn neus te vreten tot dat iemand een keer een granaat in een hoek met dozen gooit. Beetje zonde. Mischien kan i beter tot die tijd FPS renderen of zo. OF als je CF hebt gedeeltelijk FPS + Physix doen. Maar dat zal wel niet.

[Voor 14% gewijzigd door Astennu op 06-06-2006 17:40]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 21:40

Pubbert

random gestoord

Hehe, Triple CrossFire, het is wel goedkoper dan Quad SLi, maar toch weer sneller dan traditioneel CrossFire of SLi :P De gulden middenweg?

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Help!!!! schreef op dinsdag 06 juni 2006 @ 17:05:
[...]

Dit gaat over de Intel chipsets zelf. De ATI chipsets zullen Crossfire uiteraard ondersteunen.

Maw als je een Mobo met een native intel chipset wilt dan zul je de 975 (highend) chipset moeten nemen. De 965 is echter nieuwer, meer mainstream en ws goedkoper.

Dit is dus jammer voor ATI omdat hoe meer CF chipsets verkocht worden hoe beter voor het CF marktaandeel.
"Gelukkig", ik ben nog niet helmaal thuis in de intel chipsetnamen en las het artikel van AT even tussen het werk door.
Ik wil zowieso een mobowat 1333 fsb goed ondersteund hebben wat die E6700 zal makkelijk op deze fsb-snelheid kunnen draaien geloof ik.

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Thund3r schreef op dinsdag 06 juni 2006 @ 17:44:
Hehe, Triple CrossFire, het is wel goedkoper dan Quad SLi, maar toch weer sneller dan traditioneel CrossFire of SLi :P De gulden middenweg?
Nja tis geen Trippe Crossfire het is meer Crossfire+ATi Physix. Ik vrees dat die 3e kaart alleen maar physix doet en de rest van de tijd staat te nixen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Het is mij niet helemaal duidelijk waarom ATi physics op de X1K serie kan laten lopen en niet op de Xx00 serie. Het lijkt me namelijk dat ATi de X1K kaarten niet heeft ontwikkeld met physics in gedachten. Het ziet er gewoon uit alsof ATi een bepaald driverpakket heeft ontwikkeld die de kaart op een dergelijke manier aanstuurt om physics te processen. Wat is de volgende stap: gooi je XFi maar weg, want ATi kan music processing doen? En RAID? ;) ATi videokaart met SATA _/-\o_

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
aca schreef op dinsdag 06 juni 2006 @ 18:45:
Het is mij niet helemaal duidelijk waarom ATi physics op de X1K serie kan laten lopen en niet op de Xx00 serie. Het lijkt me namelijk dat ATi de X1K kaarten niet heeft ontwikkeld met physics in gedachten. Het ziet er gewoon uit alsof ATi een bepaald driverpakket heeft ontwikkeld die de kaart op een dergelijke manier aanstuurt om physics te processen. Wat is de volgende stap: gooi je XFi maar weg, want ATi kan music processing doen? En RAID? ;) ATi videokaart met SATA _/-\o_
Geluid zou al kunnen. ATi heeft daar al tests mee gedaan. Maar Waarom de X800 dat bijvoorbeeld niet kan weet ik niet. Zo diep zit ik niet in die architectuur. Mischien kan i het wel maar is een X1K kaart gewoon veel sneller met hun Ultra Threaded Engine's.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • SpankmasterC
  • Registratie: juli 2002
  • Laatst online: 17-10 12:51
Ik denk dat het de ondersteuning voor Dynamic Branching is die het hem doet, en de Xx00 serie heeft dat niet...

Acties:
  • 0Henk 'm!

  • biobak
  • Registratie: augustus 1999
  • Laatst online: 21:30
aca schreef op dinsdag 06 juni 2006 @ 18:45:
Het is mij niet helemaal duidelijk waarom ATi physics op de X1K serie kan laten lopen en niet op de Xx00 serie.
Ik heb het Ati physics verhaal niet helemaal gevolgd, maar als ze het via Havok FX doen (net als nVidia) dan is SM3.0 ondersteuning nodig en dat heeft de X800 niet.

Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


Acties:
  • 0Henk 'm!

  • hjs
  • Registratie: juni 1999
  • Niet online
voeding aanduiding, 1 kilowatt :)

Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

SpankmasterC schreef op dinsdag 06 juni 2006 @ 19:03:
Ik denk dat het de ondersteuning voor Dynamic Branching is die het hem doet, en de Xx00 serie heeft dat niet...
Dat is ook wat CJ zei toendertijd... het grootste voordeel van R(V)5xx is de ''goede'' implementatie van Dynamic Branching, de mainfeature van Shadermodel 3.0... je zou bijna gaan denken dat het er wat mee te maken heeft ja (8>

PS: Iemand nog nieuws over ATi's R580+-plannen met 80nm? Want anders kan ik m'n onderschrift wel gaan aanpassen ;)

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Zal me niks verbazen als ATI daar zo goed in is. De Radeon GPU's bleken al uitermate geschikt voor super computing, dus misschien was dat al een bewijs van de flexibiliteit mbt de inzetbaarheid.

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Jejking schreef op dinsdag 06 juni 2006 @ 22:30:
[...]


Dat is ook wat CJ zei toendertijd... het grootste voordeel van R(V)5xx is de ''goede'' implementatie van Dynamic Branching, de mainfeature van Shadermodel 3.0... je zou bijna gaan denken dat het er wat mee te maken heeft ja (8>

PS: Iemand nog nieuws over ATi's R580+-plannen met 80nm? Want anders kan ik m'n onderschrift wel gaan aanpassen ;)
Lets hope so. Mischien is het beter om zo'n kaart te kopen als minder stroom verbruikt in vergelijking met de X1900 en R600. Mja straks in de R600 toch zuinig wat dan ? Maar ik heb geen zin in een nieuwe PSU omdat me VGA kaart meer dan 130 watt nodig heeft. Dat gaat me toch een beetje te ver. Dan wacht ik nog wel even op de opvolger. En houd ik me X1900 CF setup @ een laag pitje :)
edward2 schreef op dinsdag 06 juni 2006 @ 22:46:
Zal me niks verbazen als ATI daar zo goed in is. De Radeon GPU's bleken al uitermate geschikt voor super computing, dus misschien was dat al een bewijs van de flexibiliteit mbt de inzetbaarheid.
En Physix zijn ook van dat soort berekeningen. Dus wel erg mooi. Mischien krijg je straks wel R600 kaarten met een X1600 voor physix er op :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
The current projection of R570XT debut is sometimes in the first two weeks of September, making it pretty much a back-to-school thing. ATI currently targets full availability of the product at the day of the launch, and not just in the first wave.

If you thing nVIDIA has nothing to worry about, think again: ATI's target is to equal or outdo the performance of R580 with fewer Shader units, but staying around the same clock.

The line-up consists of three models: two Hellfires and a Gemini. Hellfire-1 will be probably marked as the X1950XT, although nothing is set in stone. The GPU will be clocked somewhere around 600 to 650MHz for the GPU, while the 512MB of GDDR-3 memory is scheduled to run at 700 or 750MHz DDR (1400-1500MHz).

Since the RV570 chip has nice 512-bit internal (256-bit external) memory controller, you can expect bandwidth figures of 48 GB/s.

It will end up churning out around 7.8 billion pixels. The XTX part is scheduled to shove pretty much the same amount of pixels, since the clock speed of the XT and XTX will be pretty much in the same line.

The difference between the two the 136-pin BGA chip: the memory ATI will use the fastest GDDR-3 memory to date, which is only 400MHz shy of theoretical maximum X1K marchitecture can support.

The memory clock is scheduled to run at 1100MHz DDR, (2.2GHz!) When combining the number of bytes (256 bit equals 32 bytes) and the memory clock, we end up with data rate of incredible 70 GB/s for a single board!

What is certainly going to leave nVIDIA in awe are the four DualLink-DVI connectors on the Gemini board.

ATI learned that laughing at Nvidians over their Blowdrier (NV30) is only funny if you don't follow up with a vacuum cleaner in the next generation
[quote].

Er komt dus ook een Gemini RV570 >:)
http://img506.imageshack.us/img506/60/geminigpukvxjtcjf9kjc2pl.jpg

PS. Ati Physics Videootje ;)
http://www.tweaktown.com/...sics_in_action/index.html

[Voor 9% gewijzigd door Joepi op 06-06-2006 23:08]


Acties:
  • 0Henk 'm!

  • G_M_C
  • Registratie: december 2003
  • Niet online
Leuk hoor die grap, maar als ik alle nieuws combineer dan heb je;
1) Een hele zooi 16x PCI-E sloten nodig, oftewel je mag alweer een nieuw MoBo kopen;
2) Dan nog eventjes 3 stuks CrossFire GraKa's;
3) En tot slot moet je een goede deal sluiten met Nuon, want de volgende generatie kaarten kan wel eens 300 watt verstoken. In het meest extreme geval verstook je dus 900 Watt alleen al voor een 3-tal Ati's.

Sorry; Alles bij elkaar leuk, maar vrij kansloos. Veel te duur, en ook nog eens veel te idioot ... een extra PSU van 1000 Watt kopen voor alleen beeld + Physics.

Vergelijk de PPU van Aigea, die vraagt maar 20 of 30 watt ... scheelt nogal ! Daarvan kan je er 10 in serie zetten, en dan vraagt het nog minder stroom dan een stelletje Ati's.

[Voor 16% gewijzigd door G_M_C op 06-06-2006 23:23]


Acties:
  • 0Henk 'm!
[quote]Joepi schreef op dinsdag 06 juni 2006 @ 23:01:
[...]
.

Er komt dus ook een Gemini RV570 >:)
[afbeelding]

PS. Ati Physics Videootje ;)
http://www.tweaktown.com/...sics_in_action/index.html
Dit is enorm oud nieuws. Deze slide is al maanden geleden in dit topic gepost en de info werd door The Souce bekend gemaakt:. ;)

[rml]The Source in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]

De slide 'lekte' een paar dagen later uit... ;)

Voor de volledigheid heeft ATi een eigen CrossFire + Physics site gelanceerd:

http://www.aticrossfire.com/

Inclusief de volgende links en al bekende PDF-jes:
http://ir.ati.com/phoenix...icle&ID=868986&highlight=
http://www.ati.com/techno...re_Press_Presentation.pdf
http://www.ati.com/techno...ng_with_ATI_CrossFire.pdf




Dan nog wat andere geruchten:

RV560
- 12 pipelines, dus geen 8 (waarschijnlijk 2 ipv 3 pixelshaders per pipe)
- 128-bit
- 450Mhz Core
- 650Mhz Mem
- PCIe & AGP

RV570XL
- 12 pipelines (3 pixelshaders per pipe)
- 256-bit
- 450Mhz Core
- 650Mhz Mem
- PCIe

RV570XT
- 12 pipelines
- 256-bit
- 600Mhz+
- 1100Mhz
- PCIe

[Voor 15% gewijzigd door CJ op 07-06-2006 00:17]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
Dat is waar, maar was goed bedoeld om wille van overzicht, sorry :P
Nu is BTW wel duidelijk wat het verschil tussen RV560 en RV570 is:

Ik ben benieuwd of er nog een AGP komt! Misschien weet de Source hier meer over ;)

[Voor 26% gewijzigd door Joepi op 07-06-2006 00:21]


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
G_M_C schreef op dinsdag 06 juni 2006 @ 23:20:
Leuk hoor die grap, maar als ik alle nieuws combineer dan heb je;
1) Een hele zooi 16x PCI-E sloten nodig, oftewel je mag alweer een nieuw MoBo kopen;
2) Dan nog eventjes 3 stuks CrossFire GraKa's;
3) En tot slot moet je een goede deal sluiten met Nuon, want de volgende generatie kaarten kan wel eens 300 watt verstoken. In het meest extreme geval verstook je dus 900 Watt alleen al voor een 3-tal Ati's.

Sorry; Alles bij elkaar leuk, maar vrij kansloos. Veel te duur, en ook nog eens veel te idioot ... een extra PSU van 1000 Watt kopen voor alleen beeld + Physics.
1. Crossfire mobo's zijn verkrijgebaar voor een schappelijke prijs, dit is dus geen probleem.
2. Of twee stuks, één high-end kaart met kleinere en goedkopere GPU voor het rekenwerk
3. Deze 300W is wel wat overtrokken, dit zou betekenen dat er een koelblok op moet die minstens 0,3°C/W moet afvoeren voor een temp verschil van minder dan 100°C ten opzicht van de omgeving, Alleen waterkoeling lijkt hier nog te volstaan. Dit lijkt me alles behalve een realistische aanname. Ik heb meer het idee dat deze 300W slaat op het hele systeem.
Indien deze 300W toch van toepassing is, zal de physics kaart zelf nooit deze 300W verstoken aangezien alleen de shaders worden gebruikt en niet de hele chip. Daarnaast is het de vraag of een high-end kaart voor physics wel nodig is of dat er volstaan kan worden met een zuinigere midrange kaart.
Uiteindelijk is er al een opstelling mogelijk van ~300W? voor één high-end kaart en ~75W voor physics. Dit kan makkelijk uit een 500W voeding aangezien processoren tegenwoordig ook minder gaan eten. Voor diegene die crossfire kan betalen lijkt een wat zwaardere voeding en iets hogere stroomrekening ook niet zo'n probleem.
Vergelijk de PPU van Aigea, die vraagt maar 20 of 30 watt ... scheelt nogal ! Daarvan kan je er 10 in serie zetten, en dan vraagt het nog minder stroom dan een stelletje Ati's.
De vergelijking met Aigea heeft geen zin als je niet weet hoe de prestaties zich verhouden. Als de Aigea ook 10 keer zo zwak is, ben je net zo ver...

  • TGEN
  • Registratie: januari 2000
  • Laatst online: 19-10 17:16

TGEN

Hmmmx_

300W is wel belachelijk veel, zoveel heeft nog geen enkele productie IA32 processor gezopen. Dat is 25A op een 12V lijn, daar is de gemiddelde 18AWG kabel nog niet op berekend. Met de X1900 serie rivaliseren ze al het stroomverbruik van een flinke Xeon. En met de huidige drang van het publiek naar verduurzaming, hoge olieprijzen en dergelijke zou je haast denken dat ze een dealtje met verscheidene oliesheiks uit het midden-oosten hebben gesloten :).

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
Tegenwordig heb paar dagen later bij HKEPC ook een engelse vertaling (8>
Hier een bericht van 1 juni:
Recently, some reports have wrongly said ATI is facing difficulty with 80nm technology. We have interviewed Edward Chow, Group Marketing Manager, for the news of the manufacturing and Computex Taipei 2006.

According to Edward, the pilot production with 80nm process was completed by TSMC with satisfactory yield rate. They are now final tuning for the mass production, expected to be done in Q3. The first round production would include mainstream and value products of ATI.

In the Computex Taipei 2006, ATI have no planning to launch any new product for video card and main board. Yet samples of RV560 and RV570 may be exhibited. ATI would like to focus on their Physics Acceleration technology instead. Edward figure out that their technology is more flexible and better than nVidia SLi-Physics, they don’t require the same model to make the advantage (e.g. X1900 with X1600 can also experience such technology advance).

With regard to the recent launch of nVidia Geforce 7950GX2 and Quad SLi technology, Edward doesn’t think the technology is mature enough. ATI have no plan on Quad CrossFire product, but boosting the performance to the existed product. The most likely example is the launch of R580+ with faster core speed and GDDR4 RAM, such that it will be the first video card with GDDR4!
http://www.hkepc.com/bbs/...981&starttime=0&endtime=0

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Die R580+ Lijkt me nog wel interessant . Ook kan de RV560 nog een mooie boost geven op AGP wat veel mensen blij zou maken. Maar waarom terrug naar 1:2 setup ? Want dan geven ze Nvidia eigenlijk gelijk.

en de RV570 is ook interessant. Ben benieuwd wat de prijs van die dingen wordt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op woensdag 07 juni 2006 @ 09:03:
Die R580+ Lijkt me nog wel interessant . Ook kan de RV560 nog een mooie boost geven op AGP wat veel mensen blij zou maken. Maar waarom terrug naar 1:2 setup ? Want dan geven ze Nvidia eigenlijk gelijk.

en de RV570 is ook interessant. Ben benieuwd wat de prijs van die dingen wordt.
Voor mensen met een X1900XT(X) kaart wordt imo de markt pas weer echt interessant begin 2007.

Uiteraard zijn dit persoonlijke afwegingen maar de prestatiewinst van de r580+ lijkt me beperkt tov een X1900XT(X) en bovenal lijkt het me wat zonde om een dx9 kaart te kopen die je binnen een half jaar extra moeilijk/extra verlies kwijt raakt omdat DX10 dan the main thing is.

Verder vallen begin 2007 een aantal zaken mooi samen voor een upgrade:
- DX10 (R600 :P )
- Vista
- Intel Kentsfield (voor jou de K8L hopelijk ;) )
- Crossfire is volwassener
- Physics zullen meer uitgekristalliseerd zijn

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Astennu schreef op woensdag 07 juni 2006 @ 09:03:
Die R580+ Lijkt me nog wel interessant . Ook kan de RV560 nog een mooie boost geven op AGP wat veel mensen blij zou maken. Maar waarom terrug naar 1:2 setup ? Want dan geven ze Nvidia eigenlijk gelijk.

en de RV570 is ook interessant. Ben benieuwd wat de prijs van die dingen wordt.
De 1:2 setup is meer dan genoeg voor de huidige spelaanbod. Als je ziet hoe klein het verschil soms is tussen de X1800XT (1:1) en X1900XT(1:3), dan weet je dat bijna alle shaderpipes van de X1900XT uit hun neus zitten vreten. Daarnaast zijn de shaders dermate effecient dat minder zeker genoeg moet zijn. nVidia heeft overigens geen 1:2 maar 1:1,33 setup met minder effeciente shaders, en toch kan deze setup redelijk goed meekomen met de X1900XT.

Achteraf had ATI misschien beter een X1900XT kunnen onwerpen met 24 pipes en 36 shader-pipes, dan was de kaart meer dan 1.5 maal zo snel geweest als de X1800XT. De vraag is natuurlijk wel wat het geheugenbandbreedte op dat moment toelaat.

Ik snap de keuze van ATI ook niet helemaal, waarom zou je als de kwalitatief goede shaders heb (hoge effecientie) dan ook nog kwantitatief (1:3) gebruiken?

[Voor 8% gewijzigd door wagnef op 07-06-2006 09:52]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Help!!!! schreef op woensdag 07 juni 2006 @ 09:24:
[...]

Voor mensen met een X1900XT(X) kaart wordt imo de markt pas weer echt interessant begin 2007.

Uiteraard zijn dit persoonlijke afwegingen maar de prestatiewinst van de r580+ lijkt me beperkt tov een X1900XT(X) en bovenal lijkt het me wat zonde om een dx9 kaart te kopen die je binnen een half jaar extra moeilijk/extra verlies kwijt raakt omdat DX10 dan the main thing is.

Verder vallen begin 2007 een aantal zaken mooi samen voor een upgrade:
- DX10 (R600 :P )
- Vista
- Intel Kentsfield (voor jou de K8L hopelijk ;) )
- Crossfire is volwassener
- Physics zullen meer uitgekristalliseerd zijn
True true. Maar een stroom vretende R600 hoef ik niet. Ik wil dat het niet erger is als mijn huidige kaart. En de Bottelnek van de X1900 is op dit moment het geheugen. GDDR4 zou daar best nog wel wat uitkomst kunnen bieden. Maar ik denk niet dat het het inversteren waard is. Of de prijzen moeten gelijk zijn aan de X1900 nu.

Wat betreft Physics kijk ik de kat nog maar even uit de boom. Zo i Zo weet ik niet waar ik die kaart moet laten. Want als ik die kaart er in wil zeggen moet me X-Fi er weer uit. Of past er geen andere cooling op me X1900 kaarten. Nu kan ik de cooling al niet veranderen door de slechte layout van het Asus bord. Dus ik weet het zo net nog niet of dat wel makkelijk is. + Ik moet dan een nieuwe voeding want 550 watt is dan denk ik wat krap met 3 kaarten er in.

Crossfire volwassener klinkt me als muziek in de oren :) Sommige games doen het uitstekend andere doen niets en sommige werken wel maar hebben bijna geen peformance winst ( Zoals Worl Of Warcraft ) En het is toch echt een VGA bottelnek want ik voer de AA op en de FPS dropt nog erger. Dus daar is de support gewoon minimaal. Andere rendering is niet te forceren want dan kan ik niet meer inloggen op de servers :). Dus hopelijk komt daar een goed game profile voor :)

En dan de K8L :) Jah dat moet em worden. AMD's Counter tegen de Core 2. Hopelijk maak deze zijn verwachtingen waar want dan hebben we leuke concurentie. Hopelijk komt hij begin 2007 en niet helemaal aan het einde. Maar we zullen zien.

Wat ik trouwens begreep is dat ATi niets ziet in een 2xX1900 op een kaart. En geen Quad Crossfire wil. Ik moet wel zeggen dan een enkele 7950G2 erg goed persteerd. En het stroom verbruik erg laag is. 2 van die kaarten werkt mischien niet erg goed. Maar een werkt uitstekend. Prestatie is goed. Stroom verbruik is goed en de prijs is uitstekend voor 600 euro heb je die kaart al en is sneller dan een X1900 XTX of 7900 GTX. Dus zo slecht is die kaart nog niet. Ik vind het een erg goede zet van Nvidia. Maar ik vraag me af of ze evenveel winst maken op die 7950G2 als op de 7900 GTX ( in % dan )

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Over die ATi Physics en 3x PCI-E videokaarten voor Xfire én Physics:
Persoonlijk heb ik het gevoel dat deze moederborden behoorlijk duur gaan worden. ATi moet op zoek gaan naar een andere southbrigde om die extra 16x te ondersteunen, of ze kunnen 2x een northbridge plaatsen zoals de Intel nForce4 8) . Hoe hebben ze dat opgelost, bij de huidige mobo's die het ondersteunen?

Toenet heb ik toch een wat elegantere oplossing gevonden voor het bovenstaande dillema:
een X1300 met een PCI-E 1x connectie :*)
http://theinq.com/images/articles/HIS_PCIe_1x_card.jpg
Goedkoop en kan makkelijk werken in huidige configs :)

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • SpankmasterC
  • Registratie: juli 2002
  • Laatst online: 17-10 12:51
Wat het hele punt is, ze willen dat mobo makers mobo's gaan maken met 3 PCIe 16x slots, waarvan er dan 2 ook echt 16x zijn, en dan een andere bijvoorbeeld 2x of 4x. Maar wel dat er videokaarten inpassen... Dus dan is er ook geen nieuwe southbridge nodig, en physicskaarten hebben waarschijnlijk toch niet zoveel bandbreedte nodig dat een 16x slot ook echt vereist is.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
XanderDrake schreef op woensdag 07 juni 2006 @ 10:08:
Over die ATi Physics en 3x PCI-E videokaarten voor Xfire én Physics:
Persoonlijk heb ik het gevoel dat deze moederborden behoorlijk duur gaan worden. ATi moet op zoek gaan naar een andere southbrigde om die extra 16x te ondersteunen, of ze kunnen 2x een northbridge plaatsen zoals de Intel nForce4 8) . Hoe hebben ze dat opgelost, bij de huidige mobo's die het ondersteunen?

Toenet heb ik toch een wat elegantere oplossing gevonden voor het bovenstaande dillema:
een X1300 met een PCI-E 1x connectie :*)
[afbeelding]
Goedkoop en kan makkelijk werken in huidige configs :)
W00t dit is idd een mooie oplossing. Als ze dit nou ook met een X1600 konden doen. Mja ATi wil er voor zorgen dat je geen "Speciale" Kaart nodig hebt voor Physics en dit is toch al weer speciaal. Maar wel een mooie oplossing :P Als i nou ook eens passief zou kunnen met een 1 slot heatsink is het helemaal ideaal. Alleen dan is de vraag hoe presteerd deze X1300 TOV een X1600.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
IRC Chat with ATI's Prasad Sristi ;)
Question: Are there any plans for improved profile handling for Crossfire?

Answer: [...] With respect to improving the profile handling, yes - there will be forthcoming changes that I think you will like
http://www.rage3d.com/interviews/chats/ircchat5/

PS:
The last trick up ATI's sleeve for 2006 is integrated Crossfire. ATI RV560 and RV570 will use an on-chip Crossfire logic that will allow for any motherboard to use dual GPUs in Crossfire mode. The composite engine used in the core still does not move all of the data across the PCIe lanes, and manufacturers insist to us that some sort of dongle or bridge will be needed between each card.

ATI's upcoming RV560 is a 128-bit pipeline, 450MHz core, 650MHz memory, 16x32 6 layer PCB. Roadmaps indicate that ATI will introduce both AGP and PCIe versions in August of this year. ATI's RV570 is identical (as far as we know) to RV560 except that it will have a 256-bit pipeline instead of 128-bit. Core frequency will remain the same as well as memory frequency.

At the most high end of ATI's mid-range is the RV570XT ASIC. RV570XT will feature everything the same as RV570XL, but have significantly higher clock speeds. The core clock speed should reach more than 600MHz and the memory clock speeds should obtain speeds near 1.1GHz.
http://www.dailytech.com/article.aspx?newsid=2722

dongle or bridge will be needed between each card? ;)

[Voor 66% gewijzigd door Joepi op 07-06-2006 11:10]


  • fommes
  • Registratie: mei 2004
  • Laatst online: 14-08 11:23
Ik ben nu al een poosje door alle oude topics aan het bladeren en deze maar kan het niet zo snel vinden, ik heb een asus p5wd2 moederbord er wordt op de site gezegd dat hij crossfire ondersteund.
Maar hij heeft 1 x16 PCI-E en 1 x4 PCI-E slot, gaat dit de performance omlaag halen als ik een extra kaartje in de 1 x4 PCI-E stop? of draaien de meeste PCI-E kaarten nog niet op de volle X16 ?
(ik heb een ATI X1600XT)
Astennu schreef op woensdag 07 juni 2006 @ 09:03:
Die R580+ Lijkt me nog wel interessant . Ook kan de RV560 nog een mooie boost geven op AGP wat veel mensen blij zou maken. Maar waarom terrug naar 1:2 setup ? Want dan geven ze Nvidia eigenlijk gelijk.

en de RV570 is ook interessant. Ben benieuwd wat de prijs van die dingen wordt.
Dat de RV560 maar 2 shaderengines zou hebben is een gerucht hoor. Ik zou het maar met een korreltje zou nemen. Maar het zou wel verklaren waarom zowel de RV560 en RV570 volgens datzelfde gerucht 12 pixelpipes zou hebben, naast het verschil in 128-bit en 256-bit memory interface.

Als RV560 en RV570XL op dezelfde snelheden draaien, dan zou het verschil tussen deze kaarten alleen duidelijk worden wanneer AA en AF aan werden gezet. Door de RV560 ook nog eens te castreren naar 2 pixelshaderengines per pipe ipv 3, maak je het verschil al iets groter.

RV560 zou volgens een aantal geruchten 8 pipelines hebben met elk 3 pixelshaderengines. Totaal heb je dan 24 pixelshaderengines. RV570 zou 12 pipelines hebben met 3 pixelshaderengines, dus totaal 36 pixelshaderengines. Als deze nieuwe geruchten kloppen, dan blijft het aantal pixelshaderengines ongewijzigd, dus 24 voor de RV560 (12*2) en 36 voor de RV570 (12*3), terwijl ze wel hetzelfde aantal pipelines hebben.

Daarnaast had ATi eerst 2 pixelshaderengines per pipeline op de planning voor R580, maar uiteindelijk is besloten om er toch 3 van te maken omdat dit idealer zou zijn in meer situaties. En zie nu eens... er komt ATi Physics die gebruik maakt van de pixelshaderengines...! De pixelshaderengines die nu 'weinig' lijken te doen, kunnen straks eventueel hun tanden in physicsberekeningen zetten. Maar reken er maar op dat je in de toekomst steeds meer het verschil zult zien tussen de R520 en R580.
fommes schreef op woensdag 07 juni 2006 @ 11:29:
Ik ben nu al een poosje door alle oude topics aan het bladeren en deze maar kan het niet zo snel vinden, ik heb een asus p5wd2 moederbord er wordt op de site gezegd dat hij crossfire ondersteund.
Maar hij heeft 1 x16 PCI-E en 1 x4 PCI-E slot, gaat dit de performance omlaag halen als ik een extra kaartje in de 1 x4 PCI-E stop? of draaien de meeste PCI-E kaarten nog niet op de volle X16 ?
(ik heb een ATI X1600XT)
Een X1600XT draait optimaal op een twee x16 PCIe configuratie. De performance zal een paar procent minder (kunnen) zijn op lage resoluties, terwijl het verschil tot zo'n 20-40% kan oplopen wanneer je naar hoge resoluties gaat en AA/AF aan gaat zetten. Je ziet zelfs al op eye-candy modes een groot verschil tussen de Radeon Xpress200 (2 x8 PCIe in CrossFire) en de Radeon Xpress3200 (2 x16 PCIe). ATi komt binnenkort zelf met een midrange CrossFire mobochipset (RD550) die gebruik maakt van 1 x16 PCIe en 1 x8 PCIe, die hoogstwaarschijnlijk Radeon Xpress2400 gaat heten.

X1600XT CF @ Xpress 3200 vs X1600XT CF @ Xpress 1600
http://www.hkepc.com/hwdb/atird580-4.htm

[Voor 12% gewijzigd door CJ op 07-06-2006 18:24]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Maar CJ kan je met een enkele kaart dan ook ATi Physics gebruiken ? Want dan kun je idd die Pixelshader pipes die niets te doen hebben in zetten om Physics te gaan doen. Want als je een X1900 alleen maar in zet voor Physics gebruik je de vertex shaders en het geheugen van 512 mb weer helemaal niet en dat is ook heel erg zonde.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Wat ik me afvraag is in welke mate van geheugenbandbreedte en geheugenhoeveelheid belangrijk zijn voor het het berekenen van physics. Als dit niet zo belangrijk is voor physics lijkt een (wat overgeklokte) X1600pro ook zeer geschikt hiervoor.

  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
Astennu schreef op woensdag 07 juni 2006 @ 15:16:
Maar CJ kan je met een enkele kaart dan ook ATi Physics gebruiken ? Want dan kun je idd die Pixelshader pipes die niets te doen hebben in zetten om Physics te gaan doen. Want als je een X1900 alleen maar in zet voor Physics gebruik je de vertex shaders en het geheugen van 512 mb weer helemaal niet en dat is ook heel erg zonde.
of misschien regelt ati het zo dat alles juist wel optimaal gebruikt gaat worden :Y)

Darkmoon Faire [EU] Craoker - Undead Warrior

Astennu schreef op woensdag 07 juni 2006 @ 15:16:
Maar CJ kan je met een enkele kaart dan ook ATi Physics gebruiken ? Want dan kun je idd die Pixelshader pipes die niets te doen hebben in zetten om Physics te gaan doen. Want als je een X1900 alleen maar in zet voor Physics gebruik je de vertex shaders en het geheugen van 512 mb weer helemaal niet en dat is ook heel erg zonde.
Theoretisch gezien is het mogelijk om op 1 kaart zowel graphics als physics te doen. Een paar maanden terug lieten ze zelfs slides zien waarop ATi zelf aangaf dat het mogelijk is. Maar gamedevs zullen hier waarschijnlijk niet voor programmeren, aangezien ze anders maar een kleine groep gebruikers hebben. Vandaar dat ATi nu voor 1+1 of 2+1 gaat en het allemaal onder de noemer CrossFire gooit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op woensdag 07 juni 2006 @ 18:28:
[...]


Theoretisch gezien is het mogelijk om op 1 kaart zowel graphics als physics te doen. Een paar maanden terug lieten ze zelfs slides zien waarop ATi zelf aangaf dat het mogelijk is. Maar gamedevs zullen hier waarschijnlijk niet voor programmeren, aangezien ze anders maar een kleine groep gebruikers hebben. Vandaar dat ATi nu voor 1+1 of 2+1 gaat en het allemaal onder de noemer CrossFire gooit.
Jaja dus de kaarten gaan niet optimaal gebruikt worden. Wel jammer. In dat geval zal ik nooi een X1900 voor alleen Physics inzetten maar een of ander goedkoop kaartje ( met laag stroomverbruik ) 2e hands op de kop tikken ( Zoals een X1600 ).

Hoe wil nvidia dat dan gaan doen ? Ik zie hun geen 5e kaart toevoegen aan hun quad SLi dus ik neem aan dat Nvidia wel physics op de al aanwezige kaarten wil gaan doen. En denk ik ook wil voorkomen dat een kaart niet gebruikt wordt. Of je kunt alleen maar physics doen als je dual SLi gebruikt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • GoldenSample
  • Registratie: januari 2005
  • Niet online

GoldenSample

Huub, Huub, Barbatruc!

XanderDrake schreef op woensdag 07 juni 2006 @ 10:08:
Over die ATi Physics en 3x PCI-E videokaarten voor Xfire én Physics:
Persoonlijk heb ik het gevoel dat deze moederborden behoorlijk duur gaan worden. ATi moet op zoek gaan naar een andere southbrigde om die extra 16x te ondersteunen, of ze kunnen 2x een northbridge plaatsen zoals de Intel nForce4 8) . Hoe hebben ze dat opgelost, bij de huidige mobo's die het ondersteunen?

Toenet heb ik toch een wat elegantere oplossing gevonden voor het bovenstaande dillema:
een X1300 met een PCI-E 1x connectie :*)
[afbeelding]
Goedkoop en kan makkelijk werken in huidige configs :)
zeer leuk kaartje! kan een leuk opvolgertje worden van oude PCI kaartjes ;) alleen wat is eigelijk de bandbreette tov gewoon PCI? toch niet zo veel verschil?
maargoed, erg leuk voor een tripple monitor setup (of meer) alleen zou hem dan wel graag met dual DVI zien (liefst dual-link uiteraard)

hebben die X1900XTX's etc. eigelijk Dual-link DVI? mijn 6800GTO heeft het wel alleen ik heb begrepen dat dat 1 van de weinige in z'n tijd is...

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 21:40

Pubbert

random gestoord

Elke X1800 en X1900 heeft DualLink DVI d8 ik zo, en de X1600's met 2 DVI poorten ook volgens mij.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Thund3r schreef op woensdag 07 juni 2006 @ 22:18:
Elke X1800 en X1900 heeft DualLink DVI d8 ik zo, en de X1600's met 2 DVI poorten ook volgens mij.
Die hebben zelfs 2x Dual Link DVI.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Ik ben maar eens zonder CF kaart aan het testen. Ten eerste viel het me op dat me XTX minder heet wordt. Die loopt nu op 650-810 met 1.25v en hij wordt net zo warm als de CF kaart op 575-756 met 1.125v. Mischien wordt die composting chip zo heet ?

Verder is de 3D Mark score wel een stuk lager maar het stotterde in ieder geval niet. Wat bij CF wel het geval was:

GT1 - Wings of Fury
(fps)
399.7
415.1

GT2 - Battle of Proxycon
(fps)
154.4
272.8

GT3 - Troll's Lair
(fps)
112.3
202.3

GT4 - Mother Nature
(fps)
118.2
212.4

Fill Rate (Single-Texturing)
(MTexels/s)
4372.9
8694.5

Fill Rate (Multi-Texturing)
(MTexels/s)
9973.7
19429.2

Vertex Shader
(fps)
63.8
117.9

Pixel Shader 2.0
(fps)
222.4
379.3

Ragtroll
(fps)
88.7
140.7

Wat ook wel grappig is, Is dat de soundtests zonder CF hogere FPS lieten zien. Daar Zie je dus dat de CPU de bottelnek was en CF meer CPU power vraagt maar dat is eigenlijk wel logies:

No sounds
(fps)
87.3
82.4

24 sounds
(fps)
77.0
74.3

60 sounds
(fps)
71.9
68.5

Je ziet dus wel leuke verschillen. Ik ga vanmiddag nog wat meer testen met games als HL2.HL2 liep erg goed met CF en ik denk dat ik de hoge fps daar wel ga missen. Vooral in de HDR levels.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Juist :) Zie ook mn vorige post:
XanderDrake schreef op woensdag 07 juni 2006 @ 10:08:
Over die ATi Physics en 3x PCI-E videokaarten voor Xfire én Physics:
Persoonlijk heb ik het gevoel dat deze moederborden behoorlijk duur gaan worden. ATi moet op zoek gaan naar een andere southbrigde om die extra 16x te ondersteunen, of ze kunnen 2x een northbridge plaatsen zoals de Intel nForce4 8) . Hoe hebben ze dat opgelost, bij de huidige mobo's die het ondersteunen?

Toenet heb ik toch een wat elegantere oplossing gevonden voor het bovenstaande dillema:
een X1300 met een PCI-E 1x connectie :*)
[afbeelding]
Goedkoop en kan makkelijk werken in huidige configs :)

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca

Nieuwsflash: Na MSI prototype dual interface kaart nu ook HIS met een AGP/PCIe kaart

MSI liet een jaar geleden een prototype zien van een X800XL die zowel een AGP als een PCIe interface had. Dit is echter nooit in productie gedaan. Maar nu heeft HIS op Computex hun versie van hun Dual Interface kaart getoond en deze ziet er zeer productierijp uit. HIS gebruikt de X1600Pro als eerste product:

http://www.hardspell.com/pic/2006/6/8/8e979a2a-6a97-4c90-851f-637d7586a0744501200.jpg

Bron: http://www.hardspell.com/news/showcont.asp?news_id=26154

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op donderdag 08 juni 2006 @ 12:23:
Nieuwsflash: Na MSI prototype dual interface kaart nu ook HIS met een AGP/PCIe kaart

MSI liet een jaar geleden een prototype zien van een X800XL die zowel een AGP als een PCIe interface had. Dit is echter nooit in productie gedaan. Maar nu heeft HIS op Computex hun versie van hun Dual Interface kaart getoond en deze ziet er zeer productierijp uit. HIS gebruikt de X1600Pro als eerste product:

[afbeelding]

Bron: http://www.hardspell.com/news/showcont.asp?news_id=26154
Wel leuk echter hebben we al X1600 Pro kaarten met AGP. Het zou leuker zijn als ze dit met een X1900 zouden doen. Dan zouden veel AGP gebruikers erg blij worden. Ik denk wel dat de kaart een stuk duurder zal zijn. Dus dat je dan bijna beter een nieuw mobo + PCI kaartje kan kopen IPV zo'n dual oplossing.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • G_M_C
  • Registratie: december 2003
  • Niet online
Astennu schreef op donderdag 08 juni 2006 @ 12:33:
[...]


Wel leuk echter hebben we al X1600 Pro kaarten met AGP. Het zou leuker zijn als ze dit met een X1900 zouden doen. Dan zouden veel AGP gebruikers erg blij worden. Ik denk wel dat de kaart een stuk duurder zal zijn. Dus dat je dan bijna beter een nieuw mobo + PCI kaartje kan kopen IPV zo'n dual oplossing.
Ik denk het niet echt. Een nieuw mobo, betekent voor veel mensen ook een nwe processor en ook nieuw geheugen.

Bijvoorbeeld: Veel mensen draaien nu nog op een S478 P4. Een nieuw mobo houdt in dat geval vaak dus ook een nwe proc in (S775) en nieuw geheugen (DDR2 ipv DDR).

In zo'n geval is het veel prijsbewuster om bij het aanschaffen van een nieuw mobo ook meteen de rest een "upgrade te geven". En natuurlijk kan je kiezen voor een tussenoplossing, met een mobo dat zowel AGP/DDR als PCI-E/DDR2 ondersteunt, maar is toch een halve oplossing.

Jij gaat er wel makkelijk van uit dat mensen de afgelopen tijd regelmatig nieuwe spullen gekocht hebben ("elk jaar een nieuwe"), maar zo werkt dat bij het overgrote merendeel van de gewone computergebruikers niet. Sterker nog, ik denk dat 60% ~ 70% van alle computers (dus alle PC's in NL bij elkaar gerekend) gewoon nog een AGP poort in hun systeem hebben, als het niet een véél hoger percentage is.

Wat dat betreft is Ati niet echt klantgericht, omdat ze dus het overgroten meerendeel van alle PC-bezitters uitsluiten van upgraden naar kaarten die meer zijn dan "mid-end".

Dat is wel wat anders met nVidia, ik heb bijvoorbeeld een een 7900GT(x) in AGP vermomming in mijn systeem, inclusief àlle 24 pipelines en 512Mb GDDR3. En precies volgens de verwachting, aangezien het overgrote meerendeel van de PC bezitters nog op AGP draaien, zijn die kaarten bijna niet aan te slepen.

Kortom, er zit markt genoeg in de higher-end AGP-kaarten, alleen Ati laat ons in de steek. Jammer, want ik heb al sinds de oorspronkelijke Riva-generatie Ati-kaarten gehad, maar er is geen keuze hè ?

  • biobak
  • Registratie: augustus 1999
  • Laatst online: 21:30
Astennu schreef op donderdag 08 juni 2006 @ 09:36:
Ik ben maar eens zonder CF kaart aan het testen. Ten eerste viel het me op dat me XTX minder heet wordt. Die loopt nu op 650-810 met 1.25v en hij wordt net zo warm als de CF kaart op 575-756 met 1.125v. Mischien wordt die composting chip zo heet ?
Zou kunnen, maar bij mijn SLI config warmt de onderste videokaart de bovenste op. Ik kan daardoor een stuk minder ver overclocken dan bij een enkele kaart.

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 21:40

Pubbert

random gestoord

G_M_C schreef op donderdag 08 juni 2006 @ 13:01:
[...]


Dat is wel wat anders met nVidia, ik heb bijvoorbeeld een een 7900GT(x) in AGP vermomming in mijn systeem, inclusief àlle 24 pipelines en 512Mb GDDR3. En precies volgens de verwachting, aangezien het overgrote meerendeel van de PC bezitters nog op AGP draaien, zijn die kaarten bijna niet aan te slepen.

Kortom, er zit markt genoeg in de higher-end AGP-kaarten, alleen Ati laat ons in de steek. Jammer, want ik heb al sinds de oorspronkelijke Riva-generatie Ati-kaarten gehad, maar er is geen keuze hè ?
Ik wist niet dat er 7900GT APG kaarten waren, en die zijn er volgens mij ook helemaal niet...

Punt is dat de high-end lijn gewoon te snel is voor AGP, en dat het merendeel van de mensen die nu nog een AGP systeempje hebben, simpelweg hun dure high-end kaart toch niet (kunnen) benutten, vooral doordat ze een verouderde trage CPU hebben, en vaak ook een simpele 300 watt voeding.

Upgraden voor die mensen heeft vaak geen zin, omdat ze dan toch al meerdere dingen moeten upgraden.

Nu zijn er zeker wel uitzonderingen, een P4 3Ghz+ of een AMD64 3200+ haalt ook nog genoeg uit een X1900 of 7900GT, maar het percentage met zo'n CPU en AGP, word ook steeds minder.

[Voor 34% gewijzigd door Pubbert op 08-06-2006 13:14]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Apie!
  • Registratie: januari 2000
  • Laatst online: 18-10 09:38

Apie!

Newer, better & confusinger

Dat vind ik ook wel een beetje jammer van Ati. Ik heb zelf nog een S478 P4 @2.4Ghz met een 9800Pro@XT. Dit systeempje wordt met een paar maanden vervangen door een Conroe of X2 systeem, maar m'n oude bakkie gaat natuurlijk niet de prullenbak in :) Het liefst gooi ik er een nextgen video kaart in, maar dan is de keuze nogal beperkt... Ook vraag ik me af of de P4 dat wel trekt, maar dat is een ander verhaal :)

My lungs taste the air of Time
Blown past falling sands


  • G_M_C
  • Registratie: december 2003
  • Niet online
Thund3r schreef op donderdag 08 juni 2006 @ 13:11:
Ik wist niet dat er 7900GT APG kaarten waren, en die zijn er volgens mij ook helemaal niet...

Punt is dat de high-end lijn gewoon te snel is voor AGP, en dat het merendeel van de mensen die nu nog een AGP systeempje hebben, simpelweg hun dure high-end kaart toch niet (kunnen) benutten, vooral doordat ze een verouderde trage CPU hebben, en vaak ook een simpele 300 watt voeding.

Upgraden voor die mensen heeft vaak geen zin, omdat ze dan toch al meerdere dingen moeten upgraden.

Nu zijn er zeker wel uitzonderingen, een P4 3Ghz+ of een AMD64 3200+ haalt ook nog genoeg uit een X1900 of 7900GT, maar het percentage met zo'n CPU en AGP, word ook steeds minder.
Nonsense, ik draai met mijn AGP systeem een prima score op bv. 3DM06, met alles op stock. En als ik mijn Graka overclock dan gaat mijn score gewoon omhoog (oftewel de CPU in niet de bottelneck). Dat van die bandbreedtte is een marketing-praatje. De theoretische bandbreedtte van PCI-E is veel hoger dan AGP, dat klopt. Maar geen enkele graka maakt maar gebruik van dat soort snelheden. De werkelijke snelheidsbehoefte van high-end graka's ligt nog onder de max van de AGP 8x-poort. Dus daar zit hem de bottelneck ook niet.

En die 7900GT die bestaat, maar omdat 7900GS al een "bezette naam was" in de kaartnamen/drivers-enumerator noemen ze hem 7800GS GS+ (let op de plus). Die kaart heeft gewoon een volledige G71 en de 512Mb GDDR3 (Samsung 1.2ns / 1600 DDR geheugen). Gainward levert ze onder de naam 7876-BLISS 7800GS+.

Het enige verschil is dat ze het voltage op de kaart hebben verlaagd, om er een mooie stille (custom) koeler op te zetten. Ze hebben de core en het geheugen om die reden op een lager voltage gezet + lager geclocked (1.25 / 1.5 Volt ipv 1.45 / 2.0 Volt & 450 / 1250 MHz ipv ~ 600 / 1600 MHz). Met een simpele pencil-mod kan je de oorspronkelijke voltages herstellen, en dan rustig naar de officiele GTX snelheden gaan (~ 600 / 1600), zie ook div. topics op guru3d. E.a. wordt ook ondersteunt door het simpele feit dat deze kaart gewoon op 7900GTX reference-board is gezet, met als toevoeging een bridge-chip.

Lui die deze mods hebben uitgevoerd, krijgen nog steeds geen hete kaarten en lekkere hoge scores @ allerlei benchmarks (ik heb er al één gezien van 3DM06 ~ 6000). Kortom AGP kan nog best, alleen iedereen is inmiddels de marketing gaan geloven !

Er is één nadeel met deze kaarten, de geheugenkoeling van de custom koeling moeten we nog een beetje uitzoeken. Ik persoonlijk vertrouw die niet zo goed, dus ik laat hem voorlopig volledig stock draaien totdat e.a is uitgezocht

[Voor 35% gewijzigd door G_M_C op 08-06-2006 13:32]


  • Apie!
  • Registratie: januari 2000
  • Laatst online: 18-10 09:38

Apie!

Newer, better & confusinger

G_M_C schreef op donderdag 08 juni 2006 @ 13:17:
[...]


Nonsense, ik draai met mijn AGP systeem een prima score op bv. 3DM06, met alles op stock. En als ik mijn Graka overclock dan gaat mijn score gewoon omhoog (oftewel de CPU in niet de bottelneck). Dat van die bandbreedtte is een marketing-praatje. De theoretische bandbreedtte van PCI-E is veel hoger dan AGP, dat klopt. Maar geen enkele graka maakt maar gebruik van dat soort snelheden. De werkelijke snelheidsbehoefte van high-end graka's ligt nog onder de max van de AGP 8x-poort. Dus daar zit hem de bottelneck ook niet.
Is dat met je Hercules AIW Radeon 9800SE @ Pro? Ik heb laatst 3DM06 geprobeerd te draaien. Ik zag zowaar 0-2 fps voorbij komen en kwam op 500 3dmarks uit.

offtopic:
Zijn de namen van je machines niet uit The Silmarillion?

[Voor 6% gewijzigd door Apie! op 08-06-2006 13:31]

My lungs taste the air of Time
Blown past falling sands


  • G_M_C
  • Registratie: december 2003
  • Niet online
Apie! schreef op donderdag 08 juni 2006 @ 13:30:
[...]

Is dat met je Hercules AIW Radeon 9800SE @ Pro? Ik heb laatst 3DM06 geprobeerd te draaien. Ik zag zowaar 0-2 fps voorbij komen en kwam op 500 3dmarks uit.

offtopic:
Zijn de namen van je machines niet uit The Silmarillion?
Nope, dat is met mijn nwe 7800GS+ (zit voorlopig in Illuvatar). En dan haal ik met een "ouderwetse" 533 bus met sloom PC2100 geheugen, alles volledig stock (CPU èn GPU on-overgecklockt) nog ~4500 punten @ 3DM06.

Ik heb inmiddels een nieuwe voeding voor "Manwë", de graka gaat dus binnenkort daarin. Die PC heeft een 800MHz bus, en PC3200 geheugen (en kan prima geOc'ed worden ;-) ). Eens kijken wat dat voor benches oplevert @ stock (en daarna ge-OC'ed).

offtopic:
Inderdaar, het zijn allemaal namen van Valar

[Voor 29% gewijzigd door G_M_C op 08-06-2006 13:37]


  • Apie!
  • Registratie: januari 2000
  • Laatst online: 18-10 09:38

Apie!

Newer, better & confusinger

Gelukkig, want anders was er heel wat mis met mijn systeem :) Ik had liever een X1K Ati AGP kaart gezien, maar zit er nu toch ook aan te denken om een 7800GS aan te schaffen.

Je hebt een snellere machine staan als ik (P4 @2.4 533FSB en 2x512 4x256 PC800 RDRAM), maar ik ben wel benieuwd naar je resultaten. Dan weet ik wat ik ongeveer kan verwachten met een 7800GS.

offtopic:
Ik ben dat boek nu aan het lezen :)

[Voor 31% gewijzigd door Apie! op 08-06-2006 13:47]

My lungs taste the air of Time
Blown past falling sands


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
Als jullie "ati" physics eens willen draaien moet je maar eens de radeon SDK downloaden.. alles werd verwezelijkt met R2VB & SM3.0 of SM2.0, de download is wel >400MB voor een paar matige demotjes & tot dusver is het het enige wat ATi al getoont heeft ivm physics tot ze hun GPGPU api beschikbaar stellen natuurlijk

// btw, nvidia ondersteunt R2VB niet in DirectX (maar wel in OGL) dus kunnen ze het grootste deel van de demos niet draaien

[Voor 20% gewijzigd door oeLangOetan op 08-06-2006 16:00]


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 16-10 16:42

Krizzie

Progressive Music \o/

G_M_C schreef op donderdag 08 juni 2006 @ 13:17:
[...]


Nonsense, ik draai met mijn AGP systeem een prima score op bv. 3DM06, met alles op stock. En als ik mijn Graka overclock dan gaat mijn score gewoon omhoog (oftewel de CPU in niet de bottelneck). Dat van die bandbreedtte is een marketing-praatje. De theoretische bandbreedtte van PCI-E is veel hoger dan AGP, dat klopt. Maar geen enkele graka maakt maar gebruik van dat soort snelheden. De werkelijke snelheidsbehoefte van high-end graka's ligt nog onder de max van de AGP 8x-poort. Dus daar zit hem de bottelneck ook niet.

En die 7900GT die bestaat, maar omdat 7900GS al een "bezette naam was" in de kaartnamen/drivers-enumerator noemen ze hem 7800GS GS+ (let op de plus). Die kaart heeft gewoon een volledige G71 en de 512Mb GDDR3 (Samsung 1.2ns / 1600 DDR geheugen). Gainward levert ze onder de naam 7876-BLISS 7800GS+.

Het enige verschil is dat ze het voltage op de kaart hebben verlaagd, om er een mooie stille (custom) koeler op te zetten. Ze hebben de core en het geheugen om die reden op een lager voltage gezet + lager geclocked (1.25 / 1.5 Volt ipv 1.45 / 2.0 Volt & 450 / 1250 MHz ipv ~ 600 / 1600 MHz). Met een simpele pencil-mod kan je de oorspronkelijke voltages herstellen, en dan rustig naar de officiele GTX snelheden gaan (~ 600 / 1600), zie ook div. topics op guru3d. E.a. wordt ook ondersteunt door het simpele feit dat deze kaart gewoon op 7900GTX reference-board is gezet, met als toevoeging een bridge-chip.

Lui die deze mods hebben uitgevoerd, krijgen nog steeds geen hete kaarten en lekkere hoge scores @ allerlei benchmarks (ik heb er al één gezien van 3DM06 ~ 6000). Kortom AGP kan nog best, alleen iedereen is inmiddels de marketing gaan geloven !

Er is één nadeel met deze kaarten, de geheugenkoeling van de custom koeling moeten we nog een beetje uitzoeken. Ik persoonlijk vertrouw die niet zo goed, dus ik laat hem voorlopig volledig stock draaien totdat e.a is uitgezocht
Daarom zie je ook dat een X1600 in CF veel beter presteerd als deze een 16x pad heeft ipv van 8x.

Tuurlijk kan AGP nog even mee, maar als bedrijven hetzelfde denken als jij dan zouden we nou nog bij AGP 1x zitten. ;)

Het klopt dat een heel groot deel van de mensen nog op AGP zit maar wat boeit die mensen dat? De meeste weten niet eens wat een AGP slot is. Als de pc sloom wordt dan kopen ze een nieuwe en in 9 van de 10 gevallen heb je dan een PCI-E slot in je pc.

Ik heb zelf ook nog een AGP setup (X800XL) tot nu toe houd deze kaart het aardig uit en als de R600 er is stap ik over op PCI-E. :)

Geluidswolk


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
Wie heeft er nou recentelijk goed verdient aan AGP? Nvidia toch!
en terecht, want de klanten zijn zeer tevreden :7
Dus heeft Ati toch een probleem, of niet?
Ati komt heus nog met een AGP-toppertje, maar niet voor juli/augustus!

[Voor 5% gewijzigd door Joepi op 08-06-2006 21:04]


  • 70373R
  • Registratie: maart 2002
  • Laatst online: 05-11-2012
Astennu schreef op donderdag 08 juni 2006 @ 09:36:
Ik ben maar eens zonder CF kaart aan het testen. Ten eerste viel het me op dat me XTX minder heet wordt. Die loopt nu op 650-810 met 1.25v en hij wordt net zo warm als de CF kaart op 575-756 met 1.125v. Mischien wordt die composting chip zo heet ?

Verder is de 3D Mark score wel een stuk lager maar het stotterde in ieder geval niet. Wat bij CF wel het geval was
Doe je jou CF kaart mischien weg ? Me neef zoekt er nog 1.. Ik heb het heel iets dat stotteren bij 3dmark, maar heb het zelf niet in CF met games..

" 1 muis maakt nog geen piepshow ! "

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee