[Algemeen] ATi Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 4.912 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 156281

Cheetah schreef op zaterdag 21 april 2007 @ 02:33:
[...]
Hoe weet je dat 512mb 'genoeg' is? Heb je bijgehouden hoeveel textures recentere games in je RAM proppen, terwijl ze met extra geheugen op je videokaart beter af zijn gezien dat veel sneller is?
En er van uit gaande dat 512mb op dit moment (net) genoeg is, hoe lang denk je dat dit nog gaat duren? Precies hetzelfde werd nog geen jaar geleden ook over 512mb geroepen namelijk.

[...]
Scenes worden complexer, textures worden groter en zwaarder, met steeds meer polygonen. HDR vreet geheugen en AA vreet geheugen. De combinatie vreet geheugen2. Maak de optelsom...
De 8800GTX doet trouwens naar ik uit de rev's heb gelezen wel 2560x1600 met minimaal 2xAA, ook in de recentere games. Die 768mb doet in ieder geval meer goed dan kwaad lijkt me.
512 is op dit moment genoeg voor iedere resolutie, en zoals je uit de benches van 320 vs 640 kan uitmaken is er géén verschil zolang je op een "mainstream" reso als 1280 of 1680x1050 gamet. Maw het percentage mensen dat meer dan 512 of zelfs 320MB nodig heeft is al zeer gering, laat staan dan 768MB. 512 is dus atm bezwaarlijk net genoeg te noemen, eerder futureproof nog. Dat extra geheugen op de GTX heeft imo atm weinig nut, hoewel 't natuurlijk een fantastisch marketingwapen is en later misschien wel handig wordt, al vrees ik dat tegen dan de core al de bottleneck vormt (een beetje een 7300GS 512 verhaal dus).

Tegen dat UT 2007 uit is is de HD 2900XTX er al, dan wordt 't de keuze tss de kaart met driekwart van 't optimale geheugen en die met 't optimale geheugen (en ook nog es een pak meer bandbreedte) :+. Ofwel zitten we dan al lang met de G90/R700, kan ook zijn.

[ Voor 8% gewijzigd door Anoniem: 156281 op 21-04-2007 04:38 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Ik ben het met Cheetah eensch.

En aan sommige reakties te zien blijkt dat mensen er niet tegen kunnen/ het niet fijn vinden dat ze tegengas krijgen... Ik vind het wel mooi. ;)

-Over het optimaliseren van games; iemand wel eens van het "The way its meant to be played" gehoord? Als devs "voor nV devven" zullen ze misschien WEL rekening houden met 320 of 768MB videomem. Ik vraag me uberhaupt af of een kaart die 768MB videomem aan boord heeft in de "problemen" komt als een game bijvoorbeeld gedevved is op 512MB? Een get in the game game zullen we maar zeggen... Ik kan het me niet echt voorstellen, maar goed.

-Waarom is de ATi kaart zo "goedkoop"? (Als het zo is?) --> Door minder videomem maybe? ;)

-Ik vind 512MB videomem aardig weinig voor/van ATi, het lijkt op een manier om de kaarten zo goedkoop mogelijk te maken/ houden. Ze hadden beter andere (imho nutteloze) features weg kunnen laten en er een gig mem op kunnen zetten...

-Wie ziet het verschil tussen 8xAA en 16xAA? Vinger opsteken... Dat zie je dus niet. Wat heb je dan aan 24xAA? Niks.

-Sound Physics?/Physics? Leuk om te hebben. Misschien is het in 2008 of 2009 te gebruiken idd. Dan hebben ik en vele andere enthousiasts al een G90 of R700.
En de prijs zou ik zelf ook als feature willen noemen, zeker aangezien je bij de Tier 1 fabrikanten een voucher bij krijgt ter waarde van zo'n €30-€40 voor HL:EP2, Team Fortress2 en Portal. Was natuurlijk leuker geweest als dit gewoon van de prijs af ging en je ook kon kiezen voor een R600 zonder games.
Bij sommige videokaartfabrikanten krijg je ook gewoon 1, 2, of 3 games ipv een voucher. En een lading software. Lekker belangrijk. Ik flikker die software meestal op de grote bult. Het is iig geen reden voor mij om een bepaald merk videokaart aan te schaffen. De verkoopprijs wel.

En ik hoor hier telkens dat ATi beter en sneller is volgens bron X en Y, en dat ze in bepaalde applicaties/ omgevingen beter en sneller zijn volgens mister X en mevrouw Y... Wie zegt dat bron X en Y gelijk hebben. Laten we nu eerst eens wachten op benchmarks alvorens te zeggen dat iets zo is. We horen allemaal veel geruchten. Imho is het beter om gewoon geduld te hebben en te wachten op ECHTE benchmarks.
Gelukkig ondersteunt de aankomende Intel chipset die in Q3 uit moet komen (ik geloof dat-ie X38 heet, de opvolger van de i975) ook CrossFire (en nog steeds geen SLI). Dat is bevestigd door Intel en daarmee heeft AMD een sterke troef in handen. Volgens mij worden er namelijk nog altijd meer Intel mobos verkocht dan nVidia mobos voor Intel CPUs. Dus zo somber ziet het er niet uit. Intel ondersteunt CrossFire, AMD ondersteunt CrossFire op hun eigen chipsets. Alleen nVidia ondersteunt het niet.
Hoeveel procent van de mensen koopt een CF (ondersteunend) moederbord om het ook daadwerkelijk te gebruiken? Heel erg weinig imho. Dus of AMD doordat er veel moederborden worden verkocht die CF ondersteunen een sterke troef in handen heeft? Ik weet het niet hoor... Ik ben er zeker van dat er nog steeds veel meer SLi dan CF wordt gebruikt door enthousiasts. Als jij zegt dat er minder SLi borden verkocht worden betekent dit dat veel mensen die een SLi mobo kopen het ook daadwerkelijk gebruiken. Ik heb hier @ GoT maar 3 of 4 mensen gezien die CF hadden/hebben. SLi daarentegen is veel meer gebruikt. Ook door een categorie gamers die "lager liggen dan" de enthousiast groep. (De gewone man met een beperkter budget) CF wordt imho echt door de enthousiasts gebruikt, en SLi is meer toegankelijk.

Edit; en over de drivers; nVidia komt ook wel met beter drivers NU en binnenkort. De 158 drivers zijn iig veelbelovend en laten zien dat er nog ZAT rek in de G80 zit. Ze zullen straks ook wel moeten om de concurrentie aan te gaan. Er iz NU geen concurrentie, dus ze konden het nu misschien ff wat rustiger aan doen op drivergebied TOTdat de X2900 er is. Misschienb hebben ze de G80 wel te vroeg gereleased. Maar goed, als je er veel van verkoopt, who cares, zullen ze wel gedacht hebben.
Anoniem: 156281 schreef op zaterdag 21 april 2007 @ 04:36:
[...]


512 is op dit moment genoeg voor iedere resolutie, en zoals je uit de benches van 320 vs 640 kan uitmaken is er géén verschil zolang je op een "mainstream" reso als 1280 of 1680x1050 gamet. Maw het percentage mensen dat meer dan 512 of zelfs 320MB nodig heeft is al zeer gering, laat staan dan 768MB. 512 is dus atm bezwaarlijk net genoeg te noemen, eerder futureproof nog. Dat extra geheugen op de GTX heeft imo atm weinig nut, hoewel 't natuurlijk een fantastisch marketingwapen is en later misschien wel handig wordt, al vrees ik dat tegen dan de core al de bottleneck vormt (een beetje een 7300GS 512 verhaal dus).
Laten nu net veel mensen die zulke dure videokaarten kopen een monitor hebben die veel hogere reso's aankan.

En ik snap niet dat er mensen zijn die naar "de toekomst" kijken. Of kijken naar het zgn futureproof zijn van een kaart. 9 van de 10 mensen die een 8800GTX of HD2900 kaart kopen hebben een jaar later een andere (snellere) kaart.. Dus dat hele futureproof verhaal is gewoon geen discussie voor mij. NIKS is imho futureproof in hardwareland. Het gaat allemaal om de korte termijn van ongeveer een jaar... Hoeveel mensen hebben nu nog een 7800GTX of X1800? Juistem. Niet zo heel veel. Mensen switchen gewoon erg snel naar iets snellers... ;)

Laatste Edit;

Ik zie hier erg veel dingen voorbij komen die zijn gebaseerd op geruchten, en niet op feiten.

[ Voor 29% gewijzigd door Format-C op 21-04-2007 08:21 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 19:18
Anoniem: 156281 schreef op zaterdag 21 april 2007 @ 04:36:
[...]


512 is op dit moment genoeg voor iedere resolutie, en zoals je uit de benches van 320 vs 640 kan uitmaken is er géén verschil zolang je op een "mainstream" reso als 1280 of 1680x1050 gamet. Maw het percentage mensen dat meer dan 512 of zelfs 320MB nodig heeft is al zeer gering, laat staan dan 768MB. 512 is dus atm bezwaarlijk net genoeg te noemen, eerder futureproof nog.
Wel grappig om te lezen dat een argument als "je hebt niets aan teveel geheugen" twee jaar geleden bij de strijd 7800GTX 256 Mb vs. X1800XT 512 Mb in dit topic helemaal geen issue was. Het was juist goed dat de X1800XT meer geheugen had dan op dat moment noodzakelijk was, want dat maakte hem futureproof. Nu heeft de concurrent van Ati er een sloot geheugen opgezet, is het juist weer andersom. Het is ook nooit goed. Als er straks een XTX 1 Gb :9 is, dan hoor je hier niemand zeggen dat 1 Gb dikke onzin is.
768 Mb zit er gewoon op omdat de bus 384 bits breed is. Zo is de kaart ontworpen, dus 768 Mb is de meest logische hoeveelheid geheugen. Bovendien zou de G80 in de toekomst (ik moet het eerst nog zien) ook physics berekeningen gaan doen. Voor berekeningen is geheugenruimte nodig, dus je kunt mijn inziens nooit teveel hebben als je naast graphics ook nog andere toepassingen hebt voor je kaart.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 23009 schreef op zaterdag 21 april 2007 @ 03:10:
1 kaart met 512Bit 512MB GDDR3 @ 800Mhz kan meer bewerken dan 1 kaart met 384 Bit 768MB GDDR3 @ 900Mhz omdat die HD 2900 XT 128Bit meer heeft dus kan die ook meer bewerken dan die 8800GTX op max settings met minder hoeveelheid geheugen.

I.A.W. 512Bit 512 MB GDDR3 heeft meer nut als 384Bit 768MB GDDR3

Des te meer geheugen bandbreedte als bit breedte des te meer performance men kan halen op hogere reso's dit heeft niets met de hoeveelheid ram te maken!
Ik heb dit verhaal hierboven al met een duidelijk voorbeeld ontkracht: 320mb/360bit (GTS320) is regelmatig trager dan 512mb/256bit (ook bij 256bit kaarten van nVidia zelf). Dat terwijl betreffende 256bit kaarten tegelijkertijd nauwelijks kunnen tippen aan de 640mb GTS die verder EXACT hetzelfde is als de 320mb variant.

Als je bovenstaand dogma dan zonodig wilt blijven herhalen, toon dan in ieder geval eerst aan dat mijn tegenargumentatie incorrect is. Textures die niet in het videogeheugen passen - en daarbij kun je nog zoveel bandwith hebben - worden in het trage sysmem gepropt (dat overigens maar 128bits (2x64bits) wijd is). Wat de hele 'bandbreedte maakt al het verschil'-hypothese teniet doet.

@Pine Magnoes:
Ik weet niet van jou, maar ik koop geen hoger geklasseerde 8800 of HD2900 om op 1280 te gamen... en ik denk de meesten met mij niet.
En op 1600x1200 en 1680x1050 is al regelmatig duidelijk verschil zichtbaar met IQ etc aan.

@rappierappie & biobak: idd ;)

[ Voor 9% gewijzigd door Cheetah op 21-04-2007 09:50 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
het begint zo langzaamaan een ATi VS Nvidea te worden in dit forum gedeelte.
Als je niets verwacht van de nieuwe X2900 waarom post je hier uberhaupt iets (tenzij je aandelen hebt van Nvidea, dan snap ik het wel :P)

zowel de hardcore Nvidea als de Hardcore ATi aanhangers kunnen nu nog niets zeggen over de kwaliteit van de X2900, een vergelijking lijkt me daarmee al helemaal misplaatst.
Het zijn ook steeds weer dezelfde onderwerpen die terug komen :
geheugensnelheid en geheugenbandbreedte.

Voor mij is het simpel : ik wacht tot de kaart uit is en vergelijk dan wel. Ik (en veel anderen) kunnen best een maandje wachten als de oude pc nog werkt. DAN zien we wel welke kaart sneller is. Ik heb al heel wat videokaarten versleten van beide merken en ik kan nou niet zeggen dat het ene merk altijd beter is dan de ander. De 8800GTX is duur, maar wat ik lees zijn geld waard, maar de prijs van de X2900 heeft mij toch doen besluiten om nog even te wachten.

Laten we dus gewoon de ontwikkelingen in de gaten houden en de discussie welke beter is nog een maand parkeren.

nope geen signature


Acties:
  • 0 Henk 'm!

  • SgtStrider
  • Registratie: Juli 2003
  • Laatst online: 08-05 13:13

SgtStrider

Fractal Switchover!

Je kan uit deze discussie absoluut 1 ding concluderen; ATi moet(!) de 1GB XTX versie lanceren! Denk dat deze 1GB zeker van pas zal komen op mijn 2560x1600 ;) Blijft alleen gissen over releasedates, wat spanningen met zich meebrengt natuurlijk...

CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Cheetah schreef op zaterdag 21 april 2007 @ 03:10:
[...]
Bij gebruik van AA worden de textures intern op hogere reso gerenderd... waardoor ze automatisch meer geheugen vereisen:
[...]
Bij MSAA, die iedereen hier gebruikt, wordt enkel de geometrie (in de Z buffer) op een hogere resolutie oversampled, hierdoor is de framebuffer even groot maar de Z-buffer meerdere malen groter. Dit is oa de reden waarom dat alpha textures standaard niet geantialiased worden. Hierdoor is de impact voor het geheugen veel kleiner!! Ik denk dat de reden dat de 320 versie zo slecht presteert door slechte driveroptimalisatie is.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dankjewel oeLangOetang. :)

Dat voorbeeld van Cheetah gaat puur over supersampling. De voorkeurs AA methode op dit moment is multisampling. Een wereld van verschil dus aangezien bij SSAA inderdaad de hele scene meerdere keren gerenderd wordt incl. textures en bij MSAA niet. En ik had het over MSAA en niet over SSAA. Had misschien wat duidelijker moeten zijn. Geheugenbandbreedte is nou eenmaal de grootste factor bij AA, AF en HDR en niet de grootte van de geheugenbuffer. Als er te veel discrepantie is tussen twee kaarten op gelijke snelheid, maar met een verschillende framebuffer, dan kan je uitgaan dat de oorzaak ligt in brakke drivers met weinig optimalisaties. Je hebt dus helaas alleen iets ontkracht wanneer er gebruik wordt gemaakt van supersampling AA, Cheetah en niet op het gebied van multisampling.

Overigens zullen de ATI kaarten binnenkort wel goed met alpha textures om kunnen gaan. EATM oftewel Performance Adaptive Anti Aliasing oftewel supersampling kwaliteit op multisampling snelheid.

@ Biobak, jaren zijn de geheugengroottes netjes mee geschaald in groottes van 32 -> 64 -> 128MB -> 256MB -> 512MB... de logische stap is dus 1GB. Zelfs developers als Epic hebben aangegeven dat hun nieuwe engines het beste uit de verf zullen komen op 1GB kaarten. G80 is van huis uit opgebouwd als een 256-bit memory interface, maar pas begin vorig jaar heeft men dit uitgebreid naar een 384-bit memory interface omdat men te horen kreeg dat de concurrentie direct voor 512-bit ging. Dus tot begin vorig jaar ging ook nV uit van de standaard groei van 512MB -> 1GB.

De stap naar 384-bit was dus een noodgreep, maar ook mogelijk door de modulaire bouw van de G80 (ROP partities etc). Ze waren liever naar 512-bit gegaan, maar dit was niet mogelijk op 90nm. Ze hebben zelfs bepaalde dingen uit de G80 moeten slopen en op de externe NVIO chip moeten zetten omdat de G80 anders te groot werd.

Dat dit in de toekomst weer netjes naar 512-bit gaat, is een gegeven. Net zoals de NVIO chip weer geintegreerd gaat worden, want 1 chip produceren is goedkoper dan 2 chips. Getuige ook de de G84 en G86 waar de NVIO chip weer geintegreerd is.

Deze laatste chips zijn ook het grote voorbeeld dat ook NV de 320/640/768 kaarten als buitenbeentjes ziet. De midrange en lowend kaarten hebben allemaal netjes 128MB of 256MB of 512MB aan boord. En ook de nieuwe GF8800GS zal als ik het goed heb begrepen 256MB of 512MB aan boord hebben.

De highend is nog niet eens verantwoordelijk voor 10% van de GPU markt. Ik denk dat gamedevelopers niet alleen de highend markt tevreden willen stellen, maar ook graag de midrange (en in mindere mate lowend) tevreden willen stellen. Uitgaan van de grote noemer is dus uitgaan van standaard geheugenwaardes en niet van afwijkende.

[ Voor 0% gewijzigd door CJ op 21-04-2007 11:17 . Reden: Net gehoord dat er geen GF8800GS komt. Bron: nVidia ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nog een closeup pic van de HD2600XT. Wel apart dat het maximum verbruik op 80W zou zitten (dus omlaag van 125W), maar dat er geen aparte stroomvoorziening is terwijl het PCIe slot maar voor 75W zou kunnen zorgen.

Afbeeldingslocatie: http://i82.photobucket.com/albums/j272/kenofstephen/CIMG0606.jpg

Overigens heb ik gehoord dat AMD voor de HD2600XT in ieder geval de performance van een X1950GT wilde evenaren. Nu maar hopen dat de prijs ook in de buurt (€150) zal zitten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 10:52
CJ schreef op zaterdag 21 april 2007 @ 11:24:
Nog een closeup pic van de HD2600XT. Wel apart dat het maximum verbruik op 80W zou zitten (dus omlaag van 125W), maar dat er geen aparte stroomvoorziening is terwijl het PCIe slot maar voor 75W zou kunnen zorgen.

[afbeelding]

Overigens heb ik gehoord dat AMD voor de HD2600XT in ieder geval de performance van een X1950GT wilde evenaren. Nu maar hopen dat de prijs ook in de buurt (€150) zal zitten.
ATI Radeon HD 2600 XT -> 65W
ATI Radeon HD 2600 PRO -> 55W
ATI Radeon HD 2400 XT -> 20W
ATI Radeon HD 2400 PRO -> 18W

heb je geen MSN CJ?

Acties:
  • 0 Henk 'm!

Anoniem: 156281

biobak schreef op zaterdag 21 april 2007 @ 08:03:
[...]

Wel grappig om te lezen dat een argument als "je hebt niets aan teveel geheugen" twee jaar geleden bij de strijd 7800GTX 256 Mb vs. X1800XT 512 Mb in dit topic helemaal geen issue was. Het was juist goed dat de X1800XT meer geheugen had dan op dat moment noodzakelijk was, want dat maakte hem futureproof. Nu heeft de concurrent van Ati er een sloot geheugen opgezet, is het juist weer andersom. Het is ook nooit goed. Als er straks een XTX 1 Gb :9 is, dan hoor je hier niemand zeggen dat 1 Gb dikke onzin is.
X1800XT was op dat moment de kaart met 't meeste geheugen, er waren ook amper benches die aangaven of dat extra geheugen wel 'n performancewinst gaf. Nu weten we dus wel even beter. Ik zeg niet dat die 768MB op de GTX slecht is, hell, 't kan alleen maar goed zijn, gewoon dat 512MB op de 2900 niet te weinig is, en dat je al ferme toeren mag uithalen om 512 vol te krijgen, laat staan 768 of 1 gig (wat ik al helemaal overkill vind, laat dat duidelijk zijn).

@Cheetah:

Nou, op 1280x1024 zijn er al verschillende games die niet helemaal vlot lopen op highest settings met een 8800GTS. Om dus echt álles maxed out te draaien kan een GTX dus wel van pas komen.

Nogmaals, de discussie draait hier niet om 320 vs 768, maar 512 vs 768MB. Interessante review (is wss wel al es langs geweest, maar kom):
http://www.anandtech.com/video/showdoc.aspx?i=2926&p=6

waarin je ziet dat 320MB idd af en toe tekort schiet, zelfs op 1600x1200 4x AA, maar 512MB blijft over de hele lijn gelijk opschalen, zelfs t.e.m. 2560x1600.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op zaterdag 21 april 2007 @ 10:25:
Bij MSAA, die iedereen hier gebruikt, wordt enkel de geometrie (in de Z buffer) op een hogere resolutie oversampled, hierdoor is de framebuffer even groot maar de Z-buffer meerdere malen groter. Dit is oa de reden waarom dat alpha textures standaard niet geantialiased worden.
<en>
CJ schreef op zaterdag 21 april 2007 @ 11:12:
Dat voorbeeld van Cheetah gaat puur over supersampling. De voorkeurs AA methode op dit moment is multisampling. Een wereld van verschil dus aangezien bij SSAA inderdaad de hele scene meerdere keren gerenderd wordt incl. textures en bij MSAA niet. En ik had het over MSAA en niet over SSAA. Had misschien wat duidelijker moeten zijn. Geheugenbandbreedte is nou eenmaal de grootste factor bij AA, AF en HDR en niet de grootte van de geheugenbuffer. Als er te veel discrepantie is tussen twee kaarten op gelijke snelheid, maar met een verschillende framebuffer, dan kan je uitgaan dat de oorzaak ligt in brakke drivers met weinig optimalisaties. Je hebt dus helaas alleen iets ontkracht wanneer er gebruik wordt gemaakt van supersampling AA, Cheetah en niet op het gebied van multisampling.
Ook bij MSAA worden gedeeltes van de scene meerdere malen gerenderd, en vereist dit dus meer geheugen. Maar het lijkt me vrij logisch dat ik het voornamelijk over SSAA had.

We zijn het er namelijk - voor zover mij bekend - hier allemaal over eens dat:
1. SSAA qua IQ verre superieur is aan MSAA
2. Ultra high end kaarten zoveel mogelijk superieure IQ moeten kunnen weergeven

De optelsom van die 2 maakt dat het wenselijk is dat high end kaarten zoveel mogelijk SSAA i.p.v. MSAA moeten kunnen weergeven. Hiervoor hebben de kaarten gewoon een grotere hoeveelheid geheugen nodig.
Overigens zullen de ATI kaarten binnenkort wel goed met alpha textures om kunnen gaan. EATM oftewel Performance Adaptive Anti Aliasing oftewel supersampling kwaliteit op multisampling snelheid.
Of het ATi werkelijk lukt om SS kwaliteit tegen MS snelheid te kunnen leveren zullen we moeten zien. Zo ja, dan zou dat werkelijk een prestatie van formaat zijn.
Hoe dan ook zal het Anti Aliasen van alpha textures naar ik vermoed ook meer geheugen vragen, gezien er gewoon meer textures gerenderd moeten worden dan bij MS.
G80 is van huis uit opgebouwd als een 256-bit memory interface, maar pas begin vorig jaar heeft men dit uitgebreid naar een 384-bit memory interface omdat men te horen kreeg dat de concurrentie direct voor 512-bit ging. Dus tot begin vorig jaar ging ook nV uit van de standaard groei van 512MB -> 1GB.
De stap naar 384-bit was dus een noodgreep, maar ook mogelijk door de modulaire bouw van de G80 (ROP partities etc).
Behoorlijk knap van nV dan: in 9 maanden tijd het design van de GTX en GTS radicaal omgooien, en dan nog 7 maanden voor de concurrentie - die het design wel al lang had liggen - hun kaarten uitbrengen.
Deze laatste chips zijn ook het grote voorbeeld dat ook NV de 320/640/768 kaarten als buitenbeentjes ziet. De midrange en lowend kaarten hebben allemaal netjes 128MB of 256MB of 512MB aan boord.
De highend is nog niet eens verantwoordelijk voor 10% van de GPU markt. Ik denk dat gamedevelopers niet alleen de highend markt tevreden willen stellen, maar ook graag de midrange (en in mindere mate lowend) tevreden willen stellen. Uitgaan van de grote noemer is dus uitgaan van standaard geheugenwaardes en niet van afwijkende.
Uitgaan van de grote noemer - en de normale gang van zaken bij coden - is bij het opstarten van een game de beschikbare hoeveelheid videogeheugen opvragen, dit opvullen met textures totdat er geen videomem meer over is en daarna verder gaan met textures in het systeemgeheugen te plaatsen.
Bij 'normale' programma's gaat dat net zo: opvragen van de beschikbare hoeveelheid RAM, en dit vullen met data totdat het RAM vol is... en daarna overgaan op het SWOP-bestand.

Ofwel optimaal gebruik van al het geheugen op een kaart, voor zover nodig voor de textures. Of dit nu 64, 128, 256, 360, 384, 512, 640, 768, 1024, 1280, 1536mb (of wat dan ook anders) betreft. In iedere net gecode game (of andere software) hoort dat de normale gang van zaken te zijn.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Cheetah schreef op zaterdag 21 april 2007 @ 14:21:
[...]
We zijn het er namelijk - voor zover mij bekend - hier allemaal over eens dat:
1. SSAA qua IQ verre superieur is aan MSAA
2. Ultra high end kaarten zoveel mogelijk superieure IQ moeten kunnen weergeven

De optelsom van die 2 maakt dat het wenselijk is dat high end kaarten zoveel mogelijk SSAA i.p.v. MSAA moeten kunnen weergeven. Hiervoor hebben de kaarten gewoon een grotere hoeveelheid geheugen nodig.
De huidige kaarten zijn niet geoptimaliseerd voor SSAA omdat die techniek heel slechte performance karakteristieken heeft. SSAA is het frame n maal groter renderen en daarna terugschalen. Het gevolg hiervan is dat de performance impact enorm is, je kunt stellen dat 8x SSAA uitvoeren de performance ook met een factor 8x verminderd en je framebuffer moet ook 8x groter zijn. Het gebruik van weinig SSAA (2-4x) heeft ook een blur effect die meestal niet gewenst is.
Bij MSAA zijn er veel meer mogelijkheden om de performance impact zo klein mogelijk te houden. De Z-buffer die bij MSAA erg groot wordt kan bijvoorbeeld verliesloos gecomprimeerd worden, bij 6x MSAA claimed ati 24x verliesloze compressie. Sinds de R300 kunnen alle radeon kaarten 2x AA toepassen per pass, dus eigenlijk zonder performance impact (behalve een impact op de geheugen bandbreedte). MSAA heeft dan misschien enkel invloed op de randen maar de textures worden al gefilterd, nl bilinear, trilinear of anisotropisch en deze filtering kan ook beter geoptimaliseerd worden. (bv hoekafhankelijk)
Je kunt zeggen dat SSAA een ruwe methode is om AA tegen te gaan terwijl dat MSAA en Aniso efficienter en verfijnder zijn. Zelf pixar is voorzichtig met SSAA!

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cheetah schreef op zaterdag 21 april 2007 @ 14:21:
[...]
Ook bij MSAA worden gedeeltes van de scene meerdere malen gerenderd, en vereist dit dus meer geheugen. Maar het lijkt me vrij logisch dat ik het voornamelijk over SSAA had.

We zijn het er namelijk - voor zover mij bekend - hier allemaal over eens dat:
1. SSAA qua IQ verre superieur is aan MSAA
2. Ultra high end kaarten zoveel mogelijk superieure IQ moeten kunnen weergeven

De optelsom van die 2 maakt dat het wenselijk is dat high end kaarten zoveel mogelijk SSAA i.p.v. MSAA moeten kunnen weergeven. Hiervoor hebben de kaarten gewoon een grotere hoeveelheid geheugen nodig.
Als ik het me goed herinner was je één van de mensen die het destijds overdreven vond dat mensen klaagden over het shimmeringeffect in de GF7 serie.
En nu zijn we het er "allemaal" over eens dat ultra highend kaarten zoveel mogelijk superieure IQ moeten weergeven. :?
Niet dat ik het niet met die stelling eens ben maar om het van jou te horen verbaast me.

Imo was het shimmeren op de Q optie van de GF7 (waarmee ze in de benchmarks in de top bleven, op HQ kakte de GF7 toch behoorlijk in) een stuk erger voor de IQ dan het verschil tussen MSAA en SSAA.

Verder verwacht ik dat de 2900XT zodirekt, als je het totaalpakket incl. o.a. verwachte betere drivers, werking in DX10 etc. optelt, een betere propositie is dan de G80 serie als je nu een nieuwe kaart moet kopen.
De G80 heeft wel meer geheugen maar dat lijkt dan ook het enige voordeel. In hoeverre 320 beter blijkt dan 256 en 768 beter dan 512 durf ik geen antwoord op te geven. Zeker aangezien ook de de bandbreedte een rol speelt en het feit dat de 320 en 640 versies van de G80 ook nog eens 96 ipv 128 shaderprocessors hebben waardoor je je kunt afvragen of die kaarten de resp. 64 en 128mb extra geheugen wel nuttig kunnen inzetten.

Bovenstaande neemt niet weg dat als je destijds zoals ik op de launchdatum al een G80(GTX) hebt gekocht en niet al te veel driverissues hebt gehad je wel al een maand of 7 hebt kunnen profiteren van de tot nu beste (zeer goede!) IQ en Speed. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
We got hold of an early sample of the RV630. The benchmark numbers are encouraging as it beats the hell out of the 8600GTS.

Here are some early results using X6800 processor with 2GB of DDR2-800.

3Dmark06

Radeon HD 2600XT - 5760 marks
GeForce 8600GTS - 5900 marks

3Dmark05

Radeon HD 2600XT - 11652 marks
GeForce 8600GTS - 11500 marks

FEAR (1600x1200)

Radeon HD 2600XT - 29 fps
GeForce 8600GTS - 29 fps
toon volledige bericht
http://hdtvsg.blogspot.co...HD%20X2600XT%20benchmarks

Nou - ziet er toch best goed uit voor een goed koop kaartje...
En zeker voor bijde kaartjes met zulke vage drijvers! :D

Acties:
  • 0 Henk 'm!

Anoniem: 107626

SgtStrider schreef op zaterdag 21 april 2007 @ 10:22:
Je kan uit deze discussie absoluut 1 ding concluderen; ATi moet(!) de 1GB XTX versie lanceren! Denk dat deze 1GB zeker van pas zal komen op mijn 2560x1600 ;) Blijft alleen gissen over releasedates, wat spanningen met zich meebrengt natuurlijk...
QFT

Als je t toch over marketting truukjes hebt: eerst ons lekker te maken met een XTX en dan een XT lanceren..... zeker een van die AMD jongens die dit bedacht heeft.. :(

En wat betreft die 320/640/768: het is niet standaard. Dus je bent overgeleverd aan coders. Er zullen ongetwijfeld wel wat texture packs en optimalisatie patches komen voor de G80 mits nV hun "the way it's meant to be paid" programma doorvoert/indoctrineert.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 11-05 19:34

edward2

Schieten op de beesten

The benchmark numbers are encouraging as it beats the hell out of the 8600GTS.
:?
3Dmark06

Radeon HD 2600XT - 5760 marks
GeForce 8600GTS - 5900 marks

3Dmark05

Radeon HD 2600XT - 11652 marks
GeForce 8600GTS - 11500 marks

FEAR (1600x1200)

Radeon HD 2600XT - 29 fps
GeForce 8600GTS - 29 fps

[ Voor 54% gewijzigd door edward2 op 21-04-2007 15:36 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 13:21
as it beats the hell out of the 8600GTS.

Right... In 3dmark06 wordt ie dik pwned en in 05 haalt ie welgeteld 152 puntjes meer :')

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op zaterdag 21 april 2007 @ 15:03:
[...]

De huidige kaarten zijn niet geoptimaliseerd voor SSAA omdat die techniek heel slechte performance karakteristieken heeft. SSAA is het frame n maal groter renderen en daarna terugschalen. Het gevolg hiervan is dat de performance impact enorm is, je kunt stellen dat 8x SSAA uitvoeren de performance ook met een factor 8x verminderd en je framebuffer moet ook 8x groter zijn. Het gebruik van weinig SSAA (2-4x) heeft ook een blur effect die meestal niet gewenst is.
Bij MSAA zijn er veel meer mogelijkheden om de performance impact zo klein mogelijk te houden. De Z-buffer die bij MSAA erg groot wordt kan bijvoorbeeld verliesloos gecomprimeerd worden, bij 6x MSAA claimed ati 24x verliesloze compressie. Sinds de R300 kunnen alle radeon kaarten 2x AA toepassen per pass, dus eigenlijk zonder performance impact (behalve een impact op de geheugen bandbreedte). MSAA heeft dan misschien enkel invloed op de randen maar de textures worden al gefilterd, nl bilinear, trilinear of anisotropisch en deze filtering kan ook beter geoptimaliseerd worden. (bv hoekafhankelijk)
Je kunt zeggen dat SSAA een ruwe methode is om AA tegen te gaan terwijl dat MSAA en Aniso efficienter en verfijnder zijn. Zelf pixar is voorzichtig met SSAA!
Even for the record: ATi's Quality Adaptive AntiAliasing (AAA) en nV's Transparancy Supersampling Antialiasing (TSAA) zijn beide SuperSampling en vertegenwoodigen het beste wat de fabrikanten aan IQ op AA gebied te bieden hebben.

Er is een duidelijk visueel verschil tussen de twee.
Hier een leuk voorbeeld: http://www.reflectonreality.com/images/rtcw/index.html
Of Xbitlabs: 4xMSAA (ATi) vs 4xSSAA (ATi QAAA)
Wat is er hier 'verfijnder' if I might ask?

Jouw manier van redeneren is hetzelfde als stellen dat normale lightmaps 'efficienter en verfijnder' zijn dan HDR, omdat HDR meer geheugen/bandbreedte en performance vreet. Hetzelfde voor alle andere IQ opties. Zullen we IQ dan maar meteen helemaal afschaffen, gezien het meer eisen aan een kaart stelt dan geen IQ? Als dat de criteria zijn lust ik er nog wel meer zo :/

Ik kan me herinneren dat toen bleek dat de performance van de X19x0 serie met SSAA vaak hoger was dan dat van 7900's dit als een duidelijk voordeelpunt van de X19x0 werd aangemerkt, en terecht.
Het valt me - net als anderen eerder al opmerkten - altijd heel erg op hoe snel men in dit topic van mening veranderd, afhankelijk van of iets in het voor- of nadeel van ATi uitgelegd kan worden. Zodra ATi de 1GB XTX uitbrengt kunnen we weer het tegenovergestelde verhaal beluisteren: dat de 2900XTX beter/meer SSAA kan doen dan de 8800GTX/Ultra, vanwege het grotere geheugen. Zeer vermoeiend om op deze manier gesprekken te moeten voeren.
Help!!!! schreef op zaterdag 21 april 2007 @ 15:14:
Als ik het me goed herinner was je één van de mensen die het destijds overdreven vond dat mensen klaagden over het shimmeringeffect in de GF7 serie.
En nu zijn we het er "allemaal" over eens dat ultra highend kaarten zoveel mogelijk superieure IQ moeten weergeven. :?
Niet dat ik het niet met die stelling eens ben maar om het van jou te horen verbaast me.
Als je het je nog beter herinnert dan herinner je je dat ik aangaf dat in de games die shimmerden de HQ modus moest worden gebenched, en in het overgrote deel van de games (die dus niet shimmerden) de Q modus moest worden gebruikt. Dit omdat er verder nauwelijks visueel verschil zat tussen Q en HQ en je dus in de meeste games anders letterlijk voor nop een dot performance zat in te leveren ;)

Verder heb ik zelf nooit last gehad van shimmering, of anders is het me nooit opgevallen.
QAAA/TSAA vs MSAA levert echter een duidelijk merkbaar kwaliteitsverschil op - in vrijwel alle games.
Anoniem: 107626 schreef op zaterdag 21 april 2007 @ 15:30:
En wat betreft die 320/640/768: het is niet standaard. Dus je bent overgeleverd aan coders. Er zullen ongetwijfeld wel wat texture packs en optimalisatie patches komen voor de G80 mits nV hun "the way it's meant to be paid" programma doorvoert/indoctrineert.
Zoals ik onderaan mijn vorige post al vrij uitgebreid uitleg maakt het in een net gecode game vrij weinig uit of de memconfig van een videokaart 'standaard' is of niet. Een net gecode game vult namelijk altijd eerst het totaal beschikbare videomem, en gaat daarna verder met textures in het ram te plaatsen.

[ Voor 7% gewijzigd door Cheetah op 21-04-2007 16:18 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

leonpwner1 schreef op zaterdag 21 april 2007 @ 15:55:
as it beats the hell out of the 8600GTS.

Right... In 3dmark06 wordt ie dik pwned en in 05 haalt ie welgeteld 152 puntjes meer :')
We got hold of an early sample of the RV630.
* Jejking mompelt iets over vroege drivers en clockspeeds die niet final zijn :z

En een verschil van 2.4% is niet pwned ;)

Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Cheetah

Ach ja sinds dat dat ik ook vaker met prototypes werk Zoals die van 3dfx, de3dfx Voodoo 5 6000 AGP128MB [4x 32MB], die heeft eerlijk gezegt 4x 32MB 128Bit SDRAM wat overheen kwam met 32MB 512Bit SDRAM en in de meest gebieden wassie sneller dan een GeForce2 Ultra a GeForce3 T200 soms sneller dan een GeForce4 Ti4200 AGP 128MB DDR 128Bit...
http://www.3dcenter.org/artikel/voodoo5-6000/index20.php

de 3dfx kaart had maar 4x 32MB 128Bit SDR dat tegen 1x 128MB 128Bit DDR en toch het te kunnen verslaan zonder T&L grappen noem maar op geheugen bandbreedte is juist enorm belangerijk op hoge reso's waarbij hoeveelheid vaak niets uitmaakt de 6000 AGP heeft een geheugenbandbreedte van 10.2GB per sec de Ti4200 heeft maar 8GB per sec... ;)

Dus ik denk eerder dat die HD2900 XT beter geoptimaliseerd zal zijn voor toekomstige dingen als die 8800GTX omdat het ook een veel nieuwer ontwerp is, meer gheugen bandbreedte en daardoor heeft ie voldoende aan 512Bit 512MB GDDR3 maar ach ik maak me hier niet zo druk om weet je, eind deze maand komen we er ook wel achter, toch ;)

En ach ja om eerlijk te zijn valt het allemaal erg tegen dat neiwue spul van nu men verwacht gewoon veel meer, ook het voordeel van een Retro gamer zijnde, het maakt iig allemaal niet meer zo veel uit, want eerlijk gezegt is het niet nodig allemaal geldsnokkerij.

[ Voor 46% gewijzigd door Anoniem: 23009 op 21-04-2007 18:15 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Het gaat weer goed hier :)

Over dat geheugen :P Bij werk geheugen van een PC zie je BV dat meer altijd beter is dan snel. Zodra je geheugen vol is moet je naar de HD en dan is je performance helemaal gaar. Zo lang je data in dat snelle geheugen past is het goed.

Je kunt volgens mij beter 1 GB 600 MHz geheugen hebben op 256 Bit. Dan 128MB 2000 MHz geheugen met 512 Bit. Het zit dan gewoon vol en dan moet je naar de Ram toe wat niet zo snel is want dat is maar ( Maximaal ) 800 MHz op 2x64 Bit ( Als je Dual channel hebt ) En dat wordt ook nog gebruikt voor andere dingen zoals de CPU en zo dus je hebt niet al die bandbreedte tot je beschikking.

Nu is alleen de vraag in hoeverre de drivers en de Games gebruik maken van die extra 256 MB van de 8800 GTX. Ik gok dat je bv met AA en dat soort dingen al een voordeel hebt. Ik weet alleen niet hoe groot het voordeel is.

Ik weet ook niet in hoeverre games geoptimalieerd worden voor BV 256 / 512 en 1024 MB. Of dat 768 ook zonder problemen goede performance verbeteringen laat zien.

Wat ik dus probeer te zeggen.... Het zal vast wel een voordeel hebben de vraag is alleen hoeveel winst je er van hebt.

Bij AA en AF is bandbreedte heel belangrijk maar dan wil ik wel eens een test zien tussen een R600 met 128 MB en 512 Bit bus en een 1 GB met 128 Bit bus. Jammer genoeg is dit niet mogelijk maar zou wel wat duidelijk maken. Misschien valt het wel te testen door een R600 512 mb VS 1 GB te testen. En de 1 GB versie naar 400 MHz mem te clocken en de 512 zo hoog mogelijk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • waterking
  • Registratie: Juli 2005
  • Laatst online: 07-01 12:23
DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

ja you have a point for a certain point of view , heh maar idd wat we wel kunnen onderzoeken is het zelfde met een Radeon 9700 Pro 256Bit 128MB DDR tegen een GeForceFX 5900 Ultra 256Bit 256MB

deze twee zullen eerlijkgezegt gewaagd zijn aanelkaar de 9700 pro heeft maar 128MB DDR maar wel 256Bit die 5900Ultra heeft ook wel 256Bit maar wel 256MB hehe nu iemand zoeken die deze twee ook echt heeft :X
waterking schreef op zaterdag 21 april 2007 @ 18:27:
[...]


DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|
Jawel makkelijk met de HD 2900 XTX 1GB ;)

[ Voor 24% gewijzigd door Anoniem: 23009 op 21-04-2007 18:33 ]


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 23009 schreef op zaterdag 21 april 2007 @ 18:31:
@ Astennu

ja you have a point for a certain point of view , heh maar idd wat we wel kunnen onderzoeken is het zelfde met een Radeon 9700 Pro 256Bit 128MB DDR tegen een GeForceFX 5900 Ultra 256Bit 256MB

deze twee zullen eerlijkgezegt gewaagd zijn aanelkaar de 9700 pro heeft maar 128MB DDR maar wel 256Bit die 5900Ultra heeft ook wel 256Bit maar wel 256MB hehe nu iemand zoeken die deze twee ook echt heeft :X


[...]

Jawel makkelijk met de HD 2900 XTX 1GB ;)
Wel jammer dat de ati 9700pro een 128bit bus heeft
De ati 9800pro heeft wel een 256bit bus

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 10-05 15:58

SG

SG surft naar info hardewaren

waterking schreef op zaterdag 21 april 2007 @ 18:27:
[...]


DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|
575 vs 650 13% meer
1800 vs 2160 20% meer.

misschien 30% tov GTS

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 23009 schreef op zaterdag 21 april 2007 @ 18:31:

Jawel makkelijk met de HD 2900 XTX 1GB ;)
dat duurt nog wel effe denk ik....denk dat die iéts eerder dan de g90 uit zal komen...

maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..

daar kan een xt het nog zwaar mee krijgen...maar eerst de prijzen maar eens afwachten
SG schreef op zaterdag 21 april 2007 @ 19:03:
[...]


575 vs 650 13% meer
1800 vs 2160 20% meer.

misschien 30% tov GTS
1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)

[ Voor 22% gewijzigd door Mr. Detonator op 21-04-2007 19:10 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Missing MuL sorry dat versta ik niet hoor hahah das een beetje te russisch voor me ik weet niet wat dat doet of dat de R600 ook zo iets heeft :X

Excuus me lompheid :D O+

[ Voor 3% gewijzigd door Anoniem: 23009 op 21-04-2007 19:12 ]


Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Anoniem: 8819 schreef op zaterdag 21 april 2007 @ 18:37:
[...]


Wel jammer dat de ati 9700pro een 128bit bus heeft
De ati 9800pro heeft wel een 256bit bus
De geheugenbus van een 9700Pro is wel 256-bit.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Mr. Detonator schreef op zaterdag 21 april 2007 @ 19:07:
[...]


dat duurt nog wel effe denk ik....denk dat die iéts eerder dan de g90 uit zal komen...

maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..

daar kan een xt het nog zwaar mee krijgen...maar eerst de prijzen maar eens afwachten


[...]

1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)
toon volledige bericht
Een verschil t.o.v de huidige GTX mss. Maar door drivers zit er nog HEEL wat rek in de G80.

[ Voor 13% gewijzigd door Anoniem: 162692 op 21-04-2007 19:13 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

hmm leest niet echt makkelijk sorry:

"NVIDIA's documentation for G80 states that each SP is able to dual-issue a scalar MADD and MUL instruction per cycle, and retire the results from each once per cycle, for the completing instruction coming out of the end."

SP , MADD en MUL zegt me niks dat had je niet vroeger, vroeger zat alles nog normaal in elkaar I guess.

Heh geen wonder maar goed wat het is zal wel belangerijk zijn dan.

[ Voor 4% gewijzigd door Anoniem: 23009 op 21-04-2007 19:16 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Cheetah schreef op zaterdag 21 april 2007 @ 15:56:
[...]
Even for the record: ATi's Quality Adaptive AntiAliasing (AAA) en nV's Transparancy Supersampling Antialiasing (TSAA) zijn beide SuperSampling en vertegenwoodigen het beste wat de fabrikanten aan IQ op AA gebied te bieden hebben.
Er is een duidelijk visueel verschil tussen de twee.
Wat is er hier 'verfijnder' if I might ask?
Ze gebruiken selectief supersampling en met een redelijke performance hit. Waarom denk je dat amd nu werkt aan een beter techniek (EATM) die het probleem oplost bij de transparancy resolve ipv te supersampelen. Met verfijnder bedoel ik dat het met een minimale performance hit een goed resultaat heeft, waarom textures gaan supersampelen, het effect is minimaal...
Jouw manier van redeneren is hetzelfde als stellen dat normale lightmaps 'efficienter en verfijnder' zijn dan HDR, omdat HDR meer geheugen/bandbreedte en performance vreet. Hetzelfde voor alle andere IQ opties. Zullen we IQ dan maar meteen helemaal afschaffen, gezien het meer eisen aan een kaart stelt dan geen IQ? Als dat de criteria zijn lust ik er nog wel meer zo :/
lol, je kan hdr perfect met lightmaps combineren, lightmaps zijn trouwens zo uit, PRT's zijn veel cooler
je weet blijkbaar niet wat een lightmap of hdr is
Als we jouw redenering volgen dat moeten we maar gaan raytracen of photon mapping gaan gebruiken.
Ik kan me herinneren dat toen bleek dat de performance van de X19x0 serie met SSAA vaak hoger was dan dat van 7900's dit als een duidelijk voordeelpunt van de X19x0 werd aangemerkt, en terecht.
Het valt me - net als anderen eerder al opmerkten - altijd heel erg op hoe snel men in dit topic van mening veranderd, afhankelijk van of iets in het voor- of nadeel van ATi uitgelegd kan worden. Zodra ATi de 1GB XTX uitbrengt kunnen we weer het tegenovergestelde verhaal beluisteren: dat de 2900XTX beter/meer SSAA kan doen dan de 8800GTX/Ultra, vanwege het grotere geheugen. Zeer vermoeiend om op deze manier gesprekken te moeten voeren.
huh? btw ati heeft geen fullscreen SSAA ondersteuning meer (sinds de R3xx)


trouwens, de missing MUL is onlangs gevonden & er wordt momenteel wat winst mee behaalt:
http://www.beyond3d.com/content/reviews/7/17
Deze MUL is niet altijd beschikbaar

Acties:
  • 0 Henk 'm!

Anoniem: 107573

Mr. Detonator schreef op zaterdag 21 april 2007 @ 19:07:
[...]


maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..


[...]


1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)
toon volledige bericht
Kan idd niet anders, want die opgekrikte clockspeeds zorgen imo nooit en te nimmer voor een 30% snelheidswinst :)

Ze hebben gewoon die shaders gepimpt lol.

Tóch ga ik mij inhouden en wachten op G90/R650 R700 what so ever O-)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Anoniem: 107573 schreef op zaterdag 21 april 2007 @ 20:48:
[...]


Kan idd niet anders, want die opgekrikte clockspeeds zorgen imo nooit en te nimmer voor een 30% snelheidswinst :)

Ze hebben gewoon die shaders gepimpt lol.

Tóch ga ik mij inhouden en wachten op G90/R650 R700 what so ever O-)
Inderdaad en ik denk ook dat die 30% is hele speciale gevallen is en zeker niet in elk spel.

En wat ik zo lees is dat die Mul hoort bij de SFU ( wat dat ook mag zijn ) Maar die heeft die 2e Mul Alu niet altijd nodig. En dan kan hij voor andere dingen gebruikt worden. Op dat moment zou je een MuL performance hebben van 1.15x ipv 1.0.

[ Voor 21% gewijzigd door Astennu op 21-04-2007 22:38 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op zaterdag 21 april 2007 @ 13:20:
[...]


ATI Radeon HD 2600 XT -> 65W
ATI Radeon HD 2600 PRO -> 55W
ATI Radeon HD 2400 XT -> 20W
ATI Radeon HD 2400 PRO -> 18W

heb je geen MSN CJ?
Jawel, klik op m'n profiel voor het adres. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
SFU = special function unit (sinussen, cosinussen, machten etc berekenen)
eigenlijk bestaat een g80 shader unit uit een scalaire en een special function ALU, die sfu is ook een stuk trager, 1 bewerking kost 4 klokpulsen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
oeLangOetan schreef op zondag 22 april 2007 @ 00:19:
SFU = special function unit (sinussen, cosinussen, machten etc berekenen)
eigenlijk bestaat een g80 shader unit uit een scalaire en een special function ALU, die sfu is ook een stuk trager, 1 bewerking kost 4 klokpulsen.
Ah op die manier. En waarvoor hebben ze die 2e MUL ALU dan ? Om die SFU van werk te voorzien ? Misschien moet ik vragen wat wat een MUL en MADD bewerking doet :) Dan wordt het misschien wel duidelijk.

En de R600 gebruikt toch VEC ipv MUL ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 06:58

Milmoor

Footsteps and pictures.

Zitter er tegenwoordig nog hoog kwaliteit analoge uitgangen op de ATI-kaarten?
Omdat de nieuwe videokaart van mijn vriendin problemen had (liep vast bij 3d acties) heb ik die tijdelijk in mijn pc geprikt. Ik heb daar normaal gesproken een 800 Pro in, en nu een 1950 Pro. Tot mijn verrassing was het 2d beeld ook niet in orde , het was niet scherp.Is dat een teken dat de kaart echt niet in orde is, of zijn de analoge uitgangen tegenwoordig minder van kwaliteit, of zit het in het koppelstuk (normaal rechtstreeks analoog, nu analoog via DVI-adapter)? Mijn verwachting/vrees is het tweede. Ik draai op een Sony GDM FW900, 1900x1200@85Hz. Ik kan mij voorstellen dat men daar niet echt rekening mee houdt, maar ATI had altijd behoorlijk goede videosignaalkwaliteit.

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 11-05 20:59

Bever!

3

Milmoor schreef op zondag 22 april 2007 @ 13:59:
Zitter er tegenwoordig nog hoog kwaliteit analoge uitgangen op de ATI-kaarten?
Omdat de nieuwe videokaart van mijn vriendin problemen had (liep vast bij 3d acties) heb ik die tijdelijk in mijn pc geprikt. Ik heb daar normaal gesproken een 800 Pro in, en nu een 1950 Pro. Tot mijn verrassing was het 2d beeld ook niet in orde , het was niet scherp.Is dat een teken dat de kaart echt niet in orde is, of zijn de analoge uitgangen tegenwoordig minder van kwaliteit, of zit het in het koppelstuk (normaal rechtstreeks analoog, nu analoog via DVI-adapter)? Mijn verwachting/vrees is het tweede. Ik draai op een Sony GDM FW900, 1900x1200@85Hz. Ik kan mij voorstellen dat men daar niet echt rekening mee houdt, maar ATI had altijd behoorlijk goede videosignaalkwaliteit.
waarom vraag je naar de kwaliteit van de analoge uitgang terwijl die er niet op zit??

Acties:
  • 0 Henk 'm!

  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 07:20

Wildfire

Joy to the world!

Bever! schreef op zondag 22 april 2007 @ 14:53:
[...]

waarom vraag je naar de kwaliteit van de analoge uitgang terwijl die er niet op zit??
DVI -> Analoog is eigenlijk gewoon helemaal analoog, omdat bijna alle gebruikte DVI-aansluitingen een paar pinnetjes hebben waar een doodnormaal analoog signaal opstaat. De DVI -> analoog adapter is er puur om dat signaal op te pikken en aan te bieden via een normale VGA (D-sub) aansluiting.

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Astennu schreef op zondag 22 april 2007 @ 12:09:
[...]
Ah op die manier. En waarvoor hebben ze die 2e MUL ALU dan ? Om die SFU van werk te voorzien ? Misschien moet ik vragen wat wat een MUL en MADD bewerking doet :) Dan wordt het misschien wel duidelijk.
En de R600 gebruikt toch VEC ipv MUL ?
ALU, Arithmetic logic unit is een eenheid op een processor die een aantal bewerkingen kan uitvoeren (bv vermenigvuldigen, optellen, delen, shift etc). De ALU is een soort zwarte doos waarin een aantal getallen stopt met een bepaalde instructie bv vermenigvuldig en dan gaat de ALU die bewerking uitvoeren en het getal uitsturen.
Hierop zijn een aantal variaties mogelijk:
SISD: Single instruction, single data
Dit is de soort die je in de G80 vindt, dat wil zeggen dat er op 1 datastream 1 instructie wordt uitgevoerd: bijvoorbeeld 1 x 3: lees "1", lees "3", doe de vermenigvuldiging (dus enkele data stream 1 instructie)
1 en 3 zijn de datastream, x is de instructie; de uikomst is 3 wordt uitgezonden.
(Als de geruchten kloppen zullen er 64 van deze units in de R600 zitten)
SIMD: Single instruction, multiple data
De R600 zal 64, vec4 SIMD units hebben
Deze ALU's kunnen 1 instructie uitvoeren op meerdere datasteams, dit is vooral interessant voor vectoren of data die samenhoort. Vectoren kunnen kleuren (die uit 3 componenten, rood, groen, blauw bestaan), of posities, snelheid, versnellingen zijn (xyz - coördinaten).
Als we bijvoorbeeld alle componenten van een (24b) kleur willen inverteren: lees "255,255,255", lees kleur "r,g,b", doe de aftrekking (dus meerdere data, en 1 instructie)
Er wordt wel eens gezegd dat SIMD werkt op packed data ofwel, samengestelde data, op een CPU kan er een zekere penalty zijn om data te groeperen, op GPU's is de data meestal reeds gegroepeerd, GPU's kennen ook geen flexibele datatypes. Het probleem is dat een SIMD architectuur een bepaalde invoer breedte heeft, bijvoorbeeld 4 elementen, of vec4, om de SIMD unit volledig te gebruiken moet je dus 1 instructie uitvoeren op een vector met lengte 4. Dit is niet altijd mogelijk.
SIMD's ondersteunen soms ook vector specifieke instructies zoals het normaliseren van een vector, het puntproduct.

MIMD en MISD bestaan ook maar zijn nu niet van toepassing
(btw ik heb hier sterk vereenvoudigd, eigenlijk zit een SIMD MIMD of SISD architectuur op een niveau hoger dan de ALU, een MIMD kan bv uit meerdere basis - ALU's bestaan en zo een super-alu vormen)

Intern is de ALU op gebouwd uit een MULs en ADDs en controle logica (en nog veel meer), een MUL is een multiplier, een ADD is een adder, een DIV is een divider etc etc. Blijkbaar zit er in de SFU van de G80 een MUL die beschikbaar is als deze unit niet gebruikt wordt. Als de unit wel gebruikt wordt kan het zijn dat deze MUL voor het berekenen van sinussen wordt gebruikt.

Acties:
  • 0 Henk 'm!

Anoniem: 107626

Reminder: 23-25 april Tunesië!

Het is weer tijd voor wat nieuwe geruchten :9

Acties:
  • 0 Henk 'm!

Anoniem: 199989

ik hoop dat het geen geruchten meer zijn,maar effectieve specs en zo...ik heb mijn dikke buik vol van geruchten...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
oeLangOetan schreef op zondag 22 april 2007 @ 19:32:
[...]

ALU, Arithmetic logic unit is een eenheid op een processor die een aantal bewerkingen kan uitvoeren (bv vermenigvuldigen, optellen, delen, shift etc). De ALU is een soort zwarte doos waarin een aantal getallen stopt met een bepaalde instructie bv vermenigvuldig en dan gaat de ALU die bewerking uitvoeren en het getal uitsturen.
Hierop zijn een aantal variaties mogelijk:
SISD: Single instruction, single data
Dit is de soort die je in de G80 vindt, dat wil zeggen dat er op 1 datastream 1 instructie wordt uitgevoerd: bijvoorbeeld 1 x 3: lees "1", lees "3", doe de vermenigvuldiging (dus enkele data stream 1 instructie)
1 en 3 zijn de datastream, x is de instructie; de uikomst is 3 wordt uitgezonden.
(Als de geruchten kloppen zullen er 64 van deze units in de R600 zitten)
SIMD: Single instruction, multiple data
De R600 zal 64, vec4 SIMD units hebben
Deze ALU's kunnen 1 instructie uitvoeren op meerdere datasteams, dit is vooral interessant voor vectoren of data die samenhoort. Vectoren kunnen kleuren (die uit 3 componenten, rood, groen, blauw bestaan), of posities, snelheid, versnellingen zijn (xyz - coördinaten).
Als we bijvoorbeeld alle componenten van een (24b) kleur willen inverteren: lees "255,255,255", lees kleur "r,g,b", doe de aftrekking (dus meerdere data, en 1 instructie)
Er wordt wel eens gezegd dat SIMD werkt op packed data ofwel, samengestelde data, op een CPU kan er een zekere penalty zijn om data te groeperen, op GPU's is de data meestal reeds gegroepeerd, GPU's kennen ook geen flexibele datatypes. Het probleem is dat een SIMD architectuur een bepaalde invoer breedte heeft, bijvoorbeeld 4 elementen, of vec4, om de SIMD unit volledig te gebruiken moet je dus 1 instructie uitvoeren op een vector met lengte 4. Dit is niet altijd mogelijk.
SIMD's ondersteunen soms ook vector specifieke instructies zoals het normaliseren van een vector, het puntproduct.

MIMD en MISD bestaan ook maar zijn nu niet van toepassing
(btw ik heb hier sterk vereenvoudigd, eigenlijk zit een SIMD MIMD of SISD architectuur op een niveau hoger dan de ALU, een MIMD kan bv uit meerdere basis - ALU's bestaan en zo een super-alu vormen)

Intern is de ALU op gebouwd uit een MULs en ADDs en controle logica (en nog veel meer), een MUL is een multiplier, een ADD is een adder, een DIV is een divider etc etc. Blijkbaar zit er in de SFU van de G80 een MUL die beschikbaar is als deze unit niet gebruikt wordt. Als de unit wel gebruikt wordt kan het zijn dat deze MUL voor het berekenen van sinussen wordt gebruikt.
toon volledige bericht
Aha dat maakt alles een stuk duidelijker :D Hoe kom je eigenlijk aan al deze informatie ? Ik vind dit wel super interessant en zou er graag nog dieper op in gaan.

Ik zag ook op de FP dat de eerste laptop met 8600 GO al aangekondigd is. Ik ben wel benieuwd naar de RV630 M of misschien R600 M. Want mijn 7600 GO trekt games als supreme commander of C&C Tiberium wars al niet lekker meer. Moet ik naar low/medium detail.
A12 silicon is up

The current RV630 samples runs at 800 MHz. we are talking about A12 samples while the A14 should be the final version. Normally ATI launches A13 as the final version but obviously something went wrong with that chip so the company decide to move for the A14 version.

The bad thing about this card is or course that it uses 128 bit memory controller and that the performance won't be that great on high resolutions with FSAA and Aniso on.

The 800 MHz might not be the final clock as the 65 nanometre chip should be able to score even more than that. We think that ATI has really big chances to win the mainstream battle this time.
Volgens mij waren de scores van de RV630 XT die we laatst zagen niet op die clockspeeds. En zou wel leuk zijn als A14 nog sneller kan :D

[ Voor 11% gewijzigd door Astennu op 23-04-2007 09:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Astennu schreef op maandag 23 april 2007 @ 08:43:
[...]

Aha dat maakt alles een stuk duidelijker :D Hoe kom je eigenlijk aan al deze informatie ? Ik vind dit wel super interessant en zou er graag nog dieper op in gaan.
Ik studeer industrieel ingenieur in elektronica / ICT, vhdl en chipontwerp is een stuk van mijn opleiding

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
oeLangOetan schreef op maandag 23 april 2007 @ 09:57:
[...]

Ik studeer industrieel ingenieur in elektronica / ICT, vhdl en chipontwerp is een stuk van mijn opleiding
Aha vandaar :D is daar toevallig een boek waar al die dingen instaan ? Want misschien moet ik die maar eens bestellen :)

[ Voor 10% gewijzigd door Astennu op 23-04-2007 10:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Aangezien ik de laatste tijd voornamelijk bezig ben met Video (H264/AVC etc.), ben ik geinteresseerd in de Universal Video Decoder op de aanstaande generatie kaarten. Met name de mogelijkheden hiervan, en dan ook in combinatie met de geluidschip die op sommige van de volgende kaarten schijnt te zitten.

Heeft iemand al details hierover ? Is deze decoder werkelijk Universeel (doet is MPEG2 t/m MPEG4 in alle varieteiten, dus ook Advanced Simple) ? Doe ie ook geluid, en welke generatie dan ? (de nieuwe Dolby/DTS-HD formaten ?)

Kortom, in het kort: Heeft iemand al duidelijke verhalen op het i-net gespot mbt UVD ?

Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 08-05 17:29

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Is het eigenlijk zoveel duurder om een chip met een 256bit memoryinterface te produceren dan eentje met een 128bit?
Anders zou het toch gewoon een goed idee zijn om een chip zoals de RV630 met 256bit uit te rusten?

Dan laat je de competitie (ver) achter je voor het zelfde geld en trek je in ieder geval héél veel mensen naar je toe als klant en mogelijk toekomstige klant, of zie ik dat verkeerd?

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Astennu schreef op maandag 23 april 2007 @ 10:05:
[...]
Aha vandaar :D is daar toevallig een boek waar al die dingen instaan ? Want misschien moet ik die maar eens bestellen :)
SIMD en SISD heb ik geleerd bij een labo met DSP processoren en er werd even kort op ingegaan bij computerarchitecturen (von neuman, harvard etc)
Als je over ALU's wilt leren is er eerst een cursusje digitale technieken, 2 semesters. Je begint met de bool algebra, dan ga je beginnen werken met poortjes werken, en uiteindelijk leer je je eerste elementen bv tellers, half/full adders, multiplexers etc. Hierna komen complexere elementen zoals ringtellers en dan een erg bellangrijk stuk state machines.
Hierna moet je een stuk geheugen structuur studeren, wat is sram, wat is dram, wat is flash opbouw voor/nadelen, adresseringsmogelijkheden.
Dit vindt je allemaal in Digital Design, principles and practices van John F. Wakerly, zeer goed boek.

Uiteindelijk kom je bij vhdl het basisboek is Circuit Design with VHDL, dit is enkel om de taal te leren. Goede VHDL schrijven leer ik nu in de labo's, dat moet je leren van mensen die daar ervaren in zijn en van die mensen ben ik nu wat van het ALU design aan het zien.

Je kunt het het boek van John F Wakerly kiezen, die verwacht niet al te veel voorkennis (enkel de basiselektronica, vooral cmos) en is goed geschreven, maar je zult er maar weinig over ALU's in vinden, wel veel interessante zaken over digitale elektronica dus als je geïnteresseerd bent, een aanrader.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Oet schreef op maandag 23 april 2007 @ 10:18:
Is het eigenlijk zoveel duurder om een chip met een 256bit memoryinterface te produceren dan eentje met een 128bit?
Anders zou het toch gewoon een goed idee zijn om een chip zoals de RV630 met 256bit uit te rusten?

Dan laat je de competitie (ver) achter je voor het zelfde geld en trek je in ieder geval héél veel mensen naar je toe als klant en mogelijk toekomstige klant, of zie ik dat verkeerd?
Je ziet dit wel goed. De Chip aanpassen is niet zo heel duur. Maar het grote verschil zit em in de PCB en het aantal geheugen chips dat nodig is.

Ik dit dat 128 Bit de RV630 wel nekt aangezien de performance in de buurd kan komen van de X1950 Pro. nu zit wel wel 1000-1100 MHz geheugen op die kaartjes. Dus het verschil in bandbreedte is misschien 30-40%

Maar het wordt inderdaad tijd dat de midrange kaartjes 256 Bit gaan krijgen. De volgende generatie chips is gewoon te snel. Of ze moeten er 2000 MHz ( 4000 DDR ) GDDR4 op knikkeren. Maar dat is volgens mij ook best duur....
oeLangOetan schreef op maandag 23 april 2007 @ 10:37:
[...]

SIMD en SISD heb ik geleerd bij een labo met DSP processoren en er werd even kort op ingegaan bij computerarchitecturen (von neuman, harvard etc)
Als je over ALU's wilt leren is er eerst een cursusje digitale technieken, 2 semesters. Je begint met de bool algebra, dan ga je beginnen werken met poortjes werken, en uiteindelijk leer je je eerste elementen bv tellers, half/full adders, multiplexers etc. Hierna komen complexere elementen zoals ringtellers en dan een erg bellangrijk stuk state machines.
Hierna moet je een stuk geheugen structuur studeren, wat is sram, wat is dram, wat is flash opbouw voor/nadelen, adresseringsmogelijkheden.
Dit vindt je allemaal in Digital Design, principles and practices van John F. Wakerly, zeer goed boek.

Uiteindelijk kom je bij vhdl het basisboek is Circuit Design with VHDL, dit is enkel om de taal te leren. Goede VHDL schrijven leer ik nu in de labo's, dat moet je leren van mensen die daar ervaren in zijn en van die mensen ben ik nu wat van het ALU design aan het zien.

Je kunt het het boek van John F Wakerly kiezen, die verwacht niet al te veel voorkennis (enkel de basiselektronica, vooral cmos) en is goed geschreven, maar je zult er maar weinig over ALU's in vinden, wel veel interessante zaken over digitale elektronica dus als je geïnteresseerd bent, een aanrader.
toon volledige bericht
Ah okeey. Dus als je veel over de opbouw van GPU's wilt weten moet je al aardig wat voorkennis hebben om dat überhaupt te gaan snappen :) ik zal wel eens kijken wat er allemaal is. Het is ook meer voor de hobby dan echt voor het werk. In mijn werk doe ik daar niets mee.

[ Voor 43% gewijzigd door Astennu op 23-04-2007 10:42 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Astennu schreef op maandag 23 april 2007 @ 10:39:
Ah okeey. Dus als je veel over de opbouw van GPU's wilt weten moet je al aardig wat voorkennis hebben om dat überhaupt te gaan snappen :) ik zal wel eens kijken wat er allemaal is. Het is ook meer voor de hobby dan echt voor het werk. In mijn werk doe ik daar niets mee.
Als je geen voorkennis hebt, raad ik je aan om "Computer Organization and Design" van Hennessy and Patterson te lezen. Dit vond ik een boek wat goed te lezen was tijdens mijn bachelors. Begint ook met poortjes om vervolgens naar tellers te gaan en uiteindelijk ALU's. Legt ook principe van cache's, VLIW en pipelines uit. Ze bespreken ook modern-day stuff zoals P4, AMD opteron structuur en Intel IA32 / 64 stuff.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?

[ Voor 5% gewijzigd door Anoniem: 23009 op 23-04-2007 12:42 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Anoniem: 23009 schreef op maandag 23 april 2007 @ 12:42:
de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?
wat zou dat nou meer kosten qua inkoop/production? tientje?

Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 06:58

Milmoor

Footsteps and pictures.

Wildfire schreef op zondag 22 april 2007 @ 17:49:
DVI -> Analoog is eigenlijk gewoon helemaal analoog, omdat bijna alle gebruikte DVI-aansluitingen een paar pinnetjes hebben waar een doodnormaal analoog signaal opstaat. De DVI -> analoog adapter is er puur om dat signaal op te pikken en aan te bieden via een normale VGA (D-sub) aansluiting.
Klopt helemaal zie deze quote uit Wikipedia:

Men kan deze interface echter opdelen in 4 verschillende types:

DVI-A: Deze interface stuurt enkel een analoog signaal door, met als nut om een gewone connector-overgang te maken. Dit type is gelijkwaardig met DVI-I, zoals onderstaande:
DVI-I: Dit was de oorspronkelijke interface, die een combinatie maakte van een digitaal en analoog signaal dat compatibel was met Pc's voorzien van een CRT (of eventueel een digitale) monitor. Kortom, een oplossing om de weg tussen analoog en digitaal onzichtbaar te maken.
DVI-D: De interface die enkel een digitaal signaal draagt. De opmars van DVI-D is nog volop bezig en vele consumentenproducten (zoals digitale televisie en monitors of Tv-toestellen) dragen deze interface al met zich mee.
DVI-D HDCP: Verschillend van DVI-A, DVI-I en DVI-D draagt dit type interface de codering HDCP met zich mee om illegaal gebruik tegen te gaan.


Maar mijn eigenlijke vraag: is de analoge signaalkwaliteit van ATI-videokaarten inderdaad afgenomen bij huidige generaties?

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Joepi schreef op maandag 23 april 2007 @ 12:47:
[...]


wat zou dat nou meer kosten qua inkoop/production? tientje?
ja zo iets maardan nog leek het mij wel waard :) maar idd aan de andere kant als men dat tientje masaal gaat bekijken heh dan gaat het idd erg oplopen ;) good point :D

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Anoniem: 107626 schreef op maandag 23 april 2007 @ 11:41:
[...]


Als je geen voorkennis hebt, raad ik je aan om "Computer Organization and Design" van Hennessy and Patterson te lezen. Dit vond ik een boek wat gaed te lezen was tijdens mijn bachelors. Begint ook met poortjes om vervolgens naar tellers te gaan en uiteindelijk ALU's. Legt ook principe van cache's, VLIW en pipelines uit. Ze bespreken ook modern-day stuff zoals P4, AMD opteron structuur en Intel IA32 / 64 stuff.
Zo iets zoek ik ook. Lijkt me namelijk wel interessant om te lezen hoe die dingen werken. En waar de voor en nadelen zitten.
Anoniem: 23009 schreef op maandag 23 april 2007 @ 12:42:
de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?
De R600 heeft als het goed is een 1024 Bit ring bus en een 512 Bit memory bus. Ik weet ook niet wat dat extra geheugen kost. Maar denk dat het wel meer is dan 10$.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

Heh oke dat wist ik wel maar ik bedoelde de chip zelf zou die gewoon 256Bit zijn net als de R520, R580/580+ of zou die net als de Parhelia512 een echte 512Bit VPU zijn?

Dat bedoelde ik heh :D

[ Voor 9% gewijzigd door Anoniem: 23009 op 23-04-2007 15:40 ]


Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Ik denk dat hij gewoon 256 bit pixel precision heeft. En geen 512bit

[ Voor 17% gewijzigd door mad_max234 op 23-04-2007 16:27 ]

-Andere hobby- -


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Joepi schreef op maandag 23 april 2007 @ 12:47:
wat zou dat nou meer kosten qua inkoop/production? tientje?
512mb snel GDDR3, laat staan GDDR4 zal zeker niet zo goedkoop zijn.
Kijk maar wat 512mb PC3200 (ddr) of PC6400 (ddr2) kost... en dit wordt veel massaler geproduceerd (dus wet van de grote(re) getallen) en door veel meer verschillende fabrikanten (dus meer concurrentie).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Anoniem: 23009 schreef op maandag 23 april 2007 @ 15:31:
@ Astennu

Heh oke dat wist ik wel maar ik bedoelde de chip zelf zou die gewoon 256Bit zijn net als de R520, R580/580+ of zou die net als de Parhelia512 een echte 512Bit VPU zijn?

Dat bedoelde ik heh :D
Ah je had het over die bits. Dat weet ik niet. Zou je aan CJ moeten vragen. Had die Parhelia al 512 ? Ik vraag me dan wel af wat het voordeel was. Want zo verschrikkelijk snel was die chip niet. De 9700 Pro ging er dik overheen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Daaaaf
  • Registratie: Januari 2004
  • Laatst online: 18-04 16:19
R600 is zowel intern als extern 512-bits, dit i.t.t. R520 en R580, die intern 512 maar extern 256-bits waren.

Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Daaaaf schreef op maandag 23 april 2007 @ 15:57:
R600 is zowel intern als extern 512-bits, dit i.t.t. R520 en R580, die intern 512 maar extern 256-bits waren.
Nee de R520 is een 256bit gpu en de matrox 512bit gpu.

We hebben het niet over de bus of ring van de kaart. ;) Maar over de GPU zelf dus de pixel precision van de gpu. (dat wilde je toch weten Obi-Wan Kenobi?)

-Andere hobby- -


Acties:
  • 0 Henk 'm!

Anoniem: 23009

mad_max234 schreef op maandag 23 april 2007 @ 16:03:
[...]


Nee de R520 is een 256bit gpu en de matrox 512bit gpu.

We hebben het niet over de bus of ring van de kaart. ;) Maar over de GPU zelf dus de pixel precision van de gpu. (dat wilde je toch weten Obi-Wan Kenobi?)
Yes! :D dat wilde ik weten idd :) ben het iig nog niet kunnen vinden heh. Die Parhelia was idd 512Bit alleen die had een probleem met de memory controller of zo iets anders had het een killer kaart kunnen zjn wel jammer dat Matrox dat niet gelukt was, want qua Image Quallity zat je bij Matrox het beste heh, ik hoop echt dat Matrox ook weer eens terug komt naar deze High end Gamers markt.

maar ik denk dat de R600 nog 256Bit is tenzei dat ie echt 512Bit is ik vraag me ook af hoe dat met de G80U/GTX als GTS zit heh.

CJ weet jij mischien hier wat vanaf?

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

To be honest zou ik graag Matrox, ATi, nVidia én Intel op de gamersmarkt voor videokaarten zien. Een gezonde en concurrerende strijd om de goede top en mid range kaarten neer te zetten, beter voor de technologische push, maar ook voor de prijzen en de keuze. Ik hoor van meer mensen om me heen dat Matrox echt wat goede technieken in die Parhelia had gezet; maar dat de potentie gewoon bij lange (en dan bedoel ik bij lange) niet gehaald werd. Ik hoorde zelfs verhalen dat hij een FX5900 voorbij liep op sommige vlakken :/ ... en dat is een generatie nieuwer en die had veel meer bandbreedte en rauwe power. Ik hoop dat we ze nog terugzien, maar ik twijfel.

[ Voor 37% gewijzigd door Cassius op 23-04-2007 22:06 ]

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 23009 schreef op maandag 23 april 2007 @ 17:50:
[...]


Yes! :D dat wilde ik weten idd :) ben het iig nog niet kunnen vinden heh. Die Parhelia was idd 512Bit alleen die had een probleem met de memory controller of zo iets anders had het een killer kaart kunnen zjn wel jammer dat Matrox dat niet gelukt was, want qua Image Quallity zat je bij Matrox het beste heh, ik hoop echt dat Matrox ook weer eens terug komt naar deze High end Gamers markt.

maar ik denk dat de R600 nog 256Bit is tenzei dat ie echt 512Bit is ik vraag me ook af hoe dat met de G80U/GTX als GTS zit heh.

CJ weet jij mischien hier wat vanaf?
De matrox kaart had geen data compressie (s3texture compresie)(z-buffer) mogelijkheid voor texture.
Dit heeft de kaart genekt
Als de kaart dat wel had gehad waren alle kaarten op dat moment weg geblazen.

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
Cassius schreef op maandag 23 april 2007 @ 21:36:
[...]


To be honest zou ik graag Matrox, ATi, nVidia én Intel op de gamersmarkt voor videokaarten zien. Een gezonde en concurrerende strijd om de goede top en mid range kaarten neer te zetten, beter voor de technologische push, maar ook voor de prijzen en de keuze. Ik hoor van meer mensen om me heen dat Matrox echt wat goede technieken in die Parhelia had gezet; maar dat de potentie gewoon bij lange (en dan bedoel ik bij lange) niet gehaald werd. Ik hoorde zelfs verhalen dat hij een 6800Ultra voorbij liep op sommige vlakken :/ . Ik hoop dat we ze nog terugzien, maar ik twijfel.
ik heb vroeger nog een matrox kaart gehad, heette volgens mij toe mystique. maar dat was nog uit de tijd dat je een losse 3dkaart kon kopen :).

was toen een rete goeie kaart ;)

nope geen signature


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mjah even een correctie, het was niet de 6800Ultra, maar de FX5900 ... laten we het niet te gek maken :P . Zoveel hoef ik ze nu ook weer niet op te hemelen.

Maar dat bedrijf had op de een of andere manier veel hart voor hun kaarten, -zeer- uitgebreidde software erbij, HQ lange kabels met veel verloop en koppelstukken, handleiding (waar zie je die nog met features en dergelijke uitgelegd!) ... ik had gewoon het gevoel dat ze echt wel wilden, maar dat het niet loskwam. Zonde :( !

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
R600 schijnt een Programmable Tesselation Unit te hebben, iets dat ook in de Xbox360 schijnt voor te komen. Kort gezegd is TruForm weer terug, maar dit keer wordt het wel gebruikt. Ook schijnt de Geometry Shader 50x sneller te zijn dan die in de G80. Verder Custom Filter AA dat je kan instellen tot wel 24xAA en 8x echt MSAA. Via de drivers worden de patterns geupdate. CrossFire is verbeterd. Standaard was AFR de voorkeursmode en deze is verbeterd.

Bron: http://it-review.net/inde...ask=view&id=1289&Itemid=1

Neem die 50x maar met een korrel zout. :P Zal iemand wel verkeerd begrepen hebben. Moet waarschijnlijk 50% zijn oid :+

[ Voor 18% gewijzigd door CJ op 23-04-2007 23:33 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Mag Fudo soms niet mee naar Tunis? :D
http://my.ocworkbench.com...d.php?p=411004#post411004

iemand van hier wel? laten we hopen!
HIS ATI Radeon HD 2900 XT TURBO SILENT Heatpipe 512MB GDDR3 VIVO TV-Out/Dual DVI (PCI-Express) - Retail
http://www.overclockers.c...duct.php?prodid=GX-074-HT
... >:)

[ Voor 40% gewijzigd door Joepi op 24-04-2007 00:58 ]


Acties:
  • 0 Henk 'm!

Anoniem: 199989

:D ,over op de feiten vooruitlopen gesproken..."Sorry,this product is currently unavailable",Zo kan ik het natuurlijk ook...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
The R600 XTX Saga continues:
R600XTX the 1024 MB GDDR 4 card has been pushed to the next quarter. This is just one in a serious of ATI's failures but of course DAAMIT will call this a strategic decision. R600XTX wont see the face of the retail / etail stores till Q3 2007.

We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz. that can not be good as the GDDR4 card is much more expensive to build or sell.

The worst part is that there is no any big performance difference between 512 GDDR 3 card and 1024 MB GDDR. The trouble is that 1 GB of GDDR 4 at 2200 MHz cost you a lot of money so ATI at least wants to save some money. It will launch this card after Geforce 8800 Ultra but remember don’t expect too much.
Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....

En Fudzilla verteld ook nog wat over R650 vs G90 maar dat is niet echt interessant:
ATI's 65 nanometre part codenamed R650 is here to fight Nvidia next generation chip called G90. Nvidia will shrink its G90 and plans to make the same marchitecture faster and this is exactly what ATI plans to do.

At 65 nanometre ATI can go much faster and it will solve the thermal dissipation and power problems. G80 is a very strong and effective marchitecture and at higher clock will be a tough competition.

R650 as far as we know will just be faster version of R600 chip without any major marchitectural changes. Both of these chips are expected by the end of the year, sometimes in Q4 but don’t be so naïve and trust ATI on its deadline. It traditionally messed up the launch date of every chip in the last eighteen months.
Ze zeggen dat de G90 dus gewoon een die shrink is van de G80 met wat tweaks.. En dat de R650 hetzelfde is van de R600.

[ Voor 26% gewijzigd door Astennu op 24-04-2007 09:16 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mjah ik begin ook langzaam om te draaien moet ik eerlijk zeggen. We hebben in de winkel nu al 8500GT/8600GT/8600GTS op voorraad (al meer dan een week goed op voorraad), dus die hard launch werkt wel aardig. Ik heb gespeeld met de 8500GT, maar die kon de X800XT nog lang niet bijhouden die er daarvoor inzat.

En verder, met alle respect, maar ATi raakt zo wat credibility kwijt. Je kan wel blijven roepen dat het een tactisch besluit is, maar als je vervolgens blijft uitstellen gelooft niemand je meer. Verder lijkt nVidia nog steeds op schema te liggen en houdt zich aan de hard launches, terwijl het 'on time part' R700 nog -helemaal- niets van zich heeft laten horen, lekker makkelijk; iedereen fusst over de R600, dan zien ze vast niet dat die ook 6 maanden te laat is?

Don't get me wrong, ik geloof (en ik hoop) dat de R600 een killer van een kaart wordt, maar ik denk echt dat AMD gewoon in wat zwaar water zit, maar zeg dat dan! Kijk als je als bedrijf zegt "jongens we hebben het zo zwaar en gooien de handdoek in de ring voor deze generatie kaarten" ... oke fout. Maar als je gewoon verteld dat je het als underdog niet even makkelijk hebt met een sterk gaande Intel en nVidia om je heen en dat de klant moet blijven geloven; is that so bad?

Verder vind ik het gewoon te veel op NS praktijken lijken... 'de trein heeft vijf minuten vertraging' en dan heeft hij dus een dik kwartier :( ! En weet je wat? Als de NS zegt 'de trein heeft 20 minuten vertraging' en hij is er na 18 minuten, prima! Dan weet je waar je aan toe bent en schep je geen valse verwachtingen, snap niet dat mensen dat maar niet leren?

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Inderdaad AMD heeft het nu gewoon zwaar. Al hun producten zijn te laat echt alles: R600 RV610/RV630 en de Barcelona Core.

Ze moeten gewoon zo snel als ze kunnen die VGA lineup uitbrengen in ieder geval low end en mid range want die zijn het belangrijkste voor de inkomsten. En ook zorgen dat die Barcelona er snel is en in vollume.

Maar het ziet er echt niet goed uit. En ben het met Casius eens. Je kunt beter zeggen dat hij eind mei komt en er dan half mij is dan andersom.

[ Voor 12% gewijzigd door Astennu op 24-04-2007 10:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 11-05 19:34

edward2

Schieten op de beesten

Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:


[...]


Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....

En Fudzilla verteld ook nog wat over R650 vs G90 maar dat is niet echt interessant:


[...]


Ze zeggen dat de G90 dus gewoon een die shrink is van de G80 met wat tweaks.. En dat de R650 hetzelfde is van de R600.
toon volledige bericht
Tot zover de tactische zet (als het waar is) Alle uitstellingen beginnen nu hun ware aard te tonen, dejavu nr zoveel. Erg jammer, hopelijk kan de 512 mb versie wel genoeg potten breken.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Anoniem: 100386 schreef op maandag 23 april 2007 @ 10:15:
Aangezien ik de laatste tijd voornamelijk bezig ben met Video (H264/AVC etc.), ben ik geinteresseerd in de Universal Video Decoder op de aanstaande generatie kaarten. Met name de mogelijkheden hiervan, en dan ook in combinatie met de geluidschip die op sommige van de volgende kaarten schijnt te zitten.

Heeft iemand al details hierover ? Is deze decoder werkelijk Universeel (doet is MPEG2 t/m MPEG4 in alle varieteiten, dus ook Advanced Simple) ? Doe ie ook geluid, en welke generatie dan ? (de nieuwe Dolby/DTS-HD formaten ?)

Kortom, in het kort: Heeft iemand al duidelijke verhalen op het i-net gespot mbt UVD ?
Iemand nog info mbt mijn vraag ?

Acties:
  • 0 Henk 'm!

  • Tijgertje84
  • Registratie: Augustus 2005
  • Laatst online: 04-05 14:38
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 10:19:
[...]


Iemand nog info mbt mijn vraag ?
Misschien een appart topic daarvoor openen, dan heb je wellicht meer kans op een reactie aangezien het hier alleen over de ati kaarten gaat en er in rap tempo gepost wordt waardoor jouw vraag zo in het niets verdwijnd... :o

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

Sorry maare als dat waar zou zijn dan lijkt het erg veel op de 3dfx Voodoo 5 6000 project die zou eind 1999 al klaar moeten zijn voor productie maar dat duurde 55 weken en kwam niet eens op de markt vanwegen dat de SLI en het geheugen niet goed te krijgen was op de gestreefde 183Mhz snelheid en dat de Rampage werd telkens uitgesteld dou eigenlijk na de Voodoo2 komen maar omdat hewt Rampage team telken aan iets anders moesten werken waar ze eigenlijk niet bedoeld voor waren verliep dat ook uit de hand en ja dijn toch het zelfde soort gevallen als met die ATi R600 XTX, 3dfx heeft hierdoor heel veel winst misgelopen en ja zo te zien heeft ATi ook veel misgelopen met het zelfde soort ongein.

Eerlijk gezegd hoop ik echter dat ze hier nog uit komen, want het zou er erg somber uit zien, we hebben het al meegemaakt met 3dfx laten we AUB ATi in leven houden -O- :'(

Het kwam wel erg zwaar over me heen maargoed laten we hopen dat die info niet gaat kloppenwant echte leuke verichten zijn dat niet. :/

Maargoed dan maar 2x ATi HD 2900 XT aangaan schaffen voor een toch leuke CrossFire upgrade 8) keep the ATi spirit alive! en idd me R580 XTX + R580+ XTX CFE lekker bewaren als collector's items, voordat het te laat is.

Nu maar hopen dat de HD 2900XT het zeer goed gaat doen end at de Mainstream als de Budget markt goed slagen want dat zou ook een redding kunnen vormen, aangezien de meeste mensen voor die reeks gaan :)

Sorry voor me negatieve inzicht, maar ik heb het al meegemaakt met 3dfx en ja om weer goed VGA merk de mist in ziet te lopen zit niemand niet op te wachten, althans mij niet heh.

[ Voor 29% gewijzigd door Anoniem: 23009 op 24-04-2007 10:32 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 10:19:
[...]
Iemand nog info mbt mijn vraag ?
De video decodering in de R600 is waarschijnlijk afkomstig van de Xilleon familie, hun decodering voor hddvd en blueray spelers. Volgens de gelekte slides kan die overweg met de "worst case" h264 streams (40Mbit/s ofzo). VC1 wordt ook ondersteunt, en alle oudere standaarden natuurlijk ook.
Van het audio gedeelte weten we nog niets maar voor de ongecomprimeerde dolby ik vrees ik het ergste.
Het kan ook zijn dat AMD weeral vergeet een deftige player bij hun kaart te steken en dat je die er appart moet bijkopen.

[ Voor 10% gewijzigd door oeLangOetan op 24-04-2007 10:34 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:


[...]


Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....
Wat is ook weer de bron van dat stukje?
De auteur heeft het helemaal mis: R600 kun je überhaupt nog niet beoordelen qua texturen van D3D10/DX10!
4kx4k ;) dat gaat enorn geheugen vreten!
Dan zal je onmiddelijk zien, waar 1Gb vram goed voor zijn >:)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:
We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz.
Dit zou kunnen betekenen dat de R600 met zijn 512bit wijde bus meer 'behoefte' heeft aan lagere latencies dan sneller geheugen. An sich klinkt het niet eens zo heel vreemd. De A64's hebben hetzelfde... lage latencies (DDR400 CL2 bijv) zetten meer zoden aan de dijk hoge freqenties (DDR800 CL5 bijv).
Joepi schreef op dinsdag 24 april 2007 @ 10:56:
Wat is ook weer de bron van dat stukje?
De auteur heeft het helemaal mis: R600 kun je überhaupt nog niet beoordelen qua texturen van D3D10/DX10! 4kx4k ;) dat gaat enorn geheugen vreten!
Dan zal je onmiddelijk zien, waar 1Gb vram goed voor zijn >:)
R600 gaat door de pers beoordeeld worden op hoe hij presteert in hedendaagse games, niet op hoe hij misschien gaat presteren in toekomstige games. Ook de pers heeft geen glazen bol tot z'n beschikking.
Als een veel duurdere kaart (1GB GDDR4) dan in de hedendaagse games waarop hij beoordeeld gaat worden bijna geen (en volgens bovenstaand gerucht zelfs een negatief) verschil laat zien met z'n veel goedkopere broertje (512MB GDDR3), dan is het niet meer dan logisch dan te wachten met een eventuele release van de duurdere kaart. Dat in ieder geval tot het moment waar het verschil duidelijk waarneembaar/positief - en dus een verkoopargument - is.
Het lijkt er alleen op dat de 8800U vooralsnog niet echt concurrentie krijgt... jmmr :/

[ Voor 43% gewijzigd door Cheetah op 24-04-2007 11:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Tijgertje84 schreef op dinsdag 24 april 2007 @ 10:24:
[...]

Misschien een appart topic daarvoor openen, dan heb je wellicht meer kans op een reactie aangezien het hier alleen over de ati kaarten gaat en er in rap tempo gepost wordt waardoor jouw vraag zo in het niets verdwijnd... :o
Dan quote ik mezelf gewoon ;)

En ik ben nu eenmaal geen frames-per-seconde--speculant ;)
oeLangOetan schreef op dinsdag 24 april 2007 @ 10:33:
[...]

De video decodering in de R600 is waarschijnlijk afkomstig van de Xilleon familie, hun decodering voor hddvd en blueray spelers. Volgens de gelekte slides kan die overweg met de "worst case" h264 streams (40Mbit/s ofzo). VC1 wordt ook ondersteunt, en alle oudere standaarden natuurlijk ook.
Van het audio gedeelte weten we nog niets maar voor de ongecomprimeerde dolby ik vrees ik het ergste.
Het kan ook zijn dat AMD weeral vergeet een deftige player bij hun kaart te steken en dat je die er appart moet bijkopen.
Hmmm, thx. Qua audio vreesde ik ook al het ergste, maar ik hoop dat daar toch nog enige verandering in komt. En als daar geen evrandering in komt, dan heb ik liever een SPDIF ingang, zoals bij de concurrent; Want daar kan je altijd nog een defftige geluidskaart aan "doorlussen" (denk aan een Auzentech :9 ).

En qua speler, ik heb geen idee van de "vergeetachtigheid" van AMD. Maar als je dan toch patst met je HDMI/video mogelijkheden, dan lijkt het me ook handig om een mooie speler beschikbaar te stellen. En anders héél fatsoelijke drivers natuurlijk, waarbij audio net zoveel aandacht krijgt als video. Anders heb je nog niets gewonnen, en ga je toch wel een beetje af vind ik.

Nu even verder zoek onder "Xilleon"

EDIT
Overigens snap ik niets van de "Worst case" scenario; De H264/AVC specificatie staat nl. véél hogere bitrates toe dan dat (met name van belang wanneer we straks de 36/48 bits YUV4:4:4/YUV8:8:8 etc. video-streams krijgen !!), en reference decoders kunnen dat evt. aan (al hebben CPU's daar zéér grote moeite mee :P)

[ Voor 10% gewijzigd door Anoniem: 100386 op 24-04-2007 11:25 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Cheetah schreef op dinsdag 24 april 2007 @ 11:09:
[...]
Dit zou kunnen betekenen dat de R600 met zijn 512bit wijde bus meer 'behoefte' heeft aan lagere latencies dan sneller geheugen. An sich klinkt het niet eens zo heel vreemd. De A64's hebben hetzelfde... lage latencies (DDR400 CL2 bijv) zetten meer zoden aan de dijk hoge freqenties (DDR800 CL5 bijv).
Daar moest ik ook al aan denken. Kun je na gaan als je die GDDR3 chippies naar 2100 MHz schopt net als nVidia. Ik denk ook dat GDDR4 pas echt voordeel gaat hebben bij 2600+ MHz en het kan natuurlijk tot 4000 en dan heb je wel veel extra bandbreedte maar ik weet niet hoe de latency's van GDDR 3 en 4 zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Cheetah schreef op dinsdag 24 april 2007 @ 11:09:
R600 gaat door de pers beoordeeld worden op hoe hij presteert in hedendaagse games, niet op hoe hij misschien gaat presteren in toekomstige games. Ook de pers heeft geen glazen bol tot z'n beschikking.
Als een veel duurdere kaart (1GB GDDR4) dan in de hedendaagse games waarop hij beoordeeld gaat worden bijna geen verschil laat zien met een veel goedkopere kaart (512MB GDDR3), dan is het niet meer dan logisch dan te wachten met een eventuele release van de veel duurdere kaart - in ieder geval tot het moment waar het verschil duidelijk waarneembaar - en dus een verkoopargument - is.
Het lijkt er alleen op dat de 8800U vooralsnog niet echt concurrentie krijgt... jmmr :/
Ik snap je best, maar je ziet toch al aan de 8800 met 320MB hoe die letterlijk inelkaar zakt (50% performance!!!) ten opzichte van zijn grote broetjes - quasi een bewijs, dat Ati het helemaal goed plent toch?!
D3D10 zal alles veranderen - een revolutie, maar iedereen doet zo, alsof het maar doorgaat met stapjes en minimale verschillen.
Ati en nvidia moeten een poging overleven, een soort interimcard te lanceren, die nu niet slechter is, maar tegelijk klaar voor de "toekomst": zelfs Crysis is niet eens D3D10...
M$ heeft geen een bitje techdemo klaar - nul-komma-niks!
BTW - Futuremark brand er zijn vingers blijkbaar ook niet aan, want anders liepen ze jaren vooruit...
Hoe lang is Vista nou al "op de markt" dan?
Niks dan elende ermee...
Om het met van Gaal te zeggen.
was nvidia nou te vroeg, of werkelijk Ati te laat?
Reteketet - vet?

Nog een vreemd bericht uit welingelichte kringen in Taiwan
AMD R600 to be available in May
Yen Ting Chen, Taipei; Rodney Chan, DIGITIMES [Monday 23 April 2007]


The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.
:D
http://www.digitimes.com/mobos/a20070423PD213.html

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 11:16:
Daar moest ik ook al aan denken. Kun je na gaan als je die GDDR3 chippies naar 2100 MHz schopt net als nVidia. Ik denk ook dat GDDR4 pas echt voordeel gaat hebben bij 2600+ MHz en het kan natuurlijk tot 4000 en dan heb je wel veel extra bandbreedte maar ik weet niet hoe de latency's van GDDR 3 en 4 zijn.
GDDR4 heeft een veel hogere latency dan GDDR3. Ik denk dat daar dus echt de oorzaak ligt:
On the signaling front, the new GDDR4 protocol now expand the chip I/O buffer up to 8-bit per two cycles, allowing for greater sustained bandwidth during the burst transmission, but at expense of significantly increased CAS latency(CL), determined mainly by the double reduced count of the address/command pins and half-clocked DRAM cells, compared to GDDR3. The amount of addressing pins was reduced to half of GDDR3 core, and were used for power and ground, which also increases latency.
bron: [url=http://en.wikipedia.org/wiki/GDDR4]Wikipedia[/ur]
R600 heeft blijkbaar vooralsnog weinig aan de extra bandbreedte die GDDR4 toevoegd, maar heeft tegelijkertijd wel last van de sterk verhoogde latencies t.o.v. GDDR3. Klinkt plausibel.

[ Voor 18% gewijzigd door Cheetah op 24-04-2007 11:42 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 10:05
Cheetah schreef op dinsdag 24 april 2007 @ 11:35:
[...]
GDDR4 heeft een veel hogere latency dan GDDR3. Ik denk dat daar dus echt de oorzaak ligt:
[...]
R600 heeft blijkbaar vooralsnog weinig aan de extra bandbreedte die GDDR4 toevoegd, maar heeft tegelijkertijd wel last van de sterk verhoogde latencies t.o.v. GDDR3. Klinkt plausibel.
Maar waarom had de X1950 XTX daar dan geen last van ? Dat was een X1900 XTX alleen dan niet met 775 MB GDDR3 maar 1000 MHz GDDR4.

Nu is het verschil groter 800 MHz voor de R600 XT en 2100-2200 voor de R600 XTX. Dus ik denk dat er dan echt wel iets niet goed zal zijn met de MC als de performance lager is. Maar misschien is dat bericht wel een HOAX.

[ Voor 10% gewijzigd door Astennu op 24-04-2007 11:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 11:40:
Maar waarom had de X1950 XTX daar dan geen last van ? Dat was een X1900 XTX alleen dan niet met 775 MB GDDR3 maar 1000 MHz GDDR4.

Nu is het verschil groter 800 MHz voor de R600 XT en 2100-2200 voor de R600 XTX. Dus ik denk dat er dan echt wel iets niet goed zal zijn met de MC als de performance lager is.
Bij R580 (256bit bus) kon het GDDR4 ondanks zijn verhoogde latencies nog wel aardig wat toevoegen. Blijkbaar was de bandbreedte bij die chip nog aardig beperkender dan de latency van het vram.
Bij de R600 met zijn 512bit bus - en dus een zee aan bandbreedte - is dit verklaarbaar anders. Met een zee aan bandbreedte zijn het de andere zaken die een bottleneck gaan vormen - blijkbaar latency.

De A64 met geintegreerde en daarom veel snellere memcontroller - met dus standaard al een hoge bandbreedte - vertoont precies hetzelfde patroon: meer baat bij lage latency dan bij snel geheugen.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: Hexus reviewed Sapphire X1950Pro DUAL

En het leuke aan de review is... dat deze als een na beste "bang-for-buck" kaart uit de test komt na de X1950Pro! Voor de prijs krijg je een goede performance. Het enige nadeel is dat de DX10 kaarten van AMD aan de horizon liggen en dat de performance zeer afhankelijk is van de drivers (net zoals bij de GX2). Dit is te zien aan het feit dat de performance inkakt met HDR aan in SC:CT. Maar goed, Sapphire kennende zullen zo ook met een RV630 variant komen...

Afbeeldingslocatie: http://img.hexus.net/v2/graphics_cards/ati/sapphire/Dual/SC19.png

Afbeeldingslocatie: http://img.hexus.net/v2/graphics_cards/ati/sapphire/Dual/SC19HDR.png
A decent street price and near-double X1950 Pro performance pushes up the Sapphire's HEXUS.bang4buck to the second highest on test, and only one of two cards to score over 1 in this performance/value metric. The downside, and not highlighted on the graph, lies with the imminent arrival of DX10 cards from AMD, which will offer better gaming visuals for approximately the same price. Still, it's hard to beat this kind of performance for around £200 right now.
http://www.hexus.net/content/item.php?item=8282

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Nog iets geks dat me opvalt:
* 8800GTS320 4xAA/8xAF VHQ noHDR: 65fps vs 8800GTS320 4xAA/8xAF VHQ HDR: 71fps
* 8800GTS640 4xAA/8xAF VHQ noHDR: 56fps vs 8800GTS640 4xAA/8xAF VHQ HDR: 60fps
* 8800GTX 4xAA/8xAF VHQ noHDR: 79fps vs 8800GTX 4xAA/8xAF VHQ HDR: 86fps

Conclusie: de performance van de G80 kaarten kakt in bij het uitschakelen van HDR!? :? :?
Of andersom: de G80 gaat beter presteren bij het inschakelen van HDR 8)7

[ Voor 7% gewijzigd door Cheetah op 24-04-2007 12:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Net gevonden:
Afbeeldingslocatie: http://img241.imageshack.us/img241/3841/66666kk4.jpg

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Eerste indruk:
ATI Radeon HD 2900 XT puts up some impressive numbers in benchmarks
>:)
http://www.dailytech.com/...enchmarks/article7043.htm

[ Voor 71% gewijzigd door Joepi op 24-04-2007 12:38 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
volgens mij is dit nog niet gepost : http://www.fudzilla.com/i...task=view&id=661&Itemid=1

Radeon HD 2900 XTX pushed to Q3

[ Voor 15% gewijzigd door Mr. Detonator op 24-04-2007 12:46 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Jawel, maar er stond niet bij, dat het van Fudo was:
Astennu in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

1k GB GDDR4 komt dus als R650 :X

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Jammer genoeg alleen maar op 1280x1024 getest, en alleen tegenover een 8800GTS :/
Ervan uit gaande dat de 8800GTX zo'n 30% sneller is dan de GTS ziet dit er echter niet zo heel goed uit. De 2900 presteert in een 2 van de 5 hier geteste games gewoon op het niveau van een standaard GTS, en de cijfertjes bij HL2 Ep1 (de 3e) kloppen niet...

Als je dan benchmarks released doe het dan goed... dus met HD2900XT + GTS + GTX, plus ook met hogere resoluties en AA/AF. Dit zegt niet zo veel :/

Bij Dailytech gaan ze er trouwens vooralsnog van uit dat de XTX wel aan de startlijn verschijnt in mei.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Alleen tegenover de GTS is waarschijnlijk gedaan omdat zo veel mensen hameren op het feit dat je moet kijken naar kaarten in dezelfde prijscategorie. Daar is ook zo vaak hier in dit topic op gewezen. Het is natuurlijk wel een gemiste kans om geen GTX er bij te nemen in deze bang-for-buck vergelijking.

Dat ze geen monitor hadden die hoger ging dan 1280x1024 is natuurlijk jammer. Kan me niet voorstellen dat die 512-bit interface dan tot zijn recht komt.

De cooler lijkt wel veel op die van nV trouwens (zoals al bekend was), maar vindt deze mooier met z'n rode doorschijnende gloed:

Afbeeldingslocatie: http://images.dailytech.com/nimage/4535_large_R600_2.jpg

[ Voor 18% gewijzigd door CJ op 24-04-2007 13:08 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Gok: 299 eurotjes? ;)

Acties:
  • 0 Henk 'm!

  • Mitt3nz
  • Registratie: Maart 2002
  • Laatst online: 11-03 08:42
Hmm, interessant. Als die inderdaad in dezelfde prijsklasse valt als de GTS 640 is de keuze snel gemaakt lijkt me :)

De GTX mag dan nog wel king of the hill zijn, maar ik ga geen 500+ euro voor een videokaart neertellen die binnen een half jaar alweer outdated is. Dat laat ik aan de fanatiekelingen over ;)

Anyway, eerst maar eens de DX10 benchmarks afwachten.

[ Voor 54% gewijzigd door Mitt3nz op 24-04-2007 13:35 ]


Acties:
  • 0 Henk 'm!

Anoniem: 199989

pff,ik kan het echt niet meer volgen...teveel info die tegenstrijdig is,en het is onmogelijk om de bs van de waarheid te onderscheiden.Ik hoop dat Amd/Ati weet waar ze mee bezig zijn,want anders ziet de toekomst er echt somber uit voor hen,zeker als je de berichten in verband met reorganisaties en rode cijfers mag geloven.
Trouwens,er wordt her en der vermeld dat HL2,TeamFortress2 en Portal bij de kaarten zal zitten?Maar die spellen zijn toch nog lang niet klaar?
Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)