|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dat is niet stom... Ze krijgen zakken geld van nVidia daardoor, dus wat zou jij doen als bedrijf zijnde...nero355 schreef op vrijdag 30 mei 2008 @ 12:20:
Wat betreft dat DirectX 10.0 en 10.1 gedoe : Heeft nVidia dat niet al een keer bij ATI geflikt met DirectX 8.0 en 8.1 dat alleen door de 8500/8500 Pro en later de 9100 werd ondersteund ??
In de Geforce 3/4 Ti vs. Radeon 8500 dagen zeg maar
Best stom dat die developers dan zo makkelijk achter nVidia aan lopen als een stel schapen
Verder hoop ik stiekem dat CJ op een dag in dit topic iets post dat enigzins zou kunnen betekenen dat ATI eindelijk voor FreeBSD drivers gaat maken ** HINT, HINT **
Google maar eens op "TWIMTBP"
Verwijderd
euhm nee nVidia's sterke punten zijn puur snelheid en strakkere drivers minder ellende en toch gaan er veel high endgamers voor het snelste op de markt, de meeste boeien niet eens wat het kost als het maar hels snel is en makkelijk als logisch installeerd, en daar heb je met een ATi kaart voor een zo'n X2 of CF setup veel meer last van, aldus mijn ervaring, wat dus ook de reden dat ik voor een GX2 bent gegaan en over een paar jaar kijk ik welverder ofdat ATi's drivers weer geweldig waren net als bij de X800 XT PE toen der tijden.Cassius schreef op vrijdag 30 mei 2008 @ 11:38:
Ofwel, ATi eerlijk - nVidia oplichterend. Denken ze nu echt dat wij niet weten dat onze euro nu 50% fokkin sterker is dan daar. Doei nVidia
; ze willen gewoon in de high-end markt nog wat marge maken op die peperduur te produceren chips over de rug van de europeanen
!
met me HD 2900 XT CF setup heb ik genoeg ellende gehad qua CF rendering errors as such en ja ik was het echter zat na 4 maanden gebruik, die GX2 installeerde gewoon geweldig onder Vista Business 64 na de installatie van de drivers het werkte gewoon on the fly geen gedonder meer en ja met me HD 2900 XT 512 CF setup was het om de ene na de andere drivers een grote last aan me hoofd en ja daar wordt ik ook te oud voor dit soort problemen hehe
Maargoed ik ga echt over als het me gewoon niet meer bevalt.
Toch hoop ik echt dat hun 4000 series gewoon echte gemakkelijker zullen installeren qua drivers waar ik me wel een beetje benoud ben van geworden, sinds 2004 altijd ATi gehad en ja je ziet het nu in eens niet meer , maar hey het is niet dat ik antiAti ben zo maar in eens ofzo hoor, het was gewoon weer zo'n helse vage ervaring van de laatste twee.
Die HD 3850 AGP installeerde prima alleen weer rendering erros in Trackmania nations ultimate en dat is wel weer jammer, maar dit was ook het enigste, en dat is al een hele verbetering
Hoe dan ook hoop ik wel op een HD 4850 AGP voor de AGP gamers, want uit de AGP x8 poort valt er nog zat uit te persen

[ Voor 35% gewijzigd door Verwijderd op 30-05-2008 14:03 ]
GrappigVerwijderd schreef op vrijdag 30 mei 2008 @ 13:50: - drivers verhaal -
Zelf kies ik juist voor ATI wegens slechte drivers van nVidia. Voor Linux / BSD geef ik je wel gelijk trouwens.
Dat snap/weet ik wel, maar als ze zelf beweren dat DirectX 10.1 makkelijker is dan kan je toch wel als groot studio zijnde die paar miljoen van nVidia wel missen lijkt me als daardoor je product sneller en makkelijker klaar isGurneyhck schreef op vrijdag 30 mei 2008 @ 13:42:
Dat is niet stom... Ze krijgen zakken geld van nVidia daardoor, dus wat zou jij doen als bedrijf zijnde...
Google maar eens op "TWIMTBP"
Voor kleinere/net beginnende studio's kan ik dat 100% begrijpen, maar een THQ/Ubisoft absoluut niet.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Inderdaad zakken en zakken met geld. Misschien niet letterlijk geld maar wel een def team over de vloer die helpen wat normaal door eigen mensen gedaan wordt.Gurneyhck schreef op vrijdag 30 mei 2008 @ 13:42:
[...]
Dat is niet stom... Ze krijgen zakken geld van nVidia daardoor, dus wat zou jij doen als bedrijf zijnde...
Google maar eens op "TWIMTBP"
En dan eisen ze gewoon super support voor hun producten en waarschijnlijk ook dat DX10.1 er niet in komt tot hun een DX10.1 kaart hebben.
Zie ook 3Dmark Vantage. Het is een future benshmark zonder DX10.1 terwijl DX10.1 gewoon beschikbaar is de hardware is er ook Vista SP 1 support het waarom dan geen DX10.1 ? dan hadden ze net zo goed er ook weer DX9 tests in kunnen stoppen want dit is ook al weer nutteloos.
Dus ik gok dat nVidia ook hier druk uitgeoefend heeft.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat hangt echt van de game af. In sommige games is een HD3850 AGP nauwelijks sneller dan een X1950Pro AGP. Zie ook de recente review van Tom's Hardware:Verwijderd schreef op vrijdag 30 mei 2008 @ 13:50:
[...]
Hoe dan ook hoop ik wel op een HD 4850 AGP voor de AGP gamers, want uit de AGP x8 poort valt er nog zat uit te persen
http://www.tomshardware.c...ti-agp-3850-agp,1939.html
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
De meeste mensen deugen!
Verwijderd
Dus ja voor Flight SImulator 2004 met Ultimate Terrain issie snel zat
http://www.ati-forum.de/a...-packaging-of-the-hd4850/
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Abstract logo, I like it. Beter als die gekke 'pouchy' van XFXCJ schreef op zaterdag 31 mei 2008 @ 13:37:
ATI Forum.de heeft een pic geplaatst van de verpakking van de HIS HD4850:
[afbeelding]
http://www.ati-forum.de/a...-packaging-of-the-hd4850/
Weet jij btw iets over ATi AIB's CJ? Ik hoorde in het andere topic dat XFX het moeilijk had, maar waarom is dat dan? Is dit XFX gerelateerd (lage marges door videokaarten markt concurrentie) of nVidia en de 'hoge' prijzen die de scepter zwaaien? En waarom is dit bijvoorbeeld (nog

De meeste mensen deugen!
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Forever raver!
Specs: Workstation Server
Verwijderd
Ik ga er verder ook niet op in.
[ Voor 61% gewijzigd door Verwijderd op 31-05-2008 15:08 ]
Je ziet het probleem niet? Je geeft het zelf aan! De meeste mensen hebben geen 500+ W voeding, en het aanschaffen van een A merk kost flink wat. En die 10 euro kan voor een fanatieke gamer ook hoger uitvallen.CaptainM schreef op zaterdag 31 mei 2008 @ 14:59:
Wat ik niet snap is dat iedereen het altijd over het verbruik van een kaart heeft. Wat maakt dat nou uit? Net of je stroomrekening door een kaart die veel verbruikt 10euro per jaar hoger is ALS dit al het geval is. Gewoon een dikke voeding in je pc en dan maakt het toch niet meer uit? OK, de temps zullen wat hoger uitvallen maargoed daar zijn genoeg oplossingen voor te bedenken die niet veel geld kosten zodat de warmte afgevoerd kan worden. Ik zie het probleem niet...
Life is what you others make it.
Ok het is dus een geld issue. Ik was alweer technisch aan het denken. Excuseer mijn lompheid...falling_down schreef op zaterdag 31 mei 2008 @ 15:33:
[...]
Je ziet het probleem niet? Je geeft het zelf aan! De meeste mensen hebben geen 500+ W voeding, en het aanschaffen van een A merk kost flink wat. En die 10 euro kan voor een fanatieke gamer ook hoger uitvallen.
Forever raver!
Specs: Workstation Server
Oplossingen die veel warmte kunnen afvoeren en niet veel geld of onderhoud vereisen zijn gewoonlijk ook nogal luidruchtigCaptainM schreef op zaterdag 31 mei 2008 @ 14:59:
Wat ik niet snap is dat iedereen het altijd over het verbruik van een kaart heeft. Wat maakt dat nou uit? Net of je stroomrekening door een kaart die veel verbruikt 10euro per jaar hoger is ALS dit al het geval is. Gewoon een dikke voeding in je pc en dan maakt het toch niet meer uit? OK, de temps zullen wat hoger uitvallen maargoed daar zijn genoeg oplossingen voor te bedenken die niet veel geld kosten zodat de warmte afgevoerd kan worden. Ik zie het probleem niet...
Kosten nog altijd minder geld dan een kaart die hetzelfde presteert maar minder verbruikt/hitte genereert.Admiral Freebee schreef op zaterdag 31 mei 2008 @ 16:04:
[...]
Oplossingen die veel warmte kunnen afvoeren en niet veel geld of onderhoud vereisen zijn gewoonlijk ook nogal luidruchtig
Forever raver!
Specs: Workstation Server
Zolang het maar duidelijk is dat de game industrie zelf voor 100% schuldig is aan deze praktijken. Het is net zoals smeergeld, corruptie ontstaat alleen doordat mensen geld aannemen, niet doordat mensen bereid zijn geld te geven. Nu gaat het natuurlijk een beetje ver om dit met corruptie te vergelijken, maar feitelijk komt het wel neer om met geld/middelen voordeel weg te kopen ten koste van een ander.nero355 schreef op vrijdag 30 mei 2008 @ 14:04:
Dat snap/weet ik wel, maar als ze zelf beweren dat DirectX 10.1 makkelijker is dan kan je toch wel als groot studio zijnde die paar miljoen van nVidia wel missen lijkt me als daardoor je product sneller en makkelijker klaar is
Voor kleinere/net beginnende studio's kan ik dat 100% begrijpen, maar een THQ/Ubisoft absoluut niet.
Game studio's klagen steen en been dat het zo slecht gaat met de PC games, maar door dit soort praktijken moeten ze misschien maar eens in de spiegel kijken.
"When I am weaker than you I ask you for freedom because that is according to your principles; when I am stronger than you I take away your freedom because that is according to my principles"- Frank Herbert
Forever raver!
Specs: Workstation Server
Welja, je kan inderdaad ook de discussie met de grootste dooddoener om de zeep helpen.
"When I am weaker than you I ask you for freedom because that is according to your principles; when I am stronger than you I take away your freedom because that is according to my principles"- Frank Herbert
Maar WTF heeft dit eigenlijk allemaal met dit topic te maken
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Wat doet die ene ouderwetse condensator daar? Zal je net zien dat die straks bol gaat staan en je kaart kapot is.
Verwijderd
En om niet helemaal offtopic te blijven: Die kaarten zien er best wel hetzelfde uit... Ik snap niet waarom cpu's een veel grotere heatsink/fan hebben dan GPU's maar minder verbruiken..
Voor mij is het stroomverbruik best wel belangerijk.. Als ik over 2 jaar ofzo (,wanneer 1 HD4850 niet meer genoeg is om spellen normaal te kunnen weergeven,) wil upgraden naar 2xhd4850 in CF, dan moet het stroomverbruik nog wel normaal blijven.. Anders kan ik een nieuwe PSU kopen en is het goed voor de stroomrekening + millieu... Het lijkt misschien weinig, maar volgens mij telt het best wel op als je vaak gamet.. Daarom wordt de HD4850 best wel een goede keuze redeneer ik zo.. 10watt in idle toch?
[ Voor 32% gewijzigd door Verwijderd op 31-05-2008 18:14 ]
Goed, maar als men geen oog heeft voor het stroomverbruik kan men alleen maar de prestaties nog verhogen door het toevoegen van extra rekeneenheden of het opvoeren van de kloksnelheid. Dan kom je al heel snel de grenzen van je architectuur en/of productieproces tegen.CaptainM schreef op zaterdag 31 mei 2008 @ 16:32:
Kosten nog altijd minder geld dan een kaart die hetzelfde presteert maar minder verbruikt/hitte genereert.
Kijk maar naar Intel met haar Netburst architectuur. Die wou men ook tot heel hoge kloksnelheden aanhouden om de prestaties te verhogen maar dat bleek uiteindelijk niet haalbaar. Zelfs niet met nieuwe productieprocessen.
Haha, ja, nu je het zegt.BounceMeister schreef op zaterdag 31 mei 2008 @ 18:01:
[...]
Wat doet die ene ouderwetse condensator daar? Zal je net zien dat die straks bol gaat staan en je kaart kapot is.
Zal wel komen omdat het een sample is.
Met mensen zoals jou helpen we deze aarde nog sneller naar de klote dan we dat nu al doen. We moeten met z'n allen gewoon zorgen dat verbruik van alle apparaten en dingen omlaag gaan. Zodat onze kinderen ook nog een aarde hebben die leefbaar is. Nee het gaat niet snel maar als iedereen maar maximaal blijft vervuilen gaat het veel sneller. En jij bent niet de enige die die kaarten koopt maar meerderen en heel veel mensen die bv 200 watt minder gebruiken is bij elkaar heel veel. Wat wel degelijk verschil maakt.CaptainM schreef op zaterdag 31 mei 2008 @ 14:59:
Wat ik niet snap is dat iedereen het altijd over het verbruik van een kaart heeft. Wat maakt dat nou uit? Net of je stroomrekening door een kaart die veel verbruikt 10euro per jaar hoger is ALS dit al het geval is. Gewoon een dikke voeding in je pc en dan maakt het toch niet meer uit? OK, de temps zullen wat hoger uitvallen maargoed daar zijn genoeg oplossingen voor te bedenken die niet veel geld kosten zodat de warmte afgevoerd kan worden. Ik zie het probleem niet...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
CPU's moeten veel koeler blijven dan GPU's, waardoor de koeling ook groter/beter moet zijn. Om een videokaart onder de 50 graden onder load te houden moet je _flink_ koelen met een standaard GPU-koeler. GPU's moeten daarentegen de 80gr makkelijk aankunnen, waardoor koelblokken etc minder groot hoeven te zijn.Verwijderd schreef op zaterdag 31 mei 2008 @ 18:06:
En om niet helemaal offtopic te blijven: Die kaarten zien er best wel hetzelfde uit... Ik snap niet waarom cpu's een veel grotere heatsink/fan hebben dan GPU's maar minder verbruiken..
Ik heb zo mijn twijfels... 3870X2 schaalde in Crysis volgens mij helemaal niet slecht meer.Depep schreef op vrijdag 30 mei 2008 @ 10:45:
Ik weet niet waar je dit vandaan haalt hoor. De HD4870 is ongeveer even snel als de 3870X2 (zie http://media.bestofmicro....original/05RV770part2.jpg), maar in games waarin CF slecht schaalt ligt dat natuurlijk wel even anders. Ik verwacht dat de HD4870 het in Crysis een stuk beter gaat doen dan de HD3870X2.
In de hogere reso's toch dik 1.7x de performance van een single 3870 las ik.

8800GT/GTS gaat EOL -> 9800GT.Ik denk dat nVidia op het moment niet erg slim bezig is, door zich op het E350+ segment te richten. De HD4850 haalt in 1 keer de 8800GT, 8800GTS en 9800GTX uit de markt, door op prijs, performance en power gebied beter te zijn
nV kennende gaat de 9800GTX ook EOL zodra GT200 er is. Vermoedelijk zal 9800GT (al dan niet met opgepompte clocks) nV voorlopig nog even vertegenwoordigen in de midrange-markt.
Volgens eerdere geruchten (fudzilla) is 4870 iets sneller dan de 9800GTX en is 4850 langzamer dan de 9800GTX. Afhankelijk van de clocks van de 9800GT zal hij qua prestaties dus niet zo veel van dat tweetal verschillen. Qua prijs zal het verschil ook niet groot zijn (ik denk prijs iets hoger dan 8800GT nu, dus tussen 4850 en 4870 in). Verschil in idle energieverbruik... tja, hoeveel mensen zullen 1) het verschil uberhaupt weten, en 2) er veel om geven...
Ik denk dat heel veel mensen met een inmiddels al 20 maanden oude G80 op GT200(b) zitten te wachten... da's eindelijk een 'echte' upgrade (SLI/CF ff buiten beschouwing gelaten)en ondertussen is het enige waar nVidia mee komt 2 kaarten waar eigenlijk niet zo heel veel mensen op zitten te wachten.
[ Voor 16% gewijzigd door Cheetah op 31-05-2008 19:06 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

http://www.computerbase.d...radeon_hd_3870_x2_atomic/
Bron: computerbase.de
[ Voor 16% gewijzigd door peakaboo op 31-05-2008 18:52 ]
Nou jij doet ook aardig je best met je 1000W voeding!Astennu schreef op zaterdag 31 mei 2008 @ 18:31:
[...]
Met mensen zoals jou helpen we deze aarde nog sneller naar de klote dan we dat nu al doen. We moeten met z'n allen gewoon zorgen dat verbruik van alle apparaten en dingen omlaag gaan. Zodat onze kinderen ook nog een aarde hebben die leefbaar is. Nee het gaat niet snel maar als iedereen maar maximaal blijft vervuilen gaat het veel sneller. En jij bent niet de enige die die kaarten koopt maar meerderen en heel veel mensen die bv 200 watt minder gebruiken is bij elkaar heel veel. Wat wel degelijk verschil maakt.
Forever raver!
Specs: Workstation Server
Ziet er goed uit, net ff snel die review doorgekeken maar het is denk niet de moeite waard om zo'n kaart te kopen.peakaboo schreef op zaterdag 31 mei 2008 @ 18:52:
Deze al voorbij gekomen?
[afbeelding]
http://www.computerbase.d...radeon_hd_3870_x2_atomic/
Bron: computerbase.de
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Apoca schreef op zaterdag 31 mei 2008 @ 19:42:
We moeten maar gewoon een "please save the world" eco topic beginnen op Tweakers.
Ik kan me nog een totaal gebrek aan dergelijk eco-enthousiasme herinneren destijds met de 2900XT. Wat allemaal niet veranderd aan standpunten in 1 jaar in 1 topic
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Dit klopt lang niet allemaal (meer) toch?
[ Voor 12% gewijzigd door Cassius op 31-05-2008 19:53 ]
De meeste mensen deugen!
Interessant. $229 om $329 wisten we volgens mij al. Verder komen de 1GB kaarten dus pas enkele weken na release van de 512MB kaarten beschikbaar vanwege GDDR5 shortages (en 4850 1GB is niet toegestaan totdat 4870 1GB op de markt is).
Verder nog iets heel interessants i.v.m. performance (van andere bron dan slide (anoniem)):
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
4870 zou volgens die bron dus heel wat sneller kunnen uitpakken dan eerder gedacht.
Ben benieuwd. Indien dat klopt wordt 4870 vermoedelijk mijn volgende kaart
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
De 9800GTX gaat voorlopig nog niet EOL als ik het goed heb gezien. De G92 GPU blijft nog zo'n 8 tot 12 maanden onder ons... en wel in de vorm van G92b.Cheetah schreef op zaterdag 31 mei 2008 @ 18:40:
[...]
8800GT/GTS gaat EOL -> 9800GT.
nV kennende gaat de 9800GTX ook EOL zodra GT200 er is. Vermoedelijk zal 9800GT (al dan niet met opgepompte clocks) nV voorlopig nog even vertegenwoordigen in de midrange-markt.
De 9800GT is dus gewoon een gerebrande 8800GT en dus langzamer dan een GTX (lagere klok en minder SPs). Eerst maakt-ie nog gebruik van wat rest-materiaal van de huidige 65nm G92, daarna wordt-ie stilletjes vervangen door de G92b (zie NV drivers voor een verwijzing naar beide varianten). Aangezien de HD4850 bedoelt is als 8800GT beater, zal deze waarschijnlijk dus ook de 9800GT verslaan. Ik verwacht dat NV hier flink op prijs gaat vechten. Het is te hopen dat G96(b) en G94(b) hier niet door in het gedrang komen.
Hetzelfde staat waarschijnlijk te gebeuren met de 9800GTX. Stilletjes vervangen door de 55nm variant... dan wel een iets snellere uitvoering... een Ultra of een 9900. Of dit genoeg zal zijn om een HD4870 bij te benen...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou normaal gesproken niet, maar het lijkt wel dat alleen in het ATi topic het gebruik van stroom een hot thema is. En dit komt keer op keer weer voorbij. Er is nog geen deel geweest volgens mij van de afgelopen tijd waar we niet min een paar pagina's hiermee vol hebben gekregen.Cassius schreef op zaterdag 31 mei 2008 @ 19:52:
Ik vind een semi-korte discussie over stroom verbruik ook niet zo'n probleem, toch?
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Alsof dat betekent dat je ook 1000W continu verbruikt...CaptainM schreef op zaterdag 31 mei 2008 @ 19:00:
[...]
Nou jij doet ook aardig je best met je 1000W voeding!
[ Voor 22% gewijzigd door MensionXL op 31-05-2008 22:18 ]
http://www.techpowerup.com/index.php?61735AMD Starts Shipping ATI Radeon HD 4850 Video Cards
The ATI Radeon HD 4850 cards are reportedly already shipping to OEM partners and retailers. According to TG Daily everything is going as planned and AMD/ATI is aiming for a sizable launch of the new product generation, with Radeon 4850 512MB boards leading the charge. The final prices for all Radeon HD 4 series cards will be officially declared during the Computex 2008 tradeshow which will open doors on Monday. Higher-end Radeon 4870 cards with 512MB of onboard GDDR5 memory are expected to ship in volume sometime this summer, with flagship Radeon HD 4870 X2 to follow soon after that.
Dus de 4850 is genoeg te verkrijgen @launch en de 4870 komt ook nog wat later...
|2600k|Asus 290|
Hmmm, misschien vind ik het verschil toch net te klein. Ik heb een 8800GTX Extreme die draait op Ultra speeds en dus zeker niet onderdoet (het vaak zelfs beter doet) als een standaard G92GTX. Maar vind je 40% genoeg? Mijn upgrade plan ligt meestal net hoger, als kaarten 75% sneller zijn denk ik eraan zeg maar ...Cheetah schreef op zaterdag 31 mei 2008 @ 19:58:
[...]
$329 HD 4870 => 40 Prozent schneller als 9800 GTX
4870 zou volgens die bron dus heel wat sneller kunnen uitpakken dan eerder gedacht.
Ben benieuwd. Indien dat klopt wordt 4870 vermoedelijk mijn volgende kaart
Maar ik vraag me af wat nu kosten effectiever is; vaker upgraden of juist goed timen. Het blijft een vak apart om een tweakers hobby zo goedkoop en slim mogelijk te houden imo!
De meeste mensen deugen!
Verwijderd
Ik ga waarschijnlijk van een 6800XTtreme naar de HD4850Cassius schreef op zaterdag 31 mei 2008 @ 22:33:
[...]
Maar ik vraag me af wat nu kosten effectiever is; vaker upgraden of juist goed timen. Het blijft een vak apart om een tweakers hobby zo goedkoop en slim mogelijk te houden imo!
Yeah maar jij krijgt nog maar 40 euro voor een afgeslankte 6800 hehe, terwijl als ik nu upgrade ik nog wel 150-170 euro voor de kaart kan krijgen wat de aankoop weer minder duur maakt. Maar jij hebt de kaart ook al veel langer natuurlijkVerwijderd schreef op zaterdag 31 mei 2008 @ 23:27:
Dus maandag 2 juni krijgen we de officiele prijzen in euro te horen?
[...]
Ik ga waarschijnlijk van een 6800XTtreme naar de HD4850. Dat is pas goed getimed! lol... Ik probeer zo lang mogelijk met een setup te doen.. Als ik nu dus 1 HD4850 (of 4870) koop, dan koop ik er over 2-3 jaar nog een en heb ik bijna dubbele prestaties en kan ik er nog een paar jaar mee..
De meeste mensen deugen!
Yep ik heb de power wel. Maar weet je ook waarom ik deze PSU heb ? zoek maar eens op internet en dan zie je dat dit de meest zuinige PSU is die er is qua rendement. En dat is vooral de rede dat ik em heb. Nu is er wel een nieuwe de Coolermaster Ultimate met 85% rendement. En daar naast was dit een van de weinige die de nieuwste PCI-E 2.0 plugs had. En die heb je nu regelmatig nodig op video kaarten.CaptainM schreef op zaterdag 31 mei 2008 @ 19:00:
[...]
Nou jij doet ook aardig je best met je 1000W voeding!
Om een voorbeeld te noemen zwaar intel systeem met SLI en zo van iets van 480 watt load op de coolermaster. Met een Antec voeding werd er 520+ getrokken dus gewoon 40 watt besparing omdat de voeding efficiënter is.
Ik houd van snelle hardware en helaas verbruiken die parts veel stroom maar ik tweak me pc en me parts wel op de beste performance per watt. Ipv wat ik eerst deed een cooling van 200 watt (prometeia) op een cpu gooien van 170 watt en dan dik overclocken
Ik bedoel ik ga geen X1300 kaartje kopen omdat die zuinig zijn ik wil nog wel lol kunnen hebben met me games maar probeer wel een zo zuinig mogelijk systeem te hebben. Tis dat die 45nm intel cpu's niet leverbaar zijn anders had ik die ook al gehad.
Dus ik ben blij dat zowel ATi als nVidia met dingen als Hybrid SLi en Crossfire komen. + Chips die idle zuinig zijn. Met load mogen ze van mij best meer verbruiken als de prestatie er dan ook naar is.
True aan de andere kant zie je dat zowel AMD als Intel daar ook op hameren. Het wordt gewoon een hot topic. Dit zit je overal met groene stroom hybride auto's en dus ook bij video kaarten.Apoca schreef op zaterdag 31 mei 2008 @ 20:07:
[...]
Nou normaal gesproken niet, maar het lijkt wel dat alleen in het ATi topic het gebruik van stroom een hot thema is. En dit komt keer op keer weer voorbij. Er is nog geen deel geweest volgens mij van de afgelopen tijd waar we niet min een paar pagina's hiermee vol hebben gekregen.
Klinkt goed maar ik hoop dat dit niet in de games is waar een HD3870 nu ook al dicht bij een 8800 GT komt of em kan verslaan. Maar dan wel in de games waar nVidia het gewoon goed doet zoals Crysis en zo. En met AA en AF. Als dat het geval is is het nog beter dan ik had kunnen hopen. Echter zal nVidia het winnen met 2x GTX280 in SLi van de 2x HD4870 X2 omdat die Quad CF niet lekker schaalt. Zoals het er nu uit ziet zal de HD4870 X2 best dicht bij een GTX280 kunnen komen en dat is volgens mij ook de bedoeling.Cheetah schreef op zaterdag 31 mei 2008 @ 19:58:
[...]
Interessant. $229 om $329 wisten we volgens mij al. Verder komen de 1GB kaarten dus pas enkele weken na release van de 512MB kaarten beschikbaar vanwege GDDR5 shortages (en 4850 1GB is niet toegestaan totdat 4870 1GB op de markt is).
Verder nog iets heel interessants i.v.m. performance (van andere bron dan slide (anoniem)):
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
4870 zou volgens die bron dus heel wat sneller kunnen uitpakken dan eerder gedacht.
Ben benieuwd. Indien dat klopt wordt 4870 vermoedelijk mijn volgende kaart
Ik zat zelf aan een HD4870 1GB kaartje te denken maar als die lang duren ga ik denk ik eerst voor een HD4850 daar eens mee spelen kijken wat het doet. Eventueel meteen de X2 afwachten. Maar denk dat ik dit keer voor de HD4870 CF ga iets meer flexibiliteit met uitschakelen. En kun je ook nog eens een kaart over zetten in een andere pc als je even iets wilt testen.
[ Voor 82% gewijzigd door Astennu op 31-05-2008 23:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Uhm. Die 4850 zal waarschijnlijk minstens 5-6 keer zo snel zijn als jouw 6800 hoor..Verwijderd schreef op zaterdag 31 mei 2008 @ 23:27:
Dus maandag 2 juni krijgen we de officiele prijzen in euro te horen?
[...]
Ik ga waarschijnlijk van een 6800XTtreme naar de HD4850. Dat is pas goed getimed! lol... Ik probeer zo lang mogelijk met een setup te doen.. Als ik nu dus 1 HD4850 (of 4870) koop, dan koop ik er over 2-3 jaar nog een en heb ik bijna dubbele prestaties en kan ik er nog een paar jaar mee..
Overigens krijg je er ook nooit meer 40,- euro voor zoals de poster onder je meende...
Ik heb zelf deze week de upgrade gedaan van een X1950Pro naar HD3850. Ik denk niet dat ik de HD4850 ga afwachten omdat deze te duur wordt: juist nu worden de vorige series zo goedkoop dat ze erg aantrekklijk zijn. Mijn HD3850 256MB van Asus kostte slechts 72,- inclusief verzenden. Ik denk dat ik een soortgelijke upgrade ga doen over een of anderhalf jaar. We zien wel. Iig kost het me echt niet veel en krijg ik wel steeds een flinke performanceboost.
Hoe dan ook kun je verwachten dat nV gaat concurreren op prijs en performance.CJ schreef op zaterdag 31 mei 2008 @ 19:58:
De 9800GTX gaat voorlopig nog niet EOL als ik het goed heb gezien. De G92 GPU blijft nog zo'n 8 tot 12 maanden onder ons... en wel in de vorm van G92b.
De 9800GT is dus gewoon een gerebrande 8800GT en dus langzamer dan een GTX (lagere klok en minder SPs). Eerst maakt-ie nog gebruik van wat rest-materiaal van de huidige 65nm G92, daarna wordt-ie stilletjes vervangen door de G92b (zie NV drivers voor een verwijzing naar beide varianten). Aangezien de HD4850 bedoelt is als 8800GT beater, zal deze waarschijnlijk dus ook de 9800GT verslaan. Ik verwacht dat NV hier flink op prijs gaat vechten. Het is te hopen dat G96(b) en G94(b) hier niet door in het gedrang komen.
Hetzelfde staat waarschijnlijk te gebeuren met de 9800GTX. Stilletjes vervangen door de 55nm variant... dan wel een iets snellere uitvoering... een Ultra of een 9900. Of dit genoeg zal zijn om een HD4870 bij te benen...
Er zit qua clockspeeds nog enorm veel rek in de G92, en naar verwachting zeker de G92b. Ik denk dat 9800GTX sowieso snel EOL gaat na introductie van de GT200, met het oog op de concurrentie van RV770. Zoals je zelf al impliceert komt er vermoedelijk dan een snellere G92b (9900) om het stokje over te nemen op upper-midrange gebied. Het zou me ook niets verbazen als 9800GT een speedbump krijgt over 8800GT, het wordt naar verluid immers de eerste G92b implementatie.
Verwachte datum is Juli, ongeveer gelijktijdig met de verwachte 9900, dus enkele weken na introductie van GT200 en RV770. Deze kaarten moeten het dan gaan opnemen tegen 4850 en 4870.
Nadeel van deze upgradestrategie is dat je - i.m.h.o. - nu al 2 jaar niet behoorlijk kunt gamenVerwijderd schreef op zaterdag 31 mei 2008 @ 23:27:
Ik ga waarschijnlijk van een 6800XTtreme naar de HD4850. Dat is pas goed getimed! lol... Ik probeer zo lang mogelijk met een setup te doen.. Als ik nu dus 1 HD4850 (of 4870) koop, dan koop ik er over 2-3 jaar nog een en heb ik bijna dubbele prestaties en kan ik er nog een paar jaar mee..
De enige kaart die het bij mij in tijden dik een jaar heeft uitgezongen is de 8800GTX... maargoed, ik wil games perse spelen zoals de producer ze bedoeld heeft (IQ, IQ), da's weer mijn obsessie
Als ik straks upgrade naar 4870 of GTX260 kost m'n upgrade me naar verwachting zo'n 75 a 175 Euro. Ik heb een dergelijk bedrag er wel voor over eens in de zoveel tijd om bij te blijven, en vind dat prettiger dan in 1x 250 a 350 euro uitgeven voor een upgrade naar dezelfde kaart vanaf 'stokoud'
[ Voor 20% gewijzigd door Cheetah op 01-06-2008 06:14 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Als dit zo is zal ik misschien ook nog weer eens (HD4870) CF proberen.Cheetah schreef op zaterdag 31 mei 2008 @ 19:58:
Verder nog iets heel interessants i.v.m. performance (van andere bron dan slide (anoniem)):
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Jup, tot nu toe liepen de geruchten van 'een klein beetje' tot optimistisch 25% sneller dan 9800GTX.RappieRappie schreef op zondag 01 juni 2008 @ 07:38:
Als dit zo is zal ik misschien ook nog weer eens (HD4870) CF proberen.40%, dat is wel een grote klap sneller zeg! En dat voor 300 euro per kaart minder dan een GT200?! Dat zou wel heel erg nice zijn!
40% sneller dan 9800GTX zou echt een stevige klapper zijn als het waar is. Dat zou inhouden dat de 4870 ruim 1,8x zo snel is als de 3870, ofwel bijna een performanceverdubbeling t.o.v. current gen
Wie weet, met sterk verbeterde AA en texturing (plus veel hogere bandwith en 1/3 extra shaders).
Ik ben eigenlijk heel erg benieuwd hoe de 4870 ($329) het gaat doen t.o.v. de GTX260 ($449), want voor mij zal het goeddeels daartussen gaan. Daarnaast is 4850 CF vs GTX260 ook een zeer boeiende vergelijking, vanwege zelfde prijsklasse.
$649 voor is me wat te gortig om uit te gaan geven... maar een vergelijking tussen 4870 CF en GTX280 lijkt me ook een leuke. Interessante tijden weer
[ Voor 12% gewijzigd door Cheetah op 01-06-2008 08:09 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Als die 9800 GTX ook een 384 Bit bus had gehad was hij nog een heel stuk sneller geweest. En de 9800 GT met hoge clockspeeds kan nog wel eens na genoeg gelijk gaan presteren als de 9800 GTX zie ook de 9600 GT vs 8800 GT.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
[ Voor 7% gewijzigd door Astennu op 01-06-2008 10:15 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik dacht dat de RV770 alleen shaderbased AA resolve had net als de RV670 en de R600. Ook omdat dit voor DX10.1 belangrijk zou zijn.. Hoe moeten we dit bericht plaatsen?RV770 won’t do FSAA though Shaders
We've learned that RV770XT and Pro won't do Full Scene Anti Aliasing via Shaders. Developers hated it but RV670's design flaw was responsible for it.
RV770XT and PRO will end up significantly faster, especially with FSAA compared to RV670 generation. The numbers should be higher than you usually see from generation to generation, but we don’t know more details about it at press time.
RV670 was improved and fixed R600, or should we say R600 done right, whereas RV770 is an improvement of the stuff that ATI has implemented.
Goud is geen geld
Dat was al langere tijd bekend (of in ieder geval een gerucht), dat er in de R7xx architectuur hardware AA zat, samen met shaderbased AA resolve.frankknopers schreef op zondag 01 juni 2008 @ 20:30:
Dit vond ik wel een opmerkelijk bericht van Fudzilla:
[...]
Ik dacht dat de RV770 alleen shaderbased AA resolve had net als de RV670 en de R600. Ook omdat dit voor DX10.1 belangrijk zou zijn.. Hoe moeten we dit bericht plaatsen?
Dat exclusief shaderbased AA een designfout was, en ATi nu weer netjes terug is bij hardware resolve.frankknopers schreef op zondag 01 juni 2008 @ 20:30:
Dit vond ik wel een opmerkelijk bericht van Fudzilla:
Ik dacht dat de RV770 alleen shaderbased AA resolve had net als de RV670 en de R600. Ook omdat dit voor DX10.1 belangrijk zou zijn.. Hoe moeten we dit bericht plaatsen?
Dat developpers toch liever de keuze houden om hardware resolve AA te implementeren.
Dat DX10(.1) shaderbased niet per definitie de heilige graal is, en dat je marketing niet altijd moet geloven.
Iets wat sommigen onder ons al langer roepen, zo ongeveer vanaf release van R600

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Verwijderd
Nee.. de HD4850 heeft GDDR3 geheugen ipv 5..Cassius schreef op zaterdag 31 mei 2008 @ 19:52:
Dit klopt lang niet allemaal (meer) toch?
Wel stom dat het in Amerika $199 kost en hier Euro 199
PS: wanneer komen de benchmarks? 16 juni ofzo?
http://www.tomshardware.co.uk/amd-ati-radeon,news-28318.html
Trouwens, ik kan met mijn 6800XTreme portal 50-120 fps (dx8.1), team fortress 2 30-70 fps (dx8.1) en half life 2 ep 2 40-70 fps (dx9) spelen.. Alleen als je bij die laatste open vlaktes tegenkomt met veel bomen... (1280x1024) Alleen dit komt omdat de source engine best wel goed geoptimaliseerd is denk ik.
[ Voor 38% gewijzigd door Verwijderd op 02-06-2008 00:00 ]
Ik moet die zogenaamde 'betere IQ' van shaderbased AA vs hardware resolve nog steeds eens gepictured zien. Ik heb de neiging marketing-hypes niet te geloven tot ik het met eigen ogen waarneem, en tot nu toe is dat voor mij een prima werkbare 'strategie' gebleken.Verwijderd schreef op zondag 01 juni 2008 @ 23:19:
Zo is t maar net. Geavanceerde modi met meer opties voor betere IQ voor de mensen die dat willen/nodig hebben, blijven shader based. Diegene die MSAA voldoende vinden, zullen er wel tevreden mee zijn, maar goed dat zijn dan ook geen hardcore IQ fanaten.
Had al vanaf de R600 release voorspeld dat ATi een fout had gemaakt die ze gingen terugdraaien, en dat ophypen van shaderbased AA meer coveren was daarvoor dan werkelijk iets substantieels...
Ik ben overigens heel blij dat ze op hun eerdere design"beslissing" hieromtrent zijn teruggekomen. Hopelijk gaan we nou dan de werkelijke kracht van een uncrippled R600 architectuur zien
[ Voor 13% gewijzigd door Cheetah op 02-06-2008 00:26 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

De AA performance lag niet aan de shaderbased AA resolve, maar aan de samplerate.
Ik zou er niet vreemd van opkijken als AMD nooit meer terug gaat naar hardware resolve omdat shaderbased resolve nou eenmaal de toekomst is.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Waar heb je gelezen dat de HD4850 $199,00 moet gaan kosten?Verwijderd schreef op zondag 01 juni 2008 @ 23:54:
Wel stom dat het in Amerika $199 kost en hier Euro 199..
De laatste berichten die ik erover heb gelezen gaven aan dat de HD4850 $229,00/circa €150,00 moet gaan kosten.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Vond dat ook al zo raar dat ze nu ineens wel weer hardware resolve zouden hebben. Ja de X1900 doet het in verhouding beter met AA en AF soms is de performance na genoeg gelijk met een HD3870. Maar de 8x AA performance van de HD3870 was weer extreem goed. Als er hardware resolve komt hoop ik dat die ook goed blijft.CJ schreef op maandag 02 juni 2008 @ 02:05:
Jeetje het lijkt net alsof we weer een paar maanden terug in de tijd zijn gevlogen.![]()
De AA performance lag niet aan de shaderbased AA resolve, maar aan de samplerate.
Ik zou er niet vreemd van opkijken als AMD nooit meer terug gaat naar hardware resolve omdat shaderbased resolve nou eenmaal de toekomst is.Met een hogere sample-rate (zoals bv de G80 heeft) merk je het verschil niet eens met hardware resolve. Tel daarbij op dat shaderbased resolve flexibeler is, terwijl het je ook nog eens minder transistors kost.
Pre-Computex 08: 8 channel
We have just confirmed that ATI HD4800 series powered by RV770 chips will support 7.1 surround sound audio with AC3 and DTS and the new cards will be able to drive HD video and 8 channel audio via single HDMI cable.
The RV770 based cards will use DVI-I to HDMI adaptor and the reference design of RV770XT and PRO includes two DVI outs. At same time RV770 / HD 4800 generation won’t have any issues supporting DisplayPort but this is a matter of a partner choice as DisplayPort is still not that important or accepted.
The possibility is there and display manufactures do plan to embrace this new connector.
The new RV770 chip also supports xyYCC color.
[ Voor 27% gewijzigd door Astennu op 02-06-2008 08:42 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

De meeste mensen deugen!
Verwijderd
Je mist het punt. Programmeerbare filters zijn de toekomst. Je kan zelf wel voorstellen dat zodra post filtering op maat gemaakt is voor een game, deze voor allerlei doeleinden gebruikt kan worden (onder andere het ophogen van IQ, afhankelijk van de scene).Cheetah schreef op maandag 02 juni 2008 @ 00:21:
[...]
Ik moet die zogenaamde 'betere IQ' van shaderbased AA vs hardware resolve nog steeds eens gepictured zien. Ik heb de neiging marketing-hypes niet te geloven tot ik het met eigen ogen waarneem, en tot nu toe is dat voor mij een prima werkbare 'strategie' gebleken.
Had al vanaf de R600 release voorspeld dat ATi een fout had gemaakt die ze gingen terugdraaien, en dat ophypen van shaderbased AA meer coveren was daarvoor dan werkelijk iets substantieels...
Ik ben overigens heel blij dat ze op hun eerdere design"beslissing" hieromtrent zijn teruggekomen. Hopelijk gaan we nou dan de werkelijke kracht van een uncrippled R600 architectuur zien
Beetje flauw om het gelijk weer over R600 AA performance te hebben. Deze is al vaak genoeg besproken, niet waar?
Wat heb je nog aan een kaart die shaderbased AA kan als die hopeloos verouderd is?
Dus dat die RV770 het anders doet/kan doen dan de R600 is juist goed imho.
[ Voor 27% gewijzigd door Format-C op 02-06-2008 09:39 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Mja dat kun je dan eigenlijk van alle low/mid range end kaarten ook zeggen. Als die uit komen zijn die al te traag om die nieuwe DX10 features te gebruiken. Het is dat die RV670 in de mid range zit maar die 8600 GT en HD3850 kaarten zijn echt veel te traag.RappieRappie schreef op maandag 02 juni 2008 @ 08:59:
Mja, het is mooi dat shaderbased AA resolve de toekomst is. Maar het is imho beter om je op iets te richten waar je NU iets aan hebt. En niet iets waar je pas over een jaar iets aan hebt bij wijze van spreken... Als er alweer een nieuwe generatie kaarten is.
Wat heb je nog aan een kaart die shaderbased AA kan als die hopeloos verouderd is?
Dus dat die RV770 het anders doet dan de R600 is juist goed imho.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
We hadden toen ook uitgebreid besproken dat de AA samplerate van G80 en R600 helemaal niet zoveel van elkaar afwijken en dat R600 een 2,3x zo hoge samplerate heeft als R580. De samplerate verklaard dus niet waarom de R600 al zoveel (40%) inkakt bij inschakelen van 2xAA, waar de R580 nog regelmatig langszij komt of er voorbijgaatCJ schreef op maandag 02 juni 2008 @ 02:05:
Jeetje het lijkt net alsof we weer een paar maanden terug in de tijd zijn gevlogen.![]()
De AA performance lag niet aan de shaderbased AA resolve, maar aan de samplerate.
AA sample rate R600 = 47.488 Msamples/sec en van G80: 55.200 Msamples/sec. Verschil: 16%.Ik zou er niet vreemd van opkijken als AMD nooit meer terug gaat naar hardware resolve omdat shaderbased resolve nou eenmaal de toekomst is.Met een hogere sample-rate (zoals bv de G80 heeft) merk je het verschil niet eens met hardware resolve. Tel daarbij op dat shaderbased resolve flexibeler is, terwijl het je ook nog eens minder transistors kost.
Ter vergelijk: Sample rate R580 = 20.800 Msamples/sec. Verschil 130%.
Waar zou de AA bottleneck van R600 dus niet zitten?
Het lijkt er ook op dat AMD 't niet met je eens gezien van de RV770 zeer hardnekkig wordt beweerd dat deze weer een hardware resolve AA oplossing aan boord heeft. Blijkbaar vonden ze 't toch nodig.
Maargoed, we zullen 't zien in de techreviews
Zoals ik al aangaf: eerst met eigen ogen zien, dan pas geloven. Ik heb tot nu toe nooit kunnen waarnemen dat shaderbased AA een fysiek beter resultaat oplevert dan hardware resolve. Praktijk wil nog wel eens een heel eind weerbarstiger zijn dan theorie.Verwijderd schreef op maandag 02 juni 2008 @ 08:54:
Je mist het punt. Programmeerbare filters zijn de toekomst. Je kan zelf wel voorstellen dat zodra post filtering op maat gemaakt is voor een game, deze voor allerlei doeleinden gebruikt kan worden (onder andere het ophogen van IQ, afhankelijk van de scene).
Daarbij komt dat het maar net de vraag is hoeveel extra effort developpers willen steken in programmable AA, want dat het extra effort kost moge duidelijk zijn. Daarnaast worden veel games tegenwoordig multi-platform ontwikkeld, dus ook voor de consoles (PS3, X360). Deze ondersteunen alleen hardware resolve AA.
Grafische kaarten die 'serieus' shaderresolve AA kunnen doen (as in: daar voldoende power voor hebben) zijn ver in de minderheid op de PC markt... dus hoe groot is die markt commercieel gezien denk je, om daar voorlopig veel extra effort in te steken?
Komt nog bij dat shaderresolve AA er performancewise ook veel harder inhakt dan hardware. Kijk maar naar de shaderbased AA implementatie van o.m. UT3 en GoW en wat inschakelen van AA daar kost aan performance - terwijl het resultaat optisch toch zeker niet beter te noemen is dan bij hadwareresolve based games. In die games is er echter geen andere keus dan shaderresolve vanwege de engine. Ik denk dat als dev's de keuze wel hebben, deze zeer snel gemaakt is.
Dus we hebben hier een theoretische IQ verbetering (t.o.v. hardware resolve wat veel minder effort kost om te implementeren) versus een veel weerbarstigere praktijk. Ik denk dat de meeste gamedeveloppers in de praktijk leven, werken en developpen
[ Voor 7% gewijzigd door Cheetah op 02-06-2008 11:27 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Oh en de 9800GT = 8800GT met Hybrid SLI/Power. Zie: http://en.hardspell.com/doc/showcont.asp?news_id=3495
Oh en er is 1 duidelijk bewijs dat DX10.1 AA er beter uit ziet dan DX10 AA. Zoek de screens maar eens op van AC.
[ Voor 45% gewijzigd door CJ op 02-06-2008 11:31 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Beide zijn shaderbased hoor. En het verschil was voor zover ik heb gelezen juist onwaarneembaar. Volgens mij had men maar 1 plekje in heel AC gevonden waar onder 10.1 een visueel beter AA resultaat was dan 10, en dat ging om 1 enkel randjeCJ schreef op maandag 02 juni 2008 @ 11:27:
Oh en er is 1 duidelijk bewijs dat DX10.1 AA er beter uit ziet dan DX10 AA. Zoek de screens maar eens op van AC.
Kan zijn dat ik iets gemist heb, maar mss dat je dan een linkje kunt posten. Ben wel benieuwd
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Er zijn ergens nog screens van bv een vogelkooi te zien van betere adaptive/transparency AA, wat werd toegeschreven aan de verbeterde controle die devs hebben op de pixels door sample coverage masking. CBA om ze nu op te zoeken.
Overigens ben ik zeer benieuwd of NV nog met opgevoerde 9800GT's komt zoals jij 'verwacht'. De info die ik hier heb liggen doen anders vermoeden namelijk. Ik verwacht meer een afgeslankte GT200 (maybe GT100) met 144 streamprocessors waar de missing MUL op een 320-bit memory interface ook van werkt om het gat te dichten met de GTX 260 en concurrentie te bieden aan de HD4800 Serie.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Of, eenvoudiger, dat men in het DX10 path gewoon vergeten was om dat stukje te anti-aliasenCJ schreef op maandag 02 juni 2008 @ 12:13:
Dat er echter 1 randje te zien is die duidelijk beter AA resultaat geeft onder DX10.1 dan onder DX10, wil zeggen dat dit ook op andere plekken zeer goed mogelijk is. Blijkbaar geeft DX10 gewoon niet genoeg controle om ook op diezelfde plek AA toe te passen.
Maargoed, time will tell. AC is de eerste 10.1 game. Wellicht dat toekomstige games beter overtuigen.
Zoals je zelf al aangaf zal G92b nog enige tijd onder ons zijn. We zullen zien... ik denk dat nV voorlopig G92b gaat inzetten als directe opponent van de RV770. Release van de 9800GT is gepland voor juli, in principe een maand na release van de 4800 serie... voldoende tijd om nog met clockspeeds te spelenOverigens ben ik zeer benieuwd of NV nog met opgevoerde 9800GT's komt zoals jij 'verwacht'. De info die ik hier heb liggen doen anders vermoeden namelijk. Ik verwacht meer een afgeslankte GT200 (maybe GT100) met 144 streamprocessors waar de missing MUL op een 320-bit memory interface ook van werkt om het gat te dichten met de GTX 260 en concurrentie te bieden aan de HD4800 Serie.
Ik kan me moeilijk voorstellen dat nV na een G92 die-shrink (G92b) de clockspeeds niet verhoogd, zeker met het oog op de 48xx serie die wat beloofd qua performance, maar we zullen zien.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik durf het bijna wel zeker te stellen dat NV de 65nm GT200 alleen maar uit brengt om de launch van RV770 te verstoren. Als die nu niet gelanceerd werd, hadden ze netjes gewacht tot de goed werkende 55nm versie klaar was. Dat kan je ook zien in de launch documenten van de GTX 200 serie, waar men nu enorm hamert op het IDLE stroomverbruik om de aandacht van het PEAK verbruik te maskeren. Maar dat zal je op de 17de wel zien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Naar goed zie de 9800 GTX leuk al die shader power maar als je mem bus niet mee gaat schiet het niet echt op. + ene G92B op hoge clocks zou dan in het vaar water van de 9800 GTX komen.Cheetah schreef op maandag 02 juni 2008 @ 12:38:
[...]
Of, eenvoudiger, dat men in het DX10 path gewoon vergeten was om dat stukje te anti-aliasen
Maargoed, time will tell. AC is de eerste 10.1 game. Wellicht dat toekomstige games beter overtuigen.
[...]
Zoals je zelf al aangaf zal G92b nog enige tijd onder ons zijn. We zullen zien... ik denk dat nV voorlopig G92b gaat inzetten als directe opponent van de RV770. Release van de 9800GT is gepland voor juli, in principe een maand na release van de 4800 serie... voldoende tijd om nog met clockspeeds te spelen
Ik kan me moeilijk voorstellen dat nV na een G92 die-shrink (G92b) de clockspeeds niet verhoogd, zeker met het oog op de 48xx serie die wat beloofd qua performance, maar we zullen zien.
Ik zie trouwens dat de oorlog tussen nVidia en Intel steeds erger wordt. nVidia komt nu ook al met een CPU. Het is dat ze niet zo maar een X86 licentie van intel zullen krijgen anders hadden we er een concurrent bij gehad.
[ Voor 10% gewijzigd door Astennu op 02-06-2008 13:10 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

http://www.ati-forum.de/a...r-ids-of-the-4000-series/
[Edit]
Intel and Nvidia Still in Talks Regarding Next-Generation Processor Bus License.
http://www.xbitlabs.com/n...rocessor_Bus_License.html
Misschien niet gelijk ATi nieuws, maar uiteindelijk merkt ATi het ook hoe dit gaat uitpakken. Ik kan me zo voorstellen dat nV geheel niet happy is met deze gang van zaken. Het lijkt me toch dat ook de ontwikkeling voor komende chipsets nu geheel op zijn gat ligt omdat ze geen enkele input hebben hoe en wat m.b.t. Intel specs voor deze chipsets.
Wie weet geen SLi meer voor de Intel CPU's en alleen nog maar met AMD CPU's. Zou me wat zijn
[Edit2]
Catalyst 8.6 (8.500)
http://www.station-drivers.com/page/ati%20catalyst.htm
Heb je na bijna 1.5k nog nooit de

[ Voor 68% gewijzigd door Ultraman op 02-06-2008 14:58 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

http://www.hisdigital.com...ct_ov.php?id=382&view=yes
[Edit]
Beta drivers... zit de nieuwe HD48xx serie in, wat het meer brengt geen idee. Kwam het alleen maar tegen.
Zelfde vehaal, zie boven
[ Voor 48% gewijzigd door Ultraman op 02-06-2008 14:59 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Kortom, je hebt er dus eigenlijk niks aan met een 3870x2Apoca schreef op maandag 02 juni 2008 @ 14:56:
HIS 4850 H485F512P
[afbeelding]
http://www.hisdigital.com...ct_ov.php?id=382&view=yes
[Edit]
[...]
Beta drivers... zit de nieuwe HD48xx serie in, wat het meer brengt geen idee. Kwam het alleen maar tegen.
[mbr]Zelfde vehaal, zie boven[/mbr]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De volgende grote site haalt uit naar Ubisoft/NV voor het verwijderen van de DX10.1 patch in Assassin's Creed. Na Rage3D en HardOCP is het nu de beurt aan Anandtech:
What we don't like is when other factors stand in the way of using technology, and that seems to be the case here. Ubisoft needs to show that they are not being pressured into removing DX 10.1 support by NVIDIA, and frankly the only way they can do that is to put the support backing in a future patch. It was there once, and it worked well as far as we could determine; bring it back (and let us anti-alias higher resolutions).


Let op de blauwe lijn!
Leuk leesvoer voor de middag.
Compleet artikel: http://www.anandtech.com/showdoc.aspx?i=3320&p=6
[ Voor 14% gewijzigd door CJ op 02-06-2008 15:36 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
http://www.tomshardware.co.uk/amd-ati-radeon,news-28318.htmlIndy91 schreef op maandag 02 juni 2008 @ 07:30:
[...]
Waar heb je gelezen dat de HD4850 $199,00 moet gaan kosten?
De laatste berichten die ik erover heb gelezen gaven aan dat de HD4850 $229,00/circa €150,00 moet gaan kosten.
Hier heb ik dat gelezen.. Deze link stond trouwens ook in mijn vorige post.. Maarja het is natuurlijk niet zeker. (het is niet eens gezegd vanuit ATI)
Maar waar heb JIJ gelezen dat de HD4850 150 euro gaat kosten?
Edit: Ownee, dan komt het er zo uit te zien:
Wisselkoers: 0.6443
199 US Dollars (USD) = 128.21 Euro (EUR)
Als dit echt zo is dan zet ik er meteen 2 in CF
[ Voor 11% gewijzigd door Verwijderd op 02-06-2008 16:13 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
2 kaarten kopen heeft ook weer nadelen met verkopen, dubbel verlies namelijk...Verwijderd schreef op maandag 02 juni 2008 @ 16:02:
[...]
http://www.tomshardware.co.uk/amd-ati-radeon,news-28318.html
Hier heb ik dat gelezen.. Deze link stond trouwens ook in mijn vorige post.. Maarja het is natuurlijk niet zeker. (het is niet eens gezegd vanuit ATI)
Maar waar heb JIJ gelezen dat de HD4850 150 euro gaat kosten?Ze gaan echt niet de exacte wisselkoers volgen..
Edit: Ownee, dan komt het er zo uit te zien:
Wisselkoers: 0.6443
199 US Dollars (USD) = 128.21 Euro (EUR)
Als dit echt zo is dan zet ik er meteen 2 in CF
Als je iets in America of China koopt betaal je 0.67-0.68 per dollar. En inderdaad 19% tax.Verwijderd schreef op maandag 02 juni 2008 @ 16:02:
[...]
http://www.tomshardware.co.uk/amd-ati-radeon,news-28318.html
Hier heb ik dat gelezen.. Deze link stond trouwens ook in mijn vorige post.. Maarja het is natuurlijk niet zeker. (het is niet eens gezegd vanuit ATI)
Maar waar heb JIJ gelezen dat de HD4850 150 euro gaat kosten?Ze gaan echt niet de exacte wisselkoers volgen..
Edit: Ownee, dan komt het er zo uit te zien:
Wisselkoers: 0.6443
199 US Dollars (USD) = 128.21 Euro (EUR)
Als dit echt zo is dan zet ik er meteen 2 in CF
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Grapjas....Verwijderd schreef op maandag 02 juni 2008 @ 16:02:
Maar waar heb JIJ gelezen dat de HD4850 150 euro gaat kosten?Ze gaan echt niet de exacte wisselkoers volgen..
...
blah, blah, blah
Als je het topic een klein beetje hebt gevolgd dan had je kunnen lezen dat CJ met die info kwam.
Daarnaast heeft AMD/ATi bij de introductie van de RV670 reeks de $1,00 = €1,00 valutaverhouding ook al laten varen.
Wellicht dat ze bij THG een beetje in de war zijn met nV die wel $1,00 = €1,00 valutaverhouding hanteert.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit is toch geen nieuws meer? Is al zo uitgekauwdCJ schreef op maandag 02 juni 2008 @ 15:32:
Newsflash: Anandtech haalt uit naar Ubisoft/NV voor Assassin's Creed DX10.1
De volgende grote site haalt uit naar Ubisoft/NV voor het verwijderen van de DX10.1 patch in Assassin's Creed. Na Rage3D en HardOCP is het nu de beurt aan Anandtech
(Deel van) de officiele verklaring Ubisoft, wat Anandtech overigens gemist lijkt te hebben, is dat de eerdere DX10.1 implementatie issues gaf met (nV) DX10 hardware, omdat het daar niet mee getest was. Of dat de waarheid is of slechts een cover-up zullen we vermoedelijk nooit weten.
[ Voor 4% gewijzigd door Cheetah op 02-06-2008 17:10 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
AnybodyCassius schreef op zaterdag 31 mei 2008 @ 14:11:
[...]
Weet iemand iets over ATi AIB's? Ik hoorde in het andere topic dat XFX het moeilijk had, maar waarom is dat dan? Is dit XFX gerelateerd (lage marges door videokaarten markt concurrentie) of nVidia gerelateerd met de 'hoge' prijzen die de scepter zwaaien? En waarom is dit bijvoorbeeld (nog?) niet bij ATi partners zo?
De meeste mensen deugen!
Het is een nieuw artikel inclusief benchmarks waarin je ziet dat een HD3870 zelfs met AA sneller is dan een 8800GT zonder AA dankzij het DX10.1 path. Ook zijn de nieuwste drivers gebruikt die in veel DX10 games performanceboosts brachten. De benchmarks zijn dus zeker wel nieuws.Cheetah schreef op maandag 02 juni 2008 @ 17:07:
[...]
Dit is toch geen nieuws meer? Is al zo uitgekauwd
(Deel van) de officiele verklaring Ubisoft, wat Anandtech overigens gemist lijkt te hebben, is dat de eerdere DX10.1 implementatie issues gaf met (nV) DX10 hardware, omdat het daar niet mee getest was. Of dat de waarheid is of slechts een cover-up zullen we vermoedelijk nooit weten.
Daarnaast geeft Anandtech mooi weer waarom shader AA en dan met name DX10.1 AA beter is dan de oude manier van AA, iets wat jij (en ook anderen) vaak over het ziet, maar wat toch wel zeker relevant is.
Kortom, NV hardware kan bepaalde AA dingen niet. AMD hardware wel. Onder het DX10 path kan dit echter een negatief resultaat hebben op de performance, maar DX10.1 lijkt een groot gedeelte van de drawbacks op te heffen en de performancedrop is dan minimaal. Daarnaast noemen ze shader AA een "universal" solution.When it comes to anti-aliasing in AC, the heart of the matter is the differences in graphics architectures. ATI's current GPUs do not have dedicated anti-aliasing hardware. Instead, they rely on the pixel shaders to achieve the same result. Depending on the type of graphics work being done, this approach can have a negative impact on performance. ATI seems to have gotten around this via some of the extensions to DirectX 10.1. NVIDIA graphics chips do include anti-aliasing hardware, but that hardware cannot be properly utilized in some situations. Specifically, there are post-rendering effects that interfere with the use of anti-aliasing hardware -- that's why some games don't support anti-aliasing at all.
Door AA op dezelfde manier te forceren krijg je dus:
Het ergste is dat de technologische vooruitgang wordt tegengehouden door dit soort grapjes en wel om iets kinderachtigs als:We can see the result of using pixel shaders to do anti-aliasing in the resulting performance drop. What's noteworthy is that the drop isn't nearly as bad on ATI hardware running AC version 1.00. In other words, the 1.02 patch levels the playing field and forces ATI and NVIDIA to both use an extra rendering pass in order to do anti-aliasing. That probably sounds fair if you're NVIDIA -- or you own NVIDIA hardware -- but ATI users should be rightly upset.
Hoe meer grote sites hier aandacht aan besteden, des te meer zullen developers er veel beter over nadenken alvorens ze bepaalde optimalisaties er zo maar uit slopen.Money might not have changed hands directly, but as part of NVIDIA's "The Way It's Meant to Be Played" program, it's a safe bet that NVIDIA wasn't happy about seeing DirectX 10.1 support in the game -- particularly when that support caused ATI's hardware to significantly outperform NVIDIA's hardware in certain situations.
En over die issues op NV DX10 hardware door het DX10.1 path... daar zouden dan ook HD2900XT gebruikers last van moeten hebben aangezien die van hetzelfde path gebruik maakt. Helaas heb ik nog nergens dezelfde meldingen gezien van HD2900XT users met duidelijke screenshots.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
XFX verkoopt ook nVidia moederborden.Hacku schreef op maandag 02 juni 2008 @ 18:22:
XFX verkoopt enkel videokaarten, en die markt is moordend.
[ Voor 3% gewijzigd door Format-C op 02-06-2008 19:04 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit was de 8.5 maar die is al uit en gaf ook voor de rest leuke boosts. Of bij 8.6 zit weer zo'n boost. Als dat alleen voor 3Dmark geld heb je er natuurlijk niets aan. Hopelijk profiteren andere games er ook van.The Source schreef op maandag 02 juni 2008 @ 18:48:
Kreeg vanmiddag van AMD te horen dat volgende ATI driver in Vantage een boost van 10% (3870) tot 20% (3650) zou gaan geven. Versie nummer ff vergeten, 8.5 ofzo? Zit niet zo in AMD drivers
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ja lijkt me als ze dat vandaag zeiden dat ze niet oude koeien uit de sloot gaan halen. Dus zal wel over de 8.6 release gaan.The Source schreef op maandag 02 juni 2008 @ 18:48:
Kreeg vanmiddag van AMD te horen dat volgende ATI driver in Vantage een boost van 10% (3870) tot 20% (3650) zou gaan geven.
In het nV topic heeft The Source nog een leuke posting gedaan over physics.
http://gathering.tweakers.net/forum/view_message/30173210
Het ziet der naar uit de nV der toch echt serieus mee aan de slag gaat. Ben erg benieuwd hoe dit gaat uitpakken en wat ATi hier dan weer mee gaat doen. Omdat de plug reeds weer uit het project was getrokken zover ik weet.
[ Voor 82% gewijzigd door Apoca op 02-06-2008 19:41 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Dit topic is gesloten.