Verwijderd
Nu nog ff wachten met wat nV met zijn prijsstelling gaat doen. Een GTS 640 MB kost zo'n 350-360 euro. Een X2900 met 20% meer performance (en de rest) is helemaal niet slecht voor een 30 euro meer. Dus nvidia moet wel met zijn prijs omlaag om te kunnen concureren.
Verwijderd
heh EUR 365,90 dat is niet verkeerd moet ik toegevenJoepi schreef op donderdag 03 mei 2007 @ 13:23:
oops - ASUS ATI EAH2900XT/G/HTVDI PCI-E 512MB Stalker duikt op![]()
http://geizhals.at/eu/a254977.html
[ Voor 71% gewijzigd door XWB op 03-05-2007 13:37 ]
Hmm, specs zien er raar uit. Clockspeed draait op 757 en de mem speed draait op 828. dat is resp. 7/3mhz sneller dan de standaard clocks. Maar ik kan nergens info of pics vinden.Joepi schreef op donderdag 03 mei 2007 @ 13:23:
oops - ASUS ATI EAH2900XT/G/HTVDI PCI-E 512MB Stalker duikt op![]()
http://geizhals.at/eu/a254977.html
Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)
Verwijderd
Waarom? Niemand speelt daarop, ik ben geintreseerd in 1280x... Met HDR hoge AA en AF en 1600x... met ...SgtStrider schreef op donderdag 03 mei 2007 @ 13:17:
[...]
offtopic:
stop met het gebruik van het woord performantie, het bestaat niet
Ik denk dat dat wel meevalt, er is nog veel te winnen op drivergebied, en ik denk niet dat we uberhaupt al betrouwbare benchmarks gezien hebben. Wordt gewoon een kwestie van reviews van uiteindelijke releasekaarten bekijken... en dan wel met de laatste (officiele) drivers van beide partijen. En dan graag wel op 2560x1600 met 16xAA
Of die goed draait in resoluties die ik misschien kan gebruiken over 5-10 jaar maakt me weinig uit
Maar ja nog wat wachten, wanneer verliep die nda? 14 mei?
Hmm weet ik niet, ik zie ze eerder de 320MB versie behouden en de 640MB versie uitfaseren, er is immers weinig verschil tussen de 2 voor de meeste mensen en als de XT een stuk beter is tegen dezelfde prijs is ze compleet nutteloos. De 320MB versie voor een 250 euro, GTX 400-450 en ultra 550-600(tijdje na de introductie)Verwijderd schreef op donderdag 03 mei 2007 @ 13:35:
Nice catch.
Nu nog ff wachten met wat nV met zijn prijsstelling gaat doen. Een GTS 640 MB kost zo'n 350-360 euro. Een X2900 met 20% meer performance (en de rest) is helemaal niet slecht voor een 30 euro meer. Dus nvidia moet wel met zijn prijs omlaag om te kunnen concureren.
Asus doet dit wel meer. Zo kunnen hun kaarten als betere uit de tests komen.vigilante888 schreef op donderdag 03 mei 2007 @ 13:40:
Hmm, specs zien er raar uit.
Yes, but no.
[ Voor 6% gewijzigd door edward2 op 03-05-2007 14:48 ]
Niet op voorraad.
Daar komt inderdaad een vette PSU bijkijken en na die crossfire setup gebruik je hem nooit meer optimaal.edward2 schreef op donderdag 03 mei 2007 @ 14:43:
Een CF setje wordt zo wel steeds interessanter, hoewel daar wel een vette PSU bijkomt.
Ik zie allemaal mensen PSU's van 700 - 1000 watt kopen

Of gaan we nu ook al de PSU elk jaar vervangen!?
`edward2 schreef op donderdag 03 mei 2007 @ 14:43:
Een CF setje wordt zo wel steeds interessanter, hoewel daar wel een vette PSU bijkomt.
En niet te vergeten de vette energierekening.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ati gaat voor DX10!
Er zitten 3 DX10 games in de doos (of bonnetjes...?) van de x2900xt en wel dit


Ja daar denk ik ook wel eens aan. Waar stopt het? Gaan we straks met 65 nm en kleiner weer terug naar onder de 100W, of zitten we straks met externe adapters?Gurneyhck schreef op donderdag 03 mei 2007 @ 15:04:
[...]
Daar komt inderdaad een vette PSU bijkijken en na die crossfire setup gebruik je hem nooit meer optimaal.
Ik zie allemaal mensen PSU's van 700 - 1000 watt kopenTerwijl het niet te verwachten is dat na deze GPU generatie de wattages nog hoger is. Zeker niet nu AMD zich er mee gaat bemoeien. Ook de processoren zullen niet extreem meer gaan verbruiken. Dus in mijn optiek is de aanschaf van een überPSU nutteloos met het oog op de toekomst.
Of gaan we nu ook al de PSU elk jaar vervangen!?
Niet op voorraad.
Ik hoop alleen dat de Fabrikanten nog een beetje met de koeler gaan spelen.
Ik vind die tribals niet echt wat maja opzich , boeie hij hant op de kop !
вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ
Gurneyhck schreef op donderdag 03 mei 2007 @ 15:04:
[...]
Daar komt inderdaad een vette PSU bijkijken en na die crossfire setup gebruik je hem nooit meer optimaal.
Ik zie allemaal mensen PSU's van 700 - 1000 watt kopenTerwijl het niet te verwachten is dat na deze GPU generatie de wattages nog hoger is. Zeker niet nu AMD zich er mee gaat bemoeien. Ook de processoren zullen niet extreem meer gaan verbruiken. Dus in mijn optiek is de aanschaf van een überPSU nutteloos met het oog op de toekomst.
Of gaan we nu ook al de PSU elk jaar vervangen!?
Ik zit zelf te wachten op de Ultraproducts X3 800w en iemand die het in NL verkoopt.. Meer dan dit heb je imo niet/nooit nodig, zelfs niet bij CF.
Als je de PSU tests leest zie je overigens wel dat de buildquality van de PSU's echt veel beter is geworden op alle onderdelen alleen vindt je dit vooralsnog eerder terug in de toppsu's.
Zolang het rendement in het door mij gebruikte wattageprofiel maar goed is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
er zit een coupon in waarmee je een game can d.l van valve.Joepi schreef op donderdag 03 mei 2007 @ 15:13:
Blijkbaar zijn er X2900 met stalker erbij, maar veel interessanter is dit bericht van pcpop (china):
Ati gaat voor DX10!
Er zitten 3 DX10 games in de doos (of bonnetjes...?) van de x2900xt en wel dit![]()
[afbeelding]
[afbeelding]
Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)
Ja jij gebruikt dat misschien niet nee. Maar ik gebruik al 1920x1200 met mijn 24" en er zijn ook zat mensen met een 30" en dus 2560-1500. Misschien mag je wel iets verder kijken dan je neus lang is. Want er zijn zat mensen die dat gebruiken. Echter meer mensen die 1280x1024 draaien maar die kopen ook geen HD2900 XT maar een HD2600 of 8600.k995 schreef op donderdag 03 mei 2007 @ 13:59:
[...]
Waarom? Niemand speelt daarop, ik ben geintreseerd in 1280x... Met HDR hoge AA en AF en 1600x... met ...
Of die goed draait in resoluties die ik misschien kan gebruiken over 5-10 jaar maakt me weinig uit
Maar ja nog wat wachten, wanneer verliep die nda? 14 mei?
Ik bekijk het zo. Ik koop nu een 1000 watt en dan hoef ik voorlopig niets nieuws meerGurneyhck schreef op donderdag 03 mei 2007 @ 15:04:
[...]
Daar komt inderdaad een vette PSU bijkijken en na die crossfire setup gebruik je hem nooit meer optimaal.
Ik zie allemaal mensen PSU's van 700 - 1000 watt kopenTerwijl het niet te verwachten is dat na deze GPU generatie de wattages nog hoger is. Zeker niet nu AMD zich er mee gaat bemoeien. Ook de processoren zullen niet extreem meer gaan verbruiken. Dus in mijn optiek is de aanschaf van een überPSU nutteloos met het oog op de toekomst.
Of gaan we nu ook al de PSU elk jaar vervangen!?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
- Free Game Redemption Coupon
Hiermee kan je direct na aankoop een willekeurige game uit de Valve/Steam catalogus downloaden
- Valve Black Box Game Coupon
Hiermee kan je tzt de drie games die in de "Black Box" van Valve zitten downloaden, dus Half Life 2: Episode Two, Team Fortress 2 en Portal.
Jaja, 6 miljoen dollar brengt je een heel eind.
Overigens weet ik niet zeker of elke AIB twee vouchers er bij doet. Kan natuurlijk ook zijn dat men er voor kiest om er een andere game bij te bundelen.
[ Voor 15% gewijzigd door CJ op 03-05-2007 15:49 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ze suggereren dus dat Valve in de versie van de Source engine die shipped met Episode II een DX10 renderpath heeft ingebouwd?Joepi schreef op donderdag 03 mei 2007 @ 15:13:
Blijkbaar zijn er X2900 met stalker erbij, maar veel interessanter is dit bericht van pcpop (china):
Ati gaat voor DX10!
Er zitten 3 DX10 games in de doos (of bonnetjes...?) van de x2900xt en wel dit![]()
[afbeelding]
[afbeelding]
Er zijn maar weinig mensen die een 24"inch of 30" inch scherm hebben en op die hoge reso's gamen hoor... De meeste mensen spelen af en toe een spelletje, en wel op 1280x1024 of 1600x1200.Astennu schreef op donderdag 03 mei 2007 @ 15:46:
Ja jij gebruikt dat misschien niet nee. Maar ik gebruik al 1920x1200 met mijn 24" en er zijn ook zat mensen met een 30" en dus 2560-1500. Misschien mag je wel iets verder kijken dan je neus lang is. Want er zijn zat mensen die dat gebruiken. Echter meer mensen die 1280x1024 draaien maar die kopen ook geen HD2900 XT maar een HD2600 of 8600.
Dus ZAT zoals jij zegt zal het niet zijn. Daarvoor zijn die schermen veel te duur.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik weet wel dat je dan niet per se meer verbruikt (vertel mij wat, studeer elektrotechniekAstennu schreef op donderdag 03 mei 2007 @ 15:46:
[...]
Ik bekijk het zo. Ik koop nu een 1000 watt en dan hoef ik voorlopig niets nieuws meeren het is niet zo dat die 1000 watt meer gebruikt of zo. Die ik heb uitgekozen ( Coolermaster Realpower Pro ) is zelfs zuiniger dan de meeste 400-1000 watt voedingen. Dus dan ben ik gewoon future proof
Maar ik vind het wel doodzonde om een voeding te gaan kopen die 1000W kan leveren en dan vervolgens na 1-2 jaar verbruikt je pc maar 450W bijvoorbeeld. Dan kun je beter voor een goedkoper 500-600W model gaan.
Ik heb het hier dus ook niet over rendement (zuinigheid). Er zullen ook genoeg voedingen zijn van 500W die een goed/hoog rendement hebben. Overigens heb ik me daar nooit in verdiept.
Het wordt niet alleen gesuggereerd. Het is zo...WoutF schreef op donderdag 03 mei 2007 @ 15:54:
[...]
Ze suggereren dus dat Valve in de versie van de Source engine die shipped met Episode II een DX10 renderpath heeft ingebouwd?
http://www.gameinformer.c...65F-B396-4FC304742B3A.htmOn our recent trip to Valve, Doug Lombardi helped clarify a number of things about their upcoming Orange and Black Box releases. For console users, you’ll only be able to purchase the Orange Box, which will include Half-Life 2, Episodes One and Two, Portal, and Team Fortress 2. PC owners can purchase either the Orange Box, or for previous owners of Half-Life 2 and Episode One, they can get the Black Box, which will only have Episode Two, Portal and Team Fortress 2. The Orange and Black Box editions will be available at either retail stores or via Steam (for PC owners only). When launched, however, you won’t be able to just purchase Episode 2, Portal or Team Fortress seperately—you’ll have to buy a package.
Even though Episode Two was to be released last holiday season, many believed that the episodic content was delayed to include the other two games. However, according to Lombardi, this wasn’t the case. “Nothing is done yet. Portal is the closest, but it’s not done today.”
For those who recently upgraded their PC video cards to support DX10, you’ll be happy to know that both Episode Two and Team Fortress 2 will support the advanced technology of these cards, even if the PC is running Windows XP. On the low-end front, Valve still plans on supporting PCs that can only run DX8 applications. Valve’s attempting to also support DX7, but couldn’t confirm if it’d go back that far with technology.
Even though Lombardi wouldn’t confirm a release date, the current schedule is to release all three versions of the packages in the Fall. Lombardi admitted it was a big undertaking to go multiplatform with this package, but the goal is to ship all three versions concurrently.
So what about a Wii release? While everyone we spoke to at Valve is quite enamored with Nintendo’s new console, Valve currently doesn’t have anything in development for the Wii. Regardless of Gabe Newell sending his children’s Mii’s to people on staff, the company hasn’t started development on any Wii projects. However, Lombardi made it clear that the company was quite surprised by the interface and wouldn’t rule out anything just yet.
[ Voor 4% gewijzigd door CJ op 03-05-2007 16:04 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.sallandautomat...productinfo.php?pid=34240
Maarja die heeft ook de kans eraf gehaald te moeten worden, zoals de Sapphire..
Dan ga ik trouwens nog liever voor die Sapphire, iets goedkoper en een beter merk naar mijn mening..
Toch echt jammer dat ATI hier zo laat mee komt, anders ging nvidia nu misschien wat in de problemen zitten ipv ATI.
The best argument against democracy is a five-minute conversation with the average voter.
het wordt toch moeilijk inschatten met DX9/10 enz.
Het eerste game om de X2900XT met Dx10 te checken is Conan, dat spoedig uit is:
maar is Dx9 echt zoveel minder, als hier blijkt?
What's all the hype with DirectX 10?
Dus de realiteit is al gereduceerd tot 'negatief geblaat' hier.Astennu schreef op donderdag 03 mei 2007 @ 09:49:
Nog wat negatief Fudzilla geblaat:
> A separate source reported that the card runs about 100 degrees Celsius which is ridiculously a lot.
> The trouble is that in 3D the card is noisier than the Geforce 8800 GTX. The Radeon HD 2900XT cooler has only two heat pipes and it is not as massive as the G80 GTX ones and this probably makes the fan spin at higher speed and thus making the unnecessary noise
Mja dat hij 100 graden wordt verbaast me niets dat deed de X1900 ook al.
Jarenlang is in dit topic de loftrompet gestoken over ATi (en hard afgegeven op nV) omdat ATi stillere, koelere, minder stroom zuipende en veelal beter presterende kaarten produceerde dan nV. Zodra de rollen omgedraaid zijn doen stilte, koelte, stroomverbruik en topprestaties er plots totaal niet meer toe, en is het 'negatief geblaat' of zelfs 'nV propaganda' zodra er op gewezen wordt. Zoals de ATi wind waait staat het jasje

@ algemeen:
Als men dan perse alleen ATi en niets dan ATi wil kopen puur enkel en alleen omdat het ATi is zeg dat dan, maar doe me een lol en loop niet hypocriet om de haverklap je argumentatie 180C aan te passen aan wat bij iedere nieuwe generatie kaarten het leukst klinkt voor ATi...

Het punt is dat CJ alleen maar de suggestie wekt dat Fuad zijn info baseert op een Slide van nV... wat volslagen irrelevant en zelfs onzinnig is gezien iedereen die niet de afgelopen 3 maanden onder een reusachtige steen heeft geleefd weet dat R600 flink wat meer verstookt dan G80. In de trant van: "de info die daar staat klopt vermoedelijk wel, maar staat me niet aan... bij gebrek aan mogelijkheden tot schieten op de message discrediteren de messenger maar"markjuh schreef op donderdag 03 mei 2007 @ 10:44:
Daar gaat het toch niet om. Het punt is dat Fuad zijn woorden kracht bij zet met slides van nVidia. Buiten het feit of het wel of niet klopt, een echt objectief nieuwsbericht kun je het dan niet noemen.
Wat boeit het nou of de kaart 240 of 220W verstookt... het is gewoon te veel voor een middelmatig presterende high-end kaart, en zeker als we een performance per watt plaatje erbij halen. Punt uit.
Breek me overigens a.j.b. de bek niet open over 'objectiviteit', een aardig aantal mensen in dit topic moet de definitie daarvan nog uitvinden... dit woord richting een nieuwssite in de mond nemen in dit topic heeft een heel erg hoog "oude pot verwijt niewe ketel"-gehalte

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik vind de R600 koeler behoorlijk stil draaien, en da's ook realiteit. Fudzilla blaat veel.Dus de realiteit is al gereduceerd tot 'negatief geblaat' hier.
Er is een verschil tussen 'behoorlijk stil' en '(vrijwel) geruisloos'.Hacku schreef op donderdag 03 mei 2007 @ 16:58:
Ik vind de R600 koeler behoorlijk stil draaien, en da's ook realiteit. Fudzilla blaat veel.
Indien wat Fudzilla aangeeft (dat de 8800 cooler efficienter is) ook werkelijk waar is dan is het i.m.o. niet meer dan logisch dat de 8800 stiller is. De 8800 is van zichzelf al een koelere chip, tel dat op bij efficientere koeling en er vormt zich een logisch en duidelijk beeld.
Daarnaast vraag ik me serieus af of ATi de cooler wel voldoende toeren laat maken om de kaart op een redelijke temperatuur te houden. Kan aan mij liggen maar ik vind temps rond de 100C bepaald niet normaal voor een videokaart. Dat vraagt om verhoogde uitval.
En om nog even verder in te gaan op performance per watt... de XT verbruikt zo'n 50% meer stroom dan de GTS (~220W+ vs ~150W-) en levert volgens optimistische schattingen die ik hier heb gezien zo'n 20% betere prestaties. Do the math.
Maja, ik zal ook wel gewoon 'negatief aan het blaten' zijn nietwaar?
Ben benieuwd wat we allemaal hier hadden kunnen lezen als de rollen omgedraaid waren geweest... tenminste, ik weet het al uit het verleden: 't topic zou te klein zijn
[ Voor 31% gewijzigd door dion_b op 03-05-2007 20:06 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Lijkt wel of de dx9 screens er nog minder goed uitzien dan farcry... Dus in dx9 modus zou je nog gewoon die game op een 9700pro kunnen spelenJoepi schreef op donderdag 03 mei 2007 @ 16:46:
Sorry mods, mag het ff?
het wordt toch moeilijk inschatten met DX9/10 enz.
Het eerste game om de X2900XT met Dx10 te checken is Conan, dat spoedig uit is:
maar is Dx9 echt zoveel minder, als hier blijkt?![]()
What's all the hype with DirectX 10?
Exakt: we worden gewoon voor gek verklaart... alsof er niet allang HDR/SM3.0 waren:paragon schreef op donderdag 03 mei 2007 @ 17:29:
[...]
Lijkt wel of de dx9 screens er nog minder goed uitzien dan farcry... Dus in dx9 modus zou je nog gewoon die game op een 9700pro kunnen spelen
http://www.youtube.com/watch?v=bqh3y_KnOwM
http://www.daionet.gr.jp/~masa/rthdribl/
Nah die pics zijn gewoon zwaar hoax. Ik heb al véél mooiere beelden gezien in DirectX9, zelfs mooier dan wat ik daar zie onder DirectX10... Als je kijkt zie je dat er geen Anisotrophic Filtering is toegepast, geen goede lightmaps, normal maps, geen HDR, anyway geen dynamische belichting... Ook zie ik nergens shadows of Dynamic shadows, textures zijn er bijzonder crappy uit (vergelijkbaar met Oblivion op Low).paragon schreef op donderdag 03 mei 2007 @ 17:29:
[...]
Lijkt wel of de dx9 screens er nog minder goed uitzien dan farcry... Dus in dx9 modus zou je nog gewoon die game op een 9700pro kunnen spelen
Nee, ik weet zeker dat het niet zo wordt
Nu ben je gewoon wat aan het uitlokken maar goed...Cheetah schreef op donderdag 03 mei 2007 @ 17:07:
[...]
Er is een verschil tussen 'behoorlijk stil' en '(vrijwel) geruisloos'.
Indien wat Fudzilla aangeeft (dat de 8800 cooler efficienter is) ook werkelijk waar is dan is het i.m.o. niet meer dan logisch dat de 8800 stiller is. De 8800 is van zichzelf al een koelere chip, tel dat op bij efficientere koeling en er vormt zich een logisch en duidelijk beeld.
Daarnaast vraag ik me serieus af of ATi de cooler wel voldoende toeren laat maken om de kaart op een redelijke temperatuur te houden. Kan aan mij liggen maar ik vind temps rond de 100C bepaald niet normaal voor een videokaart. Dat vraagt om verhoogde uitval.
En om nog even verder in te gaan op performance per watt... de XT verbruikt zo'n 50% meer stroom dan de GTS (~220W+ vs ~150W-) en levert volgens optimistische schattingen die ik hier heb gezien zo'n 20% betere prestaties. Do the math.
Maja, ik zal ook wel gewoon 'negatief aan het blaten' zijn nietwaar?
Ben benieuwd wat we allemaal hier hadden kunnen lezen als de rollen omgedraaid waren geweest... tenminste, ik weet het al uit het verleden: 't topic zou te klein zijn
Het gaat er om dat Fudzilla de laatste dagen alleen maar negatieve dingen te melden heeft. En het bestempeld als waar. Maar het zijn allemaal geruchten. De 14e weten we alles pas. En ik vind het niet acceptabel als die HD2900 XT 240 watt gebruikt. Hopelijk is hij zuiniger te maken door dowclocken zonder de performance te veel om laag te halen. Maar als dat niet lukt denk ik niet dat ik em heel lang houd. Maar misschien valt het mee... Zoals ik al eerder zij ik vind 240 watt erg raar voor een chip die maar iets groter is dan de G80 en op 80nm is gemaakt toc 90 voor de G80. En 300 watt als je overclockt vind ik ook ongeloofwaardig. Maar goed mocht het waar zijn vind ik het niet kunnen en wil ik die kaart niet hebben want ik ben erg voor performance per watt. En de performance lijkt de 8800 Ultra niet te kunnen evenaren. Maar ook dat weten we niet zeker.....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
"nee dat is fout...negatief commentaar...niet getolereerd...feiten verdraaien...teveel nuanceren...vroeger was het positief nu negatief...discreteren...bold bold...underline underline...deze kaart is veel beter daarvoor...feit 1 is negatief...feit 2 positief...die andere kaart zuigt...nu is feit 1 is positief...en feit 2 negatief...ik ben neutraal...zoek het beste op dit moment...zoek het beste voor over 2 maand...is miskoop want over 4 maand waardeloos...mijn mening...mijn mening...mijn mening..."
...
Is niet ieders mening. Chill eens gewoon effe en lees wat er staat voordat je weer een post neerzet van anderhalve pagina waar het op neerkomt dat je woorden leest die er niet zijn.
Geweldig hoe jij telkens weer woorden in de mond van een ander weet te schuiven en het gedrag van anderen dusdanig goed weet te analyseren. Ja joh. Je hebt helemaal gelijk. Ik schiet de messenger neer. Prima....Cheetah schreef op donderdag 03 mei 2007 @ 16:46:
[...]
Het punt is dat CJ alleen maar de suggestie wekt dat Fuad zijn info baseert op een Slide van nV... wat volslagen irrelevant en zelfs onzinnig is gezien iedereen die niet de afgelopen 3 maanden onder een reusachtige steen heeft geleefd weet dat R600 flink wat meer verstookt dan G80. In de trant van: "de info die daar staat klopt vermoedelijk wel, maar staat me niet aan... bij gebrek aan mogelijkheden tot schieten op de message discrediteren de messenger maar"
Wat boeit het nou of de kaart 240 of 220W verstookt... het is gewoon te veel voor een middelmatig presterende high-end kaart, en zeker als we een performance per watt plaatje erbij halen. Punt uit.
Maar soms is het gemakkelijker om de feiten te pakken. Die zijn dat nVidia een slide heeft gemaakt waarop staat dat de R600 240W verbruikt. Nog geen dag nadat HardOCP z'n artikel over de GF8800U online heeft gezet plaatst Fudo een artikel over de R600 die 240W verbruikt. Hij heeft het in ieder geval niet van AMD zelf. Dit patroon is al veel vaker voorgekomen en Fudo breekt vaak ook bepaalde nieuwsberichten van andere sites (en zelfs forums) op in miniscule artikelen om toch maar dagelijks (of zelfs om de paar uur) iets te kunnen posten.
Wat hier nog te veel in dit topic gebeurt is dat mensen nieuws van roddel/geruchtensites als The Inq, Fudzilla en Dailytech als waarheid verkondigen. Ik laat alleen maar zien dat het goed mogelijk is dat veel van die berichten zo maar uit de lucht gegrepen kunnen zijn (of zelfs van het groene kamp kunnen komen, want nVidia is op dit moment druk bezig met mailtjes rond te sturen naar verschillende partners waar de R600 finaal de grond in wordt geboord). Zelfs in de topicwaarschuwing staat: "Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid".
Gaan we weer opnieuw beginnen? Zoek eens op wat moderator replies in het verleden wanneer het gaat om objectiviteit en dit topic. Genoeg mensen die gemodereerd en zelfs gewaarschuwd zijn. Er staat zelfs nog een post over in het mod-forum. Jammer dat de geschiedenis zich weer om de zoveel tijd moet herhalen. Ik zal hier verder ook weinig woorden meer over vuil maken want dit gaat weer enorm offtopic en laat het aan de mods over.Breek me overigens a.j.b. de bek niet open over 'objectiviteit', een aardig aantal mensen in dit topic moet de definitie daarvan nog uitvinden... dit woord richting een nieuwssite in de mond nemen in dit topic heeft een heel erg hoog "oude pot verwijt niewe ketel"-gehalte
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Er is maar 1 feit; en dat is dat er nog haast niks echt concreet is.
En het enige dát concreet EN waar is, zijn de bench results die Hacku heeft gegeven.
De grond inboren of ophemelen kan altijd nog, maar nu nog niet omdat niemand nog iets 100% ZEKER weet.
[ Voor 64% gewijzigd door Format-C op 03-05-2007 18:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
nieuws: 'ATi's R600 verstookt 250W'
Dit is gebaseerd op het gerucht dat de koeler een vermogen van 250 Watt kan afvoeren.
Daarbij moet je weten dat die € 14 Arctic Freezer 64 Pro een vermogen van 200 Watt kan afvoeren. Wil dat zeggen dat dat alle Athlons daarom sowieso 200 Watt verstoken? Natuurlijk niet. Het is een stuk minder dan de helft zelfs.
Ik ben daarom betrekkelijk optimistisch over het verbruik.
Yes, but no.
Ik (en CJ daarvoor al, maar dat had ik niet gezienmieJas schreef op donderdag 03 mei 2007 @ 18:24:
Ik ben daarom betrekkelijk optimistisch over het verbruik.
Het feit dat er een 8-polige (en 6-polige) PCI-E aansluiting op de kaart zit zegt ook veel:
Een 8-polige zou betekenen dat de kaart (misschien in OC toestand) wel degelijk tegen de 225W aanzit. Of misschien er wel overheen gaat. Die stekkeraansluiting zit er niet voor niets op, en is puur bedoeld voor meer stroom. (Eventueel) Meer dan 225W. Wat ik schandalig vindt, maar dat heb ik al wel 1000 keer gezegd, en ik zal het hierna dan ook niet meer zeggen.Under no circumstances can a card consume more than about 225W. A simple calculus will prove that. As you know, a video card cannot drain more than 75W from the PCI-E slot. Add a maximum of 2 6-pin power connectors rated at 75W each and you’ll get a total of 225W. And I repeat, that is actually the maximum amount of power that can be drained from the PSU, corresponding to about 19A of load on the +12 line.
[ Voor 23% gewijzigd door Format-C op 03-05-2007 18:32 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
http://forums.overclocker...hp?p=9247744&postcount=18Originally Posted by Gibbo
Hi there
Our system had an Enermax 1000W PSU.
I have the ATI Tech/Fact sheet here so upto 200W is requirement at stock clocks with 2x6pin connectors.
If overclocking then you need 1x8pin and 1x6pin connected and then it consumes upto 225W.
I hope ATI don't bash me for stating this but I don't want misleading information such as that going around.
Fact is a decent quality 400-500W PSU will run of these cards fine if your running a Core 2 DUO system or Athlon X2 based system.
Niet op voorraad.

Tja, zoals ik al zei... Fudo heeft dus duidelijk bepaalde dingen niet gezien die anderen wel gezien hebben. Dat is dus ook een van de redenen waarom ik bepaalde uitspraken van HardOCP zo in twijfel trok over het stroomverbruik van de R600.
Shamino bevestigd het ook:
Conclusie: als je gelooft wat er op roddelsites geplaatst wordt, dan verdien je het om misleid te worden.if everyone belives whatever they read without checking the links, then they dserve to be mislead since they are alrdy misled to begin with.
Well so you say they're dumb , then so be it, you dont lose anything.
http://forums.vr-zone.com...hp?p=3652213&postcount=39
Excuses voor de "I told you so" mentaliteit van mijn post.


Dan iets anders wat ik nog niet echt voorbij heb zien komen (correct me if I'm wrong/blind): Een handig/leuk tooltje voor je Radeon van AMD:
http://www.techpowerup.com/?30555AMD GPU Clock Tool - Works on R600 !
Ever since R600 samples were handed out by AMD, people have been asking me for R600 support in ATITool. It's coming along nicely, but is not quite ready yet.
In the meantime you can use this nifty little tool from AMD. It can change 2D/3D clocks and lets you monitor temperatures of the card. It also works on RV610, RV630 and all previous products. It works under 2k, XP, Vista, 32-bit & 64-bit.
[ Voor 86% gewijzigd door CJ op 03-05-2007 18:55 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Neen er zijn amper mensen die dat hebben, overgrote meerderheidheeft 1024 of 1280 en oblivion op 1280x.. met hoge aa en af brengt zelf een gtx op zijn knieen . 8800GTS of 2900XL/pro of zelfs XT is dus ook voor deze mensen.Astennu schreef op donderdag 03 mei 2007 @ 15:46:
[...]
Ja jij gebruikt dat misschien niet nee. Maar ik gebruik al 1920x1200 met mijn 24" en er zijn ook zat mensen met een 30" en dus 2560-1500. Misschien mag je wel iets verder kijken dan je neus lang is. Want er zijn zat mensen die dat gebruiken. Echter meer mensen die 1280x1024 draaien maar die kopen ook geen HD2900 XT maar een HD2600 of 8600.
2560x... is echt 0.0001%
Het ding kost gewoonweg veel verlsijt (PSU lijden onde angdurig gebruik,...Ik bekijk het zo. Ik koop nu een 1000 watt en dan hoef ik voorlopig niets nieuws meeren het is niet zo dat die 1000 watt meer gebruikt of zo. Die ik heb uitgekozen ( Coolermaster Realpower Pro ) is zelfs zuiniger dan de meeste 400-1000 watt voedingen. Dus dan ben ik gewoon future proof
Tegen dat je het echt nodig hebt kan je dus misschie ale een nieuwe kopen.
LOL. Bijna alles wat we de laatste maanden hebben gelezen zijn roddels of klopt maar half.CJ schreef op donderdag 03 mei 2007 @ 18:44:
Conclusie: als je gelooft wat er op roddelsites geplaatst wordt, dan verdien je het om misleid te worden.

lijkt me dan ook een mooi moment om geen links meer naar roddelsites te plaatsen.
[ Voor 12% gewijzigd door Format-C op 03-05-2007 18:59 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Mijn voorkeur gaat ook uit naar de Sapphire.blacktarantulaX schreef op donderdag 03 mei 2007 @ 16:19:
Salland heeft nu ook de Asus geadd !!
http://www.sallandautomat...productinfo.php?pid=34240
Maarja die heeft ook de kans eraf gehaald te moeten worden, zoals de Sapphire..
Dan ga ik trouwens nog liever voor die Sapphire, iets goedkoper en een beter merk naar mijn mening..
Ben zeer benieuwd wanneer de asus ook weer bij salland van de site af is. (eigenlijk onzin; 14 mei komt de kaart uit toch??? die paar dagen)
Verwijderd
Gelukkig dat ie dan minder dan 20% duurder is. You do the mathCheetah schreef op donderdag 03 mei 2007 @ 17:07:
En om nog even verder in te gaan op performance per watt... de XT verbruikt zo'n 50% meer stroom dan de GTS (~220W+ vs ~150W-) en levert volgens optimistische schattingen die ik hier heb gezien zo'n 20% betere prestaties. Do the math.
Waag t niet te beginnen over toekomstige prijstellingen en huidige, want dat kan ik ook over performance zeggen
For the record; een GTS 640 kost €339,-Verwijderd schreef op donderdag 03 mei 2007 @ 19:05:
Ach ja Fudo probeert met alle macht zijn site te promoten. Tja en er zijn altijd meer oren naar slecht nieuws dan naar goed, dus ja who to blame?
[...]
Gelukkig dat ie dan minder dan 20% duurder is. You do the math![]()
Waag t niet te beginnen over toekomstige prijstellingen en huidige, want dat kan ik ook over performance zeggen
En dat er meer oren voor slecht nieuws zijn ben ik gewoonweg niet met je eens.
[ Voor 5% gewijzigd door Format-C op 03-05-2007 19:19 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ach, roddels zijn best vermakelijk en tevens ook een belangrijke drijfveer van dit soort topics. Het gaat er gewoon om dat je alles in het juiste perspectief weet te brengen, waardoor je sneller de waarheden en onwaarheden uit de berichten weet te filteren.RappieRappie schreef op donderdag 03 mei 2007 @ 18:58:
[...]
LOL. Bijna alles wat we de laatste maanden hebben gelezen zijn roddels of klopt maar half.
lijkt me dan ook een mooi moment om geen links meer naar roddelsites te plaatsen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Inderdaad. Ik vind het altijd wel leuk om roddels te lezen maar aan de mate die er al een hele poos uitgepoept worden... Niet meer te volgen, men spreekt zichzelf elk uur weer tegen en dat is voor iedereen gewoon irritant. Gelukkig hebben we mensen als CJ, The Source en nog enkele personen die wel weten wat waar is en wat niet, zodat zij ons kunnen inlichten wat we met een korrel zout moeten nemen en wat we gewoon moeten vergeten.RappieRappie schreef op donderdag 03 mei 2007 @ 18:58:
[...]
LOL. Bijna alles wat we de laatste maanden hebben gelezen zijn roddels of klopt maar half.
lijkt me dan ook een mooi moment om geen links meer naar roddelsites te plaatsen.
Tuurlijk is het vermakelijk.CJ schreef op donderdag 03 mei 2007 @ 19:19:
[...]
Ach, roddels zijn best vermakelijk en tevens ook een belangrijke drijfveer van dit soort topics. Het gaat er gewoon om dat je alles in het juiste perspectief weet te brengen, waardoor je sneller de waarheden en onwaarheden uit de berichten weet te filteren.
Pas als de reviews er zijn zijn de roddels voorbij, en kan er echt over de X2800 (performance/ IQ/ features) gediscussieerd worden.
[ Voor 8% gewijzigd door Format-C op 03-05-2007 19:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Zij weten niet wat waar is, zij gebruiken gewoon common sense en relativeren veel zodat ze tot een beperkte maar meestal juiste conclusie kunnen komenPhuncz schreef op donderdag 03 mei 2007 @ 19:20:
[...]
Inderdaad. Ik vind het altijd wel leuk om roddels te lezen maar aan de mate die er al een hele poos uitgepoept worden... Niet meer te volgen, men spreekt zichzelf elk uur weer tegen en dat is voor iedereen gewoon irritant. Gelukkig hebben we mensen als CJ, The Source en nog enkele personen die wel weten wat waar is en wat niet, zodat zij ons kunnen inlichten wat we met een korrel zout moeten nemen en wat we gewoon moeten vergeten.
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk dat jij, en nog een twee- of drietal anderen de enigen zijn die ECHT weten wat wel of niet waar is. Echter verpakken jullie altijd alles zo kryptisch en mysterieus dat het moeilijk te bepalen is wat er nu wel of niet waar is.CJ schreef op donderdag 03 mei 2007 @ 19:29:
Daar heb je gedeeltelijk gelijk in. Ik spreek voor mezelf als ik zeg dat ik voor het grote gedeelte common sense gebruik, maar ook regelmatig wat officiele documenten toegespeeld krijg van bepaalde contacten die anoniem willen blijven.En als je dit dan met elkaar combineert, dan kom je al heel snel achter wat waar is en wat niet waar is (en vaak zie je ook waar welke geruchten vandaan komen en is het enorm komisch om te zien wat voor heisa er soms gemaakt wordt als iets verkeerd geinterpreteerd wordt).
LOL.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het enigste, echt het enigste wat ik probeer te zeggen, ongeacht wat voor positiefs of negatiefs er in een bericht van Fudzilla staat, is dat een nieuwssite die nieuws brengt over produkt A, dit nieuws kracht wil bijzetten met slides van produkt B, dus de concurrent , naar mijn mening geen nieuws is. Sterker nog, ik geef zelfs aan dat de R600 naar mijn mening toch tegen valt voor een produkt dat zo lang is uitgesteld, althans daar het lijkt het op. Dus ik ben het (gedeeltelijk) eens met wat ze zeggen. Ik zeg nergens dat die slide is gebruikt, ik zeg alleen dat het slecht is dat dit soort dingen gebeuren.Cheetah schreef op donderdag 03 mei 2007 @ 16:46:
[...]
[...]
Het punt is dat CJ alleen maar de suggestie wekt dat Fuad zijn info baseert op een Slide van nV... wat volslagen irrelevant en zelfs onzinnig is gezien iedereen die niet de afgelopen 3 maanden onder een reusachtige steen heeft geleefd weet dat R600 flink wat meer verstookt dan G80. In de trant van: "de info die daar staat klopt vermoedelijk wel, maar staat me niet aan... bij gebrek aan mogelijkheden tot schieten op de message discrediteren de messenger maar"
Wat boeit het nou of de kaart 240 of 220W verstookt... het is gewoon te veel voor een middelmatig presterende high-end kaart, en zeker als we een performance per watt plaatje erbij halen. Punt uit.
Breek me overigens a.j.b. de bek niet open over 'objectiviteit', een aardig aantal mensen in dit topic moet de definitie daarvan nog uitvinden... dit woord richting een nieuwssite in de mond nemen in dit topic heeft een heel erg hoog "oude pot verwijt niewe ketel"-gehalte
Het punt is dat je als nieuwssite geen nieuws kunt brengen met als voorbeeld slides van de concurrent van dat produkt waar het nieuws over gaat. En om me nog maar eens extra duidelijk te maken waarom mijn post ging:
"Deze Audi verbruikt enorm veel brandstof en olie, kijk maar naar deze slides die van Mercedes komen."
[ Voor 3% gewijzigd door markjuh op 03-05-2007 19:52 ]
Enige
Als er officiele benchmarks uitzijn valt er volgens mij juist minder te discusieren, dan staat er gewoon vast wat de resultaten zijn en kun je alleen maar bepalen of je daar blij mee bent of niet.
Nu kunnen we (jullie) tenminste nog druk maken over wat waar is en niet
Heb jij de officiele benchmarks al gezien?markjuh schreef op donderdag 03 mei 2007 @ 19:40:
[...]
Sterker nog, ik geef zelfs aan dat de R600 naar mijn mening toch tegen valt voor een produkt dat zo lang is uitgesteld
De R600XT zal wel goed gaan verkopen, daar ben ik van overtuigd. Waarom?
- De performance schijnt
- Prijs van de GTS
- Betere Vista drivers dan nVidia
- Audio
- HDMI aansluiting (via verloop stukje)
- Betere H264 decodering (want 8800GTX/GTS beschikken niet over PureVideo2, enkel over PV1)
- Ook hw support voor VC-1 decodering, etc.
Natuurlijk ligt ook alles aan beschikbaarheid (die in het begin erg rot zal zijn) en aan prijs strategie van nVidia.
Crossfire boeit imho totaal niet (en daarmee ook de belachelijke PSU req. daarvoor waar iedereen schande over spreekt). Volgens http://www.steampowered.com/status/survey.html heeft 1.45% een multi GPU systeem, van die 1.45% is 95% SLI en 5% CF. De steam survey betreft allemaal online gamers, dus die hebben een dikkere GPU of setup dan normaal. Als ik de mainboards bekijk dan zijn er veruit meer SLI capable mainboards verkocht dan CF capable mainboards (ja P965 kan ook CF, maar lang niet alle MB's zijn uitgerust met 2x PCI-E x16). Daarbij is op dit moment Intel met C2D het gamers platform. Op het Intel platform zijn de CF mogelijkheden dus erg beperkt en dit is dan ook direct de grote belemmering van crossfire om door te groeien. Zullen er meer CF systemen verkocht worden door de R600 generatie, ja zeker en hierdoor zal AMD ook meer marktaandeel van de totale dual GPU markt pakken.
Voor een single R600XT boeit de PSU req niet, want de meeste nieuwe systemen worden met een zware PSU uitgeleverd, dus geen probleem. Is het een probleem dat de kaarten van nVIdia een beter performance per watt hebben? Ja leuk om te weten, maar zo milieu bewust zijn we allemaal ook niet, daarbij is p/w echt nog geen marketing issue bij VGA kaarten (zal in 2007 en 2008 wel een issue worden !).
Ik vertelde al eerder dat hij nieuws echt helemaal aan het uitmelken is met kleine korte berichtjes. Snap nu ook waaromVerwijderd schreef op donderdag 03 mei 2007 @ 19:05:
Ach ja Fudo probeert met alle macht zijn site te promoten. Tja en er zijn altijd meer oren naar slecht nieuws dan naar goed, dus ja who to blame?
Ik denk dat er op tweakers best de nodige mensen 'rondhangen' met zo'n scherm, ik ben er in ieder geval een val. En benchmarks met 1.3 (1280x1024) of 2 (1920x1080) megapixel zijn leuk, maar ik wil toch echt benchmarks met 4 (2560x1600) megapixels zien. Ik denk dat op tweakers zoiets 1% zo'n scherm heeft, maar niet minder. 1920x1yyyy zullen waarschijnlijk al zoiets 5-10% van de bezoekers hebben. Aan een 2900XT heb ik naar verwachting meer dan voldoende voor mijn gebruik, aangezien een 8800GTS 640 ook wel zou voldoen. Maar goed, eerst maar eens zien hoe de kaarten van ATI opschalen van 'kiddy island adventure' resolutie naar 'the real thing' voordat ik een miskoop doek995 schreef op donderdag 03 mei 2007 @ 18:55:
[...]
Neen er zijn amper mensen die dat hebben, overgrote meerderheidheeft 1024 of 1280 en oblivion op 1280x.. met hoge aa en af brengt zelf een gtx op zijn knieen . 8800GTS of 2900XL/pro of zelfs XT is dus ook voor deze mensen.
2560x... is echt 0.0001%
Nou sorry hoor, maar van wat The Source net zegt zakt toch echt mijn broek af
Ik bepaal zelf wel hoe milieu bewust ik ben en heb mijn 8800GTX bestelling nota bene geannuleerd in december vorig jaar omdat het idle power verbruik zoveel hoger lag dan dat van de X1950XTX. Wat die jongens als marketing gebruiken zal me worst wezen, maar voor mij is performance per Watt in ieder geval een zeer belangrijk argument, het enige dat ik nog belangrijker vindt is de idle power usage, omdat dat 90% van de tijd dat ik mijn computer gebruik meetelt en de performance per watt factor slechts 10%. Ik zal het nog gekker maken: als de 2900XT idle meer verbruikt dan de 8800GTX denk ik er serieus over om een 1950XTX of 7900GTX te kopen ipv de nieuwere generatie, dan wacht ik wel op 65nm. Performance genoeg in al die kaarten voor mijn doen, milieu telt hier in ieder geval wel mee, maar ja, voor anderen dus pas als het voor marketing doeleinden wordt gebruikt in 2008Ja leuk om te weten, maar zo milieu bewust zijn we allemaal ook niet, daarbij is p/w echt nog geen marketing issue bij VGA kaarten (zal in 2007 en 2008 wel een issue worden !).
Het meest trieste is nog wel dat zolang mensen maar kaarten blijven kopen van 200Watt en meer piek met een Idle/2D verbruik van meer dan 50Watt die fabrikanten er pas op gaan letten als het hun uitkomt of er normen/wetten voor komen. Als consumenten nou in ieder geval eens zouden klagen over het verbruik en niet alleen de slechte overclockbaarheid of warmteontwikkeling die daaruit voortkwam zou het ook eens hoger op de agenda komen. Met deze houding wordt het niet eens 2008 dat het een marketing aspect wordt, eerder 2010.
[ Voor 45% gewijzigd door OruBLMsFrl op 03-05-2007 20:41 ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Verwijderd
@TheSource:voor jou zijn het allemaal details,maar jij weet er veel meer van...Dus informeer ons ook maar
[ Voor 12% gewijzigd door Verwijderd op 03-05-2007 20:34 ]
En je was per ongeluk vergeten het laatste stukje van de zin te quoten? Zucht.....leonpwner1 schreef op donderdag 03 mei 2007 @ 20:18:
[...]
Heb jij de officiele benchmarks al gezien?
althans daar het lijkt het op
Verwijderd
Originally Posted by Gibbo
Hi there
Also regarding this 100c nonsence.
This is making my blood boil now.
AMD/ATI let me tell these guys the real facts about this card because the utter crap on the internet is literally that, CRAP!
The card is quiet, in fact its more or less silent even after a good gaming session. It also stays in the 70c-80c under full load whilst overclocked and still remains quiet.
At stock speeds its generally around the 60c-70c mark and the heatsink does not burn to the touch like an 8800GTX or X1950 XTX, so the card can be handled even after a mad benchmarking session
Verwijderd
Zie ik toch anders: mensen zijn behoorlijk nieuwsschierig en zoeken zich suf op info en dan krijg je allerlei sites die vanwege de bezoekers een lading onzin plaatsen...The Source schreef op donderdag 03 mei 2007 @ 20:21:
Het is ATI's eigen schuld dat er zoveel wazige geruchten zijn die niet kloppen.
Beschikbaarheid erg rot? Totaal niet beschikbaar zul je bedoelen......The Source schreef op donderdag 03 mei 2007 @ 20:21:
Natuurlijk ligt ook alles aan beschikbaarheid (die in het begin erg rot zal zijn)
De beschikbaarheid wisselt wel enorm qua merk. snap niet dat er nog weinig tot geen pre-order mogelijkheden zijn aangezien de lokale pc-boer wel kan vergeten dat hij zo'n kaart krijgt.
Er zijn als het goed is 3 of 4 bedrijven in nederland die alles krijgen dus is het hopen dat de liefhebbers optijd bij de juiste winkel zijn...
Ik ben het met The Source eens dat dit in de toekomst 2007/2008 zeker een issue zal worden ivm oa global warming.
Echter ik ben het ook met hem eens dat dit niet overdreven moet worden. Het gros van de mensen die een gpu koopt denkt over dit onderwerp niet eens na en de gemiddelde highend koper is uiteindelijk toch meer geinteresseerd in brute kracht.
Sommigen die hier posten geven af op R600 stroomverbruik maar draaiden wel X1900 CF......
Verder is het natuurlijk ook betrekkelijk onzinnig om een kaart van 225watt veeeeeel erger te vinden dan een 175watt kaart.
[ Voor 1% gewijzigd door Help!!!! op 04-05-2007 12:27 . Reden: tikfouten ed ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
Verwijderd
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
Tot 14 mei geloof ik daar niets vanRappieRappie schreef op donderdag 03 mei 2007 @ 18:27:
werd toegegeven dat deze kaarten zo'n 220W verstoken
Het koelingsomhulsel is inderdaad groot, maar als je naar de heatsinkt zelf kijkt, neemt het waarschijnlijk nog niet de helft van het geheel in. 70 graden stressed met zo'n prutskoeling voor 220 Watt EN relatief stil zijn... ik moet het nog allemaal zien.
Ter vergelijking: een P4 Prescott onder stress aan 70 graden is geen uitzondering. Daarbij heeft die prescott een heatspreader, een grotere koeler en maakt hopen meer lawaai (ook stock gerekend).
Er vanuit gegaan dat de foto's kloppen, natuurlijk.
[ Voor 55% gewijzigd door mieJas op 03-05-2007 22:07 ]
Yes, but no.
Verwijderd
Hangt er vanaf: winkels hebben weinig met de NDA te maken; hun leveranciers weer welVerwijderd schreef op donderdag 03 mei 2007 @ 21:50:
vreemd,de kaarten waar die geizhals link(ergens op voorgaande pagina's vermeld)naar verwezen,zijn van de site van het verkooppunt gehaald?Dat gebeurt precies wel meer,de reclame op de HIS website is ook al down...Allemaal inbreuken op de NDA?
Maar zou me niks verbazen als ze eind volgende week opduiken...

Verwijderd
Als het goed is heeft hij twee kaartjes. Hacku jij werkte toch bij HardwareInfo.net ?Verwijderd schreef op donderdag 03 mei 2007 @ 23:29:
We moeten gewoon wachten tot er met 14 Mei of langer, dat weten we nu. Verder geloof ik Hacku wel wat betreft zijn info over de 2900XT.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik zag wat benchmarks van mensen die lieten zien dat dit een enorm sterk punt is van de R600. Als je het vergelijkt met de recente Anandtech benchmarks zou het CPU gebruik zelfs goed onder die van de 8600GTS liggen. Nu is het nog maar afwachten of de grote reviewsites tot dezelfde conclusie komen. Dit zal vooral voor de goedkope kaarten een enorm sellingpoint worden.The Source schreef op donderdag 03 mei 2007 @ 20:21:
- Betere H264 decodering (want 8800GTX/GTS beschikken niet over PureVideo2, enkel over PV1)
- Ook hw support voor VC-1 decodering, etc.
Ik ben van mening dat die Steam Survey weinig zegt over dat online gamers een dikkere GPU hebben dan normaal. Zie bv het feit dat de meeste mensen nog met een GF6600GT, GFFX5200 of Radeon9600Pro gamen. En dit wordt versterkt door het feit dat de meeste gamers nog op 1024x768 en 1280x1024 gamen (resp 41 en 39%) en niet hoger (wat een dikkere GPU dus gemakkelijk aan kan). Daarnaast zie je dat de meeste gamers een singlecore PC hebben (86%) terwijl je zou verwachten dat online gamers niet alleen voor een dikke GPU, maar ook voor een dikke CPU zouden gaan.Crossfire boeit imho totaal niet (en daarmee ook de belachelijke PSU req. daarvoor waar iedereen schande over spreekt). Volgens http://www.steampowered.com/status/survey.html heeft 1.45% een multi GPU systeem, van die 1.45% is 95% SLI en 5% CF. De steam survey betreft allemaal online gamers, dus die hebben een dikkere GPU of setup dan normaal.
Die 6600GT kan je in SLI zetten en was ook een erg populair multiGPU oplossing bij gamers vanwege de lage prijs. Dat 95% van de multiGPU opstellingen SLI gebruikt, is dus waarschijnlijk mede te danken aan 1) de goedkope SLI mogelijkheden die 2) nVidia als eerste aanbood. Van die 100.000 man die dus een GF6600GT heeft kan het dus goed bv zijn dat er mensen zijn met 2 GF6600GT kaarten. Dit zou de uitschieter van de GF6600GT ook nog eens kunnen verklaren. Dus die 95% SLI en 5% CF is niet meer dan logisch toch? Zeker gezien het feit dat er maar weinig CF kaarten in de lijst staan. Die GF6600GT was gewoon een enorm succes voor nVidia.
CF is trouwens wel aan een kleine opmars begonnen. Een paar maanden geleden was het nog 1-2%.
Maar goed, die Survey zegt niet zo veel voor mij. Ik zou wel eens een Survey willen zien van Blizzard Entertainment waarin ze de resultaten publiceren van alle 8 miljoen World of Warcraft spelers. Dat zou volgens mij ook best een interessant (en waarschijnlijk compleet ander) beeld geven.
[ Voor 8% gewijzigd door CJ op 04-05-2007 00:26 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik vind het een erg goed initiatief van Valve. Wat echter nergens wordt genoemd, is dat het overgrote deel van de Valve gamers CS: Source of zelfs CS: 1.6 speelt. Dit zijn spellen die alles behalve zwaar zijn en waar je dus ook geen dikke PC voor nodig hebt. Als EA een survey maakt van BF2 en/of BF2142 zul je 100% gegarandeerd veel duurdere/zwaardere configs tegenkomen met ook meer SLi/Crossfire setups. Ik ben het natuurlijk wel met je eens dat het overgrote deel van ALLE online gamers nog een 6600GT'je draait met een 3200+ / PIV 3GHz, maar deze survey is niet representatief voor online gaming imo.CJ schreef op vrijdag 04 mei 2007 @ 00:12:
[...]
Ik zag wat benchmarks van mensen die lieten zien dat dit een enorm sterk punt is van de R600. Als je het vergelijkt met de recente Anandtech benchmarks zou het CPU gebruik zelfs goed onder die van de 8600GTS liggen. Nu is het nog maar afwachten of de grote reviewsites tot dezelfde conclusie komen. Dit zal vooral voor de goedkope kaarten een enorm sellingpoint worden.
[...]
Ik ben van mening dat die Steam Survey weinig zegt over dat online gamers een dikkere GPU hebben dan normaal. Zie bv het feit dat de meeste mensen nog met een GF6600GT, GFFX5200 of Radeon9600Pro gamen. En dit wordt versterkt door het feit dat de meeste gamers nog op 1024x768 en 1280x1024 gamen (resp 41 en 39%) en niet hoger (wat een dikkere GPU dus gemakkelijk aan kan). Daarnaast zie je dat de meeste gamers een singlecore PC hebben (86%) terwijl je zou verwachten dat online gamers niet alleen voor een dikke GPU, maar ook voor een dikke CPU zouden gaan.
Die 6600GT kan je in SLI zetten en was ook een erg populair multiGPU oplossing bij gamers vanwege de lage prijs. Dat 95% van de multiGPU opstellingen SLI gebruikt, is dus waarschijnlijk mede te danken aan 1) de goedkope SLI mogelijkheden die 2) nVidia als eerste aanbood. Van die 100.000 man die dus een GF6600GT heeft kan het dus goed bv zijn dat er mensen zijn met 2 GF6600GT kaarten. Dit zou de uitschieter van de GF6600GT ook nog eens kunnen verklaren. Dus die 95% SLI en 5% CF is niet meer dan logisch toch? Zeker gezien het feit dat er maar weinig CF kaarten in de lijst staan. Die GF6600GT was gewoon een enorm succes voor nVidia.
CF is trouwens wel aan een kleine opmars begonnen. Een paar maanden geleden was het nog 1-2%.Impact van de X1650XT (die je niet terug ziet in de lijst) en X1950Pro en het mastercardless maken van CrossFire voor alle X1K kaarten?
Maar goed, die Survey zegt niet zo veel voor mij. Ik zou wel eens een Survey willen zien van Blizzard Entertainment waarin ze de resultaten publiceren van alle 8 miljoen World of Warcraft spelers. Dat zou volgens mij ook best een interessant (en waarschijnlijk compleet ander) beeld geven.
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


Bron: http://www.techpowerup.com/?30555
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die steam survey zegt ook weining maar wat ik in de markt verkocht zie worden bij alle hardware fabrikanten komt redelijk overeen met wat die survey zegt. Crossfire marktaandeel staat op geen een manier in verhouding tot dat van SLI. De bridge oplossing zal hier zeker aan bijdragen. 1650XT verkoopt niet zo goed (slecht eigenlijk) maar de 1950Pro doet het erg goed. Crossfire environment wordt pas in Q3 goed gemaakt met de RV670 (wie wil er nu een RV630 of RV60 in CF??) en voornamelijk door de RD790 en de RD780 chipsets. AMD zal deze ook hard gaan pushen, net zoals ze nu doen met 690G.CJ schreef op vrijdag 04 mei 2007 @ 00:12:
Ik ben van mening dat die Steam Survey weinig zegt over dat online gamers een dikkere GPU hebben dan normaal. Zie bv het feit dat de meeste mensen nog met een GF6600GT, GFFX5200 of Radeon9600Pro gamen. En dit wordt versterkt door het feit dat de meeste gamers nog op 1024x768 en 1280x1024 gamen (resp 41 en 39%) en niet hoger (wat een dikkere GPU dus gemakkelijk aan kan). Daarnaast zie je dat de meeste gamers een singlecore PC hebben (86%) terwijl je zou verwachten dat online gamers niet alleen voor een dikke GPU, maar ook voor een dikke CPU zouden gaan.
Die 6600GT kan je in SLI zetten en was ook een erg populair multiGPU oplossing bij gamers vanwege de lage prijs. Dat 95% van de multiGPU opstellingen SLI gebruikt, is dus waarschijnlijk mede te danken aan 1) de goedkope SLI mogelijkheden die 2) nVidia als eerste aanbood. Van die 100.000 man die dus een GF6600GT heeft kan het dus goed bv zijn dat er mensen zijn met 2 GF6600GT kaarten. Dit zou de uitschieter van de GF6600GT ook nog eens kunnen verklaren. Dus die 95% SLI en 5% CF is niet meer dan logisch toch? Zeker gezien het feit dat er maar weinig CF kaarten in de lijst staan. Die GF6600GT was gewoon een enorm succes voor nVidia.
CF is trouwens wel aan een kleine opmars begonnen. Een paar maanden geleden was het nog 1-2%.Impact van de X1650XT (die je niet terug ziet in de lijst) en X1950Pro en het mastercardless maken van CrossFire voor alle X1K kaarten?
Maar goed, die Survey zegt niet zo veel voor mij. Ik zou wel eens een Survey willen zien van Blizzard Entertainment waarin ze de resultaten publiceren van alle 8 miljoen World of Warcraft spelers. Dat zou volgens mij ook best een interessant (en waarschijnlijk compleet ander) beeld geven.
Verwijderd
heh Core 1000Mhz en het 512Bit 512MB GDDR@ DDR 1000Mhz aka 2000 Mhz DDR?
damn en dat met stock cooling de G80U gaat het niet makkelijk krijgen hehe toch wel leuk die HD 2900XT ik denk dat ze als een gek gaan verkopen wat hopelijk het gat zal dichten voor AMD/ATi's verlies

Tot nu toe heb ik alle pics die je gepost hebt van alle HD 2Kxx kaarten als grafieken , die staan op me HDD dus als het ooit verwijderd wordt van het web kan je ze gewoon van mij krijgen als dat ooit nodig is
[ Voor 83% gewijzigd door Verwijderd op 04-05-2007 00:54 ]
506/513 draait de kaart namelijk op aan het screenshot te zien
het geheugen is dus teruggeklokt in 2d ?
laat maar eens wat game-benchmarks zien op die clock-speeds (met stock koeler)
[ Voor 16% gewijzigd door Mr. Detonator op 04-05-2007 02:24 ]
Verwijderd
die 506/512 zijn idd de 2D speeds bij 3D geeft het progsel ook aan kijk maar bij Current 3D clock settingsMr. Detonator schreef op vrijdag 04 mei 2007 @ 02:21:
Volgens mij is het gewoon om te laten zien dat je met dat programma een r600 kán overklokken
506/513 draait de kaart namelijk op aan het screenshot te zien
het geheugen is dus teruggeklokt in 2d ?
laat maar eens wat game-benchmarks zien op die clock-speeds (met stock koeler)

Dat wordt weer lekker opvoeren en voapen met die handel
[ Voor 12% gewijzigd door Verwijderd op 04-05-2007 03:32 ]
Tweakers is dan ook niet de gemiddelde consument he?Bas van der Doorn schreef op donderdag 03 mei 2007 @ 20:28:
[...]
Ik denk dat er op tweakers best de nodige mensen 'rondhangen' met zo'n scherm, ik ben er in ieder geval een val. En benchmarks met 1.3 (1280x1024) of 2 (1920x1080) megapixel zijn leuk, maar ik wil toch echt benchmarks met 4 (2560x1600) megapixels zien. Ik denk dat op tweakers zoiets 1% zo'n scherm heeft, maar niet minder. 1920x1yyyy zullen waarschijnlijk al zoiets 5-10% van de bezoekers hebben. Aan een 2900XT heb ik naar verwachting meer dan voldoende voor mijn gebruik, aangezien een 8800GTS 640 ook wel zou voldoen. Maar goed, eerst maar eens zien hoe de kaarten van ATI opschalen van 'kiddy island adventure' resolutie naar 'the real thing' voordat ik een miskoop doe
http://www.steampowered.com/status/survey.html
Mooie survey, alhoewel de echte cijfers nog lager gaan liggen denk ik, en wat zie je daar 1920x... of hoger Is goed voor 2-3% . 90% gamed op 1280 of lager . En met LCD schermen zal die resolutie maar langzaam omhoog gaan.
Dat is de markt waar ATI op mikt met zijn prijsstelling van de XT, niet de performance freak die op 2500x... speelt want daar is de XTX voor bedoeld.
Als over 'kiddy island adventure' resolutie : get real , niet denigrerend doen omdat jij een ietwat hogere resolutie speelt he? Een spel is wel wat meer dan de resolutie waarin je het speelt hoor

Denkt van niet (heb dat al gezegd) een 8600/8500 decodeert dit tegen 15-20% CPU verbruik van een lage core 2 duo CPU. Dat is echt wel niks, als de ATI R600 budget versies daar nog enkele %'en ondergaat maakt niks uit. Tegen de tijd dat die uitzijn is de core 2 duo (die nu al vanaf 100 euro te koop is) nog verder gezakt naar zelfs de goedkoopste budget PC .CJ schreef op vrijdag 04 mei 2007 @ 00:12:
[...]
Ik zag wat benchmarks van mensen die lieten zien dat dit een enorm sterk punt is van de R600. Als je het vergelijkt met de recente Anandtech benchmarks zou het CPU gebruik zelfs goed onder die van de 8600GTS liggen. Nu is het nog maar afwachten of de grote reviewsites tot dezelfde conclusie komen. Dit zal vooral voor de goedkope kaarten een enorm sellingpoint worden.
Voor een HTPC zal dit dus niks speciaal zijn wat nvidia al maanden bied. Als de performantie beter is kan het een aardig extraatje zijn, maar niet veel meer. HTPC's zijn meestal niet voor te gamen .
Denk van niet hoor, de high end markt is gewoonweg heel klein, en dat geld voor zowat elk spel Heb 3 collega's die WOW spelen, 1 op een XP2000, 9800pro, de andere op de laptop van het werk (T1700 en X300 dacht ik) en nog een andere op een pentium 3 met X800 XT allemaal PC's van jaren geleden die resoluties van 1024 of 1280 hebben .Maar goed, die Survey zegt niet zo veel voor mij. Ik zou wel eens een Survey willen zien van Blizzard Entertainment waarin ze de resultaten publiceren van alle 8 miljoen World of Warcraft spelers. Dat zou volgens mij ook best een interessant (en waarschijnlijk compleet ander) beeld geven.
Je hebt nu eenmaal niet zo een high end PC nodig om WOW te spelen.
Misschien eens stalker, of supreme commander daar zitten de betere PC's denk ik.
Ik denk dat je gelijk hebt met Supreme Commander want dat spel is echt loei zwaar.
Verder zijn die OC scores van de R600 erg goed mits ze waar zijn. En ik vraag me af wat hij er voor nodig had qua voltages. Want als dit stock is. Hadden ze die voltages makkelijk omlaag kunnen doen zodat het stroomverbruik weer omlaag gaat.
En ik vind het wel een beetje toevallig dat hij pressies op 1000-1000 uitkomt. Of is dat de limiet van het programmaatje ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Uiteraard niet met stock cooling.Verwijderd schreef op vrijdag 04 mei 2007 @ 00:50:
@ CJ
heh Core 1000Mhz en het 512Bit 512MB GDDR@ DDR 1000Mhz aka 2000 Mhz DDR?
damn en dat met stock cooling
schijnbaar toch wel dusCJ schreef op vrijdag 04 mei 2007 @ 00:27:
Oh ja, ik wil mensen toch nog even hierop wijzen... de link die ik hiervoor gepost had met het nieuwe OC tooltje van AMD.... De OC waardes die je ziet zijn namelijk echte OC scores van een R600 inclusief temperatuur (dit is inmiddels bevestigd)... met stock cooling!En Sampsa gebruikt dit tooltje om te OC-en....
Dat was chargerend bedoeld, tuurlijk snap ik dat 1024x768-1680x1050 het overgrote deel van de markt is en dat men daarop mikt. Daar kijk ik niet op neer, integendeel, ik had tot een maand terug ook gewoon 1280x1024, niets mis mee. Neemt niet weg dat ik toch echt op de volle resolutie van mijn scherm wil spelen en het dus belangrijk is wat de performanceverschillen daar zijn. Soms zie je kaarten op 1024x768 de directe concurrent verpletteren en op 2560x1600 gelijk of achteraan eindigen, vooral als er ook nog wat AA/AF aanstaat. Je zou op zo'n hoge resolutie met AA/AF bijvoorbeeld wel voordeel kunnen hebben van de 1GB van de XTX en de 512bit geheugencontroller, terwijl dat op lagere resoluties nog geen bottlenecks vormen tov 512/768MB en 384bit. Dat is voor mij toch wel handig om te weten als ik nu al weet dat ik altijd op zo'n resolutie zal spelenk995 schreef op vrijdag 04 mei 2007 @ 07:45:
[...]
Als over 'kiddy island adventure' resolutie : get real , niet denigrerend doen omdat jij een ietwat hogere resolutie speelt he? Een spel is wel wat meer dan de resolutie waarin je het speelt hoor
[ Voor 22% gewijzigd door OruBLMsFrl op 04-05-2007 09:25 . Reden: megapixels... resolutie ]
Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Als de budget versies er nog enkele procenten onder gaan zitten dan heeft het zeker wel voordelen tov de budgetkaarten van nVidia... met name de RV610. Deze is 52% kleiner dan de G86 (en dus goedkoper te produceren), verbruikt maar 18-20W, en verder de punten die The Source ook nog eens aanstipte voor de R600 aangezien de lagere versies dit ook hebben: heeft HDMI - Audio - Ook hw support voor VC-1 decodering. Voor de steeds populairder wordende HTPCs zijn dit betere allround kaarten.k995 schreef op vrijdag 04 mei 2007 @ 08:08:
[...]
Denkt van niet (heb dat al gezegd) een 8600/8500 decodeert dit tegen 15-20% CPU verbruik van een lage core 2 duo CPU. Dat is echt wel niks, als de ATI R600 budget versies daar nog enkele %'en ondergaat maakt niks uit. Tegen de tijd dat die uitzijn is de core 2 duo (die nu al vanaf 100 euro te koop is) nog verder gezakt naar zelfs de goedkoopste budget PC .
Verder snap ik je opmerking over C2Ds niet helemaal in deze context. Het ging me hier om GPUs in de budgetmarkt en het offloaden van werk naar de GPU. Dan maakt het niet uit of je nou een C2D of X2 hebt. De GPU neemt gewoon een percentage van het werk over.
Performantie? (Uit Belgie? Wij in Nederland kennen dit woord niet.Voor een HTPC zal dit dus niks speciaal zijn wat nvidia al maanden bied. Als de performantie beter is kan het een aardig extraatje zijn, maar niet veel meer. HTPC's zijn meestal niet voor te gamen .
En hier mis je mijn punt weer compleet. Het gaat met niet om de highend markt. Het gaat me er om dat ik een beter beeld wil krijgen van de gemiddelde online gamer. Gemiddelde online gamer != high end PC gamer... World of Warcraft is nou eenmaal het spel dat met 8 miljoen spelers de meeste spelers heeft. De vereisten voor het spel zijn inderdaad niet hoog, maar doordat het zo toegankelijk is, is het daardoor niet minder interessant om te zien wat voor hardware de gebruikers hebben.Denk van niet hoor, de high end markt is gewoonweg heel klein, en dat geld voor zowat elk spel Heb 3 collega's die WOW spelen, 1 op een XP2000, 9800pro, de andere op de laptop van het werk (T1700 en X300 dacht ik) en nog een andere op een pentium 3 met X800 XT allemaal PC's van jaren geleden die resoluties van 1024 of 1280 hebben .
Je hebt nu eenmaal niet zo een high end PC nodig om WOW te spelen.
Misschien eens stalker, of supreme commander daar zitten de betere PC's denk ik.
Uit de Steam Survey blijkt dat een FX5200, 9600Pro en 6600GT de meest populaire kaarten zijn. De survey is echter wel genomen op een veel kleinere populatie van 1.1 miljoen spelers. Een grotere steekproef geeft een wat betrouwbaarder beeld, zeker aangezien je er van uit kunt gaan dat die 8 miljoen mensen ook wel eens wat andere games spelen (veel WoW mensen spelen ook andere RPGs die grafisch wat zwaarder zijn zoals Oblivion, Gothic, Dark Messiah, Never Winternights 2 etc).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar ik denk dat die RV610 zeker mooie HTPC kaartjes worden. Daar heeft een C2D niets mee te maken.
Maar binnenkort zullen we het allemaal wel zien. Ik ben ook benieuwd naar de nieuwe RD780 en RD790 chipsets. The Source heeft daar giste wat over gepost in het AMD Opteron / Athlon / Sempron topic:
Astennu in "[Discussie] AMD Sempron, Athlon 64 & Opt..."
En ook info over de nieuwe 740x IGP.
[ Voor 4% gewijzigd door Astennu op 04-05-2007 10:19 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat er meer zijn die niet mee zijn met den draai.CJ schreef op vrijdag 04 mei 2007 @ 09:19:
En hier mis je mijn punt weer compleet.
Je zegt dat het je niet gaat om de high-end markt, maar voor de rest ben je bezig over dat je zelf een high-end gamer bent en dat er spellen zijn die veel meer van je PC vragen dan WoW...
Geen flame bedoeld hier, ik snap het gewoon ook niet.
Shadow: in de meuktracker, onder ATI Catalyst 7.4 kan je vinden hoe dat probleem moet oplossen.
meuktracker: ATi Catalyst 7.4
Yes, but no.
Verwijderd
Hiernaast geeft het ook maar weer hoe sterk ATi in GPGPU is en zijn voordeel op dit front behouden heeft ondanks de vertraging van de R6xx series. Ik vraag me af hoe snel folding gaat op een R600 t.o.v. een R580CJ schreef op vrijdag 04 mei 2007 @ 09:19:
[...]
Als de budget versies er nog enkele procenten onder gaan zitten dan heeft het zeker wel voordelen tov de budgetkaarten van nVidia... met name de RV610. Deze is 52% kleiner dan de G86 (en dus goedkoper te produceren), verbruikt maar 18-20W, en verder de punten die The Source ook nog eens aanstipte voor de R600 aangezien de lagere versies dit ook hebben: heeft HDMI - Audio - Ook hw support voor VC-1 decodering. Voor de steeds populairder wordende HTPCs zijn dit betere allround kaarten.
Verder snap ik je opmerking over C2Ds niet helemaal in deze context. Het ging me hier om GPUs in de budgetmarkt en het offloaden van werk naar de GPU. Dan maakt het niet uit of je nou een C2D of X2 hebt. De GPU neemt gewoon een percentage van het werk over.
Ik heb nooit geclaimed dat ik een high end gamer ben. Geen woorden in andermans mond stoppen aub.mieJas schreef op vrijdag 04 mei 2007 @ 09:45:
[...]
Ik denk dat er meer zijn die niet mee zijn met den draai.
Je zegt dat het je niet gaat om de high-end markt, maar voor de rest ben je bezig over dat je zelf een high-end gamer bent en dat er spellen zijn die veel meer van je PC vragen dan WoW...
Geen flame bedoeld hier, ik snap het gewoon ook niet.
Ik zeg alleen dat de budgetkaarten van AMD niet onder doen voor die van nVidia voor HTPC doeleinden en misschien zelfs wel beter zijn. En daarnaast zeg ik dat die Survey van Valve niet de 'end-all-be-all' Survey is waaruit je kan opmaken dat het hier om highend gamers gaat.
Hoewel WoW geen hoogstaande systeemspecs vereist, is het wel zo dat deze doelgroep (RPG doelgroep) ook vaak andere RPG games speelt die grafisch vaak ook heel zwaar zijn zoals Oblivion, Gothic3 en Dark Messiah. En daarvoor moet je toch echt wel een degelijke bak hebben om het redelijk te kunnen spelen. Dus een Survey onder de 8 miljoen WoW spelers kan misschien wel een beter beeld geven over de gemiddelde gamer (dus niet per se highend gamer) dan de 1 miljoen mensen van de Survey van Valve. Ik zeg niet dat het zo is, maar dat het wel zo kan zijn omdat grotere steekproeven vaak betrouwbaarder zijn dan kleinere (in dit geval 8 vs 1).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Na je vorige post een 12e, 13e en 14e keer overlezen te hebben, zie ik het inderdaad nergens meer terug.CJ schreef op vrijdag 04 mei 2007 @ 10:28:
Ik heb nooit geclaimed dat ik een high end gamer ben. Geen woorden in andermans mond stoppen aub.
*hoofd tegen bureau* x 10.
Mijn excuses
Yes, but no.
Is vooral de hoeveelheid geheugen. De 320MB versie van 8800 bijvoorbeeld gaat perfect mee tot 1600x... daarna zakt die i elkaar omdat hij gewoonweg niet genoeg geheugen heeft om alle textures met hun AA en AF en wat nog erbij op te laden heeft. Een grotere bandbreedte zal dit effect verminderen maar niet elimineren .Bas van der Doorn schreef op vrijdag 04 mei 2007 @ 09:07:
[...]
Dat was chargerend bedoeld, tuurlijk snap ik dat 1024x768-1680x1050 het overgrote deel van de markt is en dat men daarop mikt. Daar kijk ik niet op neer, integendeel, ik had tot een maand terug ook gewoon 1280x1024, niets mis mee. Neemt niet weg dat ik toch echt op de volle resolutie van mijn scherm wil spelen en het dus belangrijk is wat de performanceverschillen daar zijn. Soms zie je kaarten op 1024x768 de directe concurrent verpletteren en op 2560x1600 gelijk of achteraan eindigen, vooral als er ook nog wat AA/AF aanstaat. Je zou op zo'n hoge resolutie met AA/AF bijvoorbeeld wel voordeel kunnen hebben van de 1GB van de XTX en de 512bit geheugencontroller, terwijl dat op lagere resoluties nog geen bottlenecks vormen tov 512/768MB en 384bit. Dat is voor mij toch wel handig om te weten als ik nu al weet dat ik altijd op zo'n resolutie zal spelen
Wat heb je trouwens aan AA op zijn resolutie? Merk je dat verschil nog?
Als je op zo een resolutie speelt moet je je er nu bij neer leggen om veel je 3d kaart (en je CPU maar iets minder) te upgraden de 8800GTX heeft moeilijkheden in sommige spelen op deze resoluties, de 2900XT gaat dat dus ook hebben, de XTX zal misschien beter zijn, maar dan zijn er al nieuwe spelen uit die ...
Je kunt beter een Athlon X2 3600+ hebben met een 8800 GTX of HD2900 XT dan een QX6800 met een 8600 GTS of HD2600 XT. CPU is niet echt de bottelnek meestal de vga kaarten. Max FPS boeit niet zo veel de Min FPS wel en daar is het meestal de VGA kaart die te kort schiet. Het enige spel waar dat niet altijd opgaat is Supreme Commander want die trekt wel zwaar aan een Dual core cpu. Maar een Quad core is niet super veel sneller dan dual maar een snelle dual core kan hier wel veel helpen.k995 schreef op vrijdag 04 mei 2007 @ 11:18:
[...]
Is vooral de hoeveelheid geheugen. De 320MB versie van 8800 bijvoorbeeld gaat perfect mee tot 1600x... daarna zakt die i elkaar omdat hij gewoonweg niet genoeg geheugen heeft om alle textures met hun AA en AF en wat nog erbij op te laden heeft. Een grotere bandbreedte zal dit effect verminderen maar niet elimineren .
Wat heb je trouwens aan AA op zijn resolutie? Merk je dat verschil nog?
Als je op zo een resolutie speelt moet je je er nu bij neer leggen om veel je 3d kaart (en je CPU maar iets minder) te upgraden de 8800GTX heeft moeilijkheden in sommige spelen op deze resoluties, de 2900XT gaat dat dus ook hebben, de XTX zal misschien beter zijn, maar dan zijn er al nieuwe spelen uit die ...
En ik zie op mijn 24"heel goed verschil tussen 1920x1200 met 4x AA of geen AA. Zelf het verschil tussen 4x aan en 6x AA is te zien. Dus ik wil het liefste AA en AF aan hebben staan.
[ Voor 12% gewijzigd door Astennu op 04-05-2007 11:27 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Niet echt, mijn reactie was dat het niks speciaals was (zoals jij het leek uitschijnen) het is gewoonweg een verbetering op de bestaande kaarten.CJ schreef op vrijdag 04 mei 2007 @ 09:19:
[...]
Als de budget versies er nog enkele procenten onder gaan zitten dan heeft het zeker wel voordelen tov de budgetkaarten van nVidia... met name de RV610. Deze is 52% kleiner dan de G86 (en dus goedkoper te produceren), verbruikt maar 18-20W, en verder de punten die The Source ook nog eens aanstipte voor de R600 aangezien de lagere versies dit ook hebben: heeft HDMI - Audio - Ook hw support voor VC-1 decodering. Voor de steeds populairder wordende HTPCs zijn dit betere allround kaarten.
het probleem hierbij is dat elkeen zijn opzet verschillend is. Ik heb een projector, en daarnaast surround (ken er zo wel een paar) en de HTPC's die daarbij gebruikt worden gebruiken spdif out om een versterker aan te sturen. Met HDMI zijn die dus allemaal niks.
Daarnaast ken ik er die via s-video en tulp naar scart ingangen gaan en ... Zoveel verschillende categorien waarvan er maar een heeeeel klein deeltje is die htpc+hdmi combinatie hebben.
Is het dus een voordeel? ja maar heel beperkt zoals ik nog al opmerkte en daar zit hem juist een beetje het probleem, ati haalt zich moeilijkheden op de nek voor feautures die (volgens mij) amper gebruikt zullen worden en die de kostprijs dan nog eens opdrijven.
Het maakt wel uit, als je CPU het gewoonweg kan zonder HW acceleratie is het weinig toegevoegde waarde.Verder snap ik je opmerking over C2Ds niet helemaal in deze context. Het ging me hier om GPUs in de budgetmarkt en het offloaden van werk naar de GPU. Dan maakt het niet uit of je nou een C2D of X2 hebt. De GPU neemt gewoon een percentage van het werk over.
yep, niet echt , ja sommigen zullen gaan voor zo'n kaart omdat ze dit toevallig kunnen gebruiken maar echt een "killer application" is dit niet .Performantie? (Uit Belgie? Wij in Nederland kennen dit woord niet.) En zie verder bovenstaande punten waar uit blijkt dat een ATI kaart een betere allround HTPC kaart is.
Je commentaar was dat het een ander beeld ging geven als Valve, ik betwijfel dat, beide spelen hebben ongeveer hetzelfde aan hardware nodig dus zal dat amper verschillen.En hier mis je mijn punt weer compleet. Het gaat met niet om de highend markt. Het gaat me er om dat ik een beter beeld wil krijgen van de gemiddelde online gamer. Gemiddelde online gamer != high end PC gamer... World of Warcraft is nou eenmaal het spel dat met 8 miljoen spelers de meeste spelers heeft. De vereisten voor het spel zijn inderdaad niet hoog, maar doordat het zo toegankelijk is, is het daardoor niet minder interessant om te zien wat voor hardware de gebruikers hebben.
net zoals mensen die CS en half life spelen ook zwaardere spelen als fear, stalker,UT,BF,... spelen zoals ik al zei, er zal amper tot geen verschil zijn.Uit de Steam Survey blijkt dat een FX5200, 9600Pro en 6600GT de meest populaire kaarten zijn. De survey is echter wel genomen op een veel kleinere populatie van 1.1 miljoen spelers. Een grotere steekproef geeft een wat betrouwbaarder beeld, zeker aangezien je er van uit kunt gaan dat die 8 miljoen mensen ook wel eens wat andere games spelen (veel WoW mensen spelen ook andere RPGs die grafisch wat zwaarder zijn zoals Oblivion, Gothic, Dark Messiah, Never Winternights 2 etc).
Die X2 3600 gaat een bottleneck zijn beter is dan een 8800GTS/XT met een E6600 of zoiets hetzelfde geld, beter op elkaar afgesteld. En dat was mijn punt, als je je GPU upgrade zal je (misschien niet de eerste kee rmaar zeker daarna) je CPU verplicht moeten upgraden. Iemand die speelt op 1280x... moet dat niet doen omdat zijn GPU en CPU dat gewoonweg nog aankunnen zelfs al worden de spelenzwaarder.Astennu schreef op vrijdag 04 mei 2007 @ 11:26:
[...]
Je kunt beter een Athlon X2 3600+ hebben met een 8800 GTX of HD2900 XT dan een QX6800 met een 8600 GTS of HD2600 XT. CPU is niet echt de bottelnek meestal de vga kaarten. Max FPS boeit niet zo veel de Min FPS wel en daar is het meestal de VGA kaart die te kort schiet. Het enige spel waar dat niet altijd opgaat is Supreme Commander want die trekt wel zwaar aan een Dual core cpu. Maar een Quad core is niet super veel sneller dan dual maar een snelle dual core kan hier wel veel helpen.
geen en 4xAA kan ik begrijpen op 1920, maar op 2560x... verschil tussen 8 en 16AA? En dan nog als je speelt niet op stilstaande beelden ik betwijfel het. Zelfs heb ik "maar" 1650x... dus ik kan het niet uittesten.En ik zie op mijn 24"heel goed verschil tussen 1920x1200 met 4x AA of geen AA. Zelf het verschil tussen 4x aan en 6x AA is te zien. Dus ik wil het liefste AA en AF aan hebben staan.
Ik weet zeker dat een survey van EA over BF2/BF2142 je andere resultaten zou gevenk995 schreef op vrijdag 04 mei 2007 @ 11:30:
net zoals mensen die CS en half life spelen ook zwaardere spelen als fear, stalker,UT,BF,... spelen zoals ik al zei, er zal amper tot geen verschil zijn.
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
Verwijderd
Kan nog wel eens problemen opbrengen voor ATi/AMD wat imo toch veel belangrijker is dan highend videokaarten ....

Ik reageer hier alleen even op, want over dat andere kan je nog jaren discussieren zonder een steek op te schieten.k995 schreef op vrijdag 04 mei 2007 @ 11:30:
[...]
net zoals mensen die CS en half life spelen ook zwaardere spelen als fear, stalker,UT,BF,... spelen zoals ik al zei, er zal amper tot geen verschil zijn.
Een groot verschil. Het aantal spelers. Een grotere steekproef heeft meer waarde dan een kleinere. 8 miljoen geregistreerde spelers vs 1.1 miljoen. Welk zou een betrouwbaarder beeld geven als de rest gelijk is (dus systeemeisen van de zwaardere games die ook gespeeld worden door de doelgroepen). Misschien is er geen verschil, misschien wel. Feit is gewoon dat een grotere steekproef betrouwbaarder is.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk niet dat veel mensen in een HTPC dure cpu's stoppen gewoon het goedkoopste wat er is dus een Sempron of misschien een Athlon X2 3600+ van 60 euro.
Ik denk ook dat die VGA kaart minder stroom gebruikt dan een C2D. ( mits we het over de RV610 hebben van 15-20 watt ).
Als het goed is de RV670 maar wanneer die komt is de vraag. En dat is meer ene Semi High end. Net als de X1950 Pro nu. Het is ook de opvolger van de X1950 Pro.Verwijderd schreef op vrijdag 04 mei 2007 @ 11:37:
komt ATi/AMD nou ook met een 256bit midrange kaart of heb ik dit verkeerd? ik heb gehoord dat NVIDIA wel plannen heeft om hun 8600 serie met een 256bit uit te brengen. Wat zet ATi/AMD hier tegenover?
Kan nog wel eens problemen opbrengen voor ATi/AMD wat imo toch veel belangrijker is dan highend videokaarten ....kan het over het hoofd hebben gelezen maar dat is niet zo raar natuurlijk want het gaat hier bijna alleen maar over de highend videokaarten van ATi/AMD zowel als NVIDIA wat met mekaar wordt vergeleken.
[ Voor 42% gewijzigd door Astennu op 04-05-2007 11:39 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Lees de first post zou ik zeggen....Verwijderd schreef op vrijdag 04 mei 2007 @ 11:37:
komt ATi/AMD nou ook met een 256bit midrange kaart of heb ik dit verkeerd? ik heb gehoord dat NVIDIA wel plannen heeft om hun 8600 serie met een 256bit uit te brengen. Wat zet ATi/AMD hier tegenover?
Kan nog wel eens problemen opbrengen voor ATi/AMD wat imo toch veel belangrijker is dan highend videokaarten ....kan het over het hoofd hebben gelezen maar dat is niet zo raar natuurlijk want het gaat hier bijna alleen maar over de highend videokaarten van ATi/AMD zowel als NVIDIA wat met mekaar wordt vergeleken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid
Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)