[Algemeen] ATi Nieuwsdiscussie Topic - Deel 48 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 4.902 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
BlackWolf666 schreef op donderdag 18 januari 2007 @ 16:57:


nog niet eens uitgebracht door nVidia. En dat was maar een paar dagen geleden terwijl die van ATI er al maanden zijn.
die van nvidia zijn er ook al maanden ... alleen specifiek voor de g80 (unified) nog niet

snap niet dat dit weer iedere keer naar voren blijft komen....
BlackWolf666 schreef op donderdag 18 januari 2007 @ 16:57:
. Dus je kont ook niet zeggen dat die Béta Drivers ook werkelijk DX10 ondersteunen.
je kan ook niet zeggen dat beta drivers dx10 niét ondersteunen ?!

het zijn dx10 drivers, dus dan is het logisch dat je ervan uit gaat dat ze ook dx10 ondersteunen

[ Voor 73% gewijzigd door Mr. Detonator op 18-01-2007 18:43 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Zullen we de discussie over wel of geen DX10 drivers nu eindelijk eens een keertje stoppen? Het lijkt hier net alsof er een kras op de plaat zit. Hoe goed mensen ook hun best doen om de discussie voorlopig te staken, lijkt het er op alsof we constant weer terug keren op hetzelfde onderwerp en worden telkens weer dezelde argumenten gebruikt die telkens weer op dezelfde manier weerlegd worden. Vicieuze cirkel anyone?

Genoeg daarvan in dit topic. Open maar een ander speciaal topic om daar te discussieren over de Vista drivers van zowel nVidia als AMD. Het gaat hier om de nieuwswaarde over videokaarten van AMD en honderd keer over de drivers discussieren valt dus absoluut niet onder de noemer "nieuws" en heeft na 100x vermeld te zijn zeker geen "nieuwswaarde" meer.

Dank u. :>




En om maar meteen weer het goede voorbeeld te geven... AMD lanceert voor de liefhebbers de:

X1950 Uber Edition

Laat ze alsjeblieft degene ontslaan die deze naam verzonnen heeft. :X 8)7

De X1950 Uber Edition bestaat uit:
  • 1x ATI Radeon X1950XTX
  • 1x ATI Radeon X1950XTX CrossFire
  • 1x VIP Customer Care Card (voorkeursbehandeling bij de ATI helpdesk)
  • 1x Serialized Certificate of Authenticity (signed by Dave Orton)
  • 1x Ruby Themed Wide-area Mousepad
  • 1x "Powered By" Radeon X1950
De prijs mag er ook zijn. Voor zo'n $788 is-ie van jou. Duidelijk dus alleen voor de liefhebber. :+

[ Voor 31% gewijzigd door CJ op 18-01-2007 19:28 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Mooi koffertje :D

Bij Newegg hebben ze wat meer plaatjes:

Afbeeldingslocatie: http://images10.newegg.com/NeweggImage/productimage/14-102-076-06.jpg

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wow vet, als ik niet al een X1900 had ;) Vooral handig dus als je een serieuze upgrade wil uitvoeren en je wil echt iets "exclusiefs".

Eveneens quote ik mezelf uit een vorige pagina even, mijn post werd nogal de achtergrond in gedrukt met de DX10 blaat en ik ben toch benieuwd naar de meningen:
Het gaat wel een belemmering worden voor barebones en kleinere kasten, die kunnen dus vrijwel onmogelijk de XTX gaan plaatsen. Deze zullen zowiezo een XT of lager moeten nemen dan ? Maar wat ik me afvraag: als ze echt 3 inches (bijna 8cm) verschillen en enkel in kloksnelheden anders zijn, dan is die 8cm plek puur gebruikt voor de voeding van de kaart, aka de MOSFETs ? Wil dit zeggen dat de kaart niet serieus veel meer stroom zal verbruiken dan zijn iets lager geklokt broertje en dat hij dus als "last resort" tot het maximum al geklokt is om echt concurrerend te zijn ? En dus zie ik de mogelijkheid tot overklokken bij de XT en XTX niet zo positief in aangezien ik dan vermoed dat beide op het randje van hun performance schaalbaarheid zitten.

Natuurlijk ervan uitgaand dat The Inquirer deze keer wel eens juist zit, wat vaker niet lijkt dan wel.

[ Voor 4% gewijzigd door Phuncz op 18-01-2007 19:46 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Laat ze alsjeblieft degene ontslaan die deze naam verzonnen heeft.
Ik lag zojuist dubbel van het lachen toen ik dit @ xbit labs las :p

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op donderdag 18 januari 2007 @ 19:04:


De X1950 Uber Edition bestaat uit:
  • 1x ATI Radeon X1950XTX
  • 1x ATI Radeon X1950XTX CrossFire
  • 1x VIP Customer Care Card (voorkeursbehandeling bij de ATI helpdesk)
  • 1x Serialized Certificate of Authenticity (signed by Dave Orton)
  • 1x Ruby Themed Wide-area Mousepad
  • 1x "Powered By" Radeon X1950
De prijs mag er ook zijn. Voor zo'n $788 is-ie van jou. Duidelijk dus alleen voor de liefhebber. :+
Ze proberen in ieder geval iets aan marketing te doen.....alleen hebben ze er de verkeerde mensen opgezet 8)7

ik dacht eerst aan een grap of msn-taal toen ik ''Uber-edition'' las, maar hij wordt dus echt zo genoemd ! :X


en dan nog de prijs ?.....wie koopt zoiets behalve obi-wan kenobi ? :)

ik zal maar niet vermelden wat je voor hetzelfde geld nog meer kan kopen

Het setje daarentegen + de doos...ziet er wel weer mooi uit.....maar daar koop ik geen videokaart voor...
Als het nou rond de 400-500 euro had gekost per setje (en een andere naam had)...was het misschien nog wel een goeie zet geweest (al valt het dan ook nog te betwijfelen)

Ik dacht eigenlijk dat ze een beetje met man en macht aan de r600 bezig zijn, en tót die tijd niks meer uit zouden brengen, hóóguit nog een x1950gt

of zit er ook een dikke voeding bij voor dat geld ?....want die heb je met 2 van die kaarten wel nodig

[ Voor 27% gewijzigd door Mr. Detonator op 18-01-2007 20:10 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat je doelt op een Geforce 8800 GTS/GTX, die kostten echter nog steeds $399/619 respectievelijk (newegg.com), dus er zit toch nog wel een aardig verschil in. Een verschil groot genoeg om niet naar bepaalde personen uit te moeten halen. Best lame.

Waarom zou het 400-500 euro moeten kosten, een X1950XT 512MB kost toch nog steeds ron de 350-375 euro per stuk... Twee halen, één betalen ? Het is niet de AH he. Dat is wel heel erg optimistisch :)

Verder kost het ze weinig moeite om dit pakket uit te brengen, ik betwijfel dat de ingenieurs en testcrew hun werk aan de R600 hebben moeten laten liggen om bestaande kaarten in een koffertje te steken...

[ Voor 55% gewijzigd door Phuncz op 18-01-2007 20:17 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Phuncz schreef op donderdag 18 januari 2007 @ 20:12:


Waarom zou het 400-500 euro moeten kosten,
om de prijs/prestatie nog een béétje te rechtvaardigen ? :|
Phuncz schreef op donderdag 18 januari 2007 @ 20:12:
350-375 euro per stuk... Twee halen, één betalen ?
kijk net eens op de pw, en zie dat je al een x1950xtx hebt voor 328 euro...

dus het is eigenlijk: 2 halen, 2,2 betalen

[ Voor 38% gewijzigd door Mr. Detonator op 18-01-2007 20:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

heh leuke info op de FP wieee :9
nieuws: ATi R600 wordt Radeon X2x00-serie

een enekel kaart doet 153GB per sec wiieeee

[ Voor 13% gewijzigd door Verwijderd op 18-01-2007 20:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op donderdag 18 januari 2007 @ 19:46:
Het gaat wel een belemmering worden voor barebones en kleinere kasten, die kunnen dus vrijwel onmogelijk de XTX gaan plaatsen. Deze zullen zowiezo een XT of lager moeten nemen dan ? Maar wat ik me afvraag: als ze echt 3 inches (bijna 8cm) verschillen en enkel in kloksnelheden anders zijn, dan is die 8cm plek puur gebruikt voor de voeding van de kaart, aka de MOSFETs ? Wil dit zeggen dat de kaart niet serieus veel meer stroom zal verbruiken dan zijn iets lager geklokt broertje en dat hij dus als "last resort" tot het maximum al geklokt is om echt concurrerend te zijn ? En dus zie ik de mogelijkheid tot overklokken bij de XT en XTX niet zo positief in aangezien ik dan vermoed dat beide op het randje van hun performance schaalbaarheid zitten.
Waarschijnlijk kan de core wel hogere freq aan, maar wordt t PCB wel erg lastig routen omdat je op hogere freq meer crosstalk hebt. Duurder PCB kan, maar drijft de prijs lekker op. En daarnaast heb je voor een hogere freq meer vermogen nodig waarvoor je ook meer ruimte nodig hebt. Misschien is het last resort, of misschien willen ze meer uit de kaart pushen omdat de GPU t aankan. Sowieso een custom lay-out. :9
Laat ze alsjeblieft degene ontslaan die deze naam verzonnen heeft. :X 8)7

De X1950 Uber Edition
Idd het moet natuurlijk Über Edition zijn ;)

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Verwijderd schreef op donderdag 18 januari 2007 @ 20:51:
heh leuke info op de FP wieee :9
nieuws: ATi R600 wordt Radeon X2x00-serie

een enekel kaart doet 153GB per sec wiieeee
Wat heeft de wii met dit topic te maken ? :>

March of the Eagles


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
http://www.hkepc.com/bbs/...398&starttime=0&endtime=0
Snap er geen zak van, maar komt erop neer dat PC Partner (eigenaar Sapphire en exclusief ATI) gestart is met Nvidia kaarten onder de naam ZOTAC. Ze beweren reeds in Europa aktief te zijn met hun vga, maar sla me maar dood, heb ze nog in geen een europees land gezien. Merk wordt ook voor MP3 zut gebruikt.

[ Voor 6% gewijzigd door The Source op 18-01-2007 21:40 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nog nooit van die kaarten gehoord. Maar als het waar is zal er wel weer een smak geld met gemoeid zijn.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op donderdag 18 januari 2007 @ 21:37:
http://www.hkepc.com/bbs/...398&starttime=0&endtime=0
Snap er geen zak van, maar komt erop neer dat PC Partner (eigenaar Sapphire en exclusief ATI) gestart is met Nvidia kaarten onder de naam ZOTAC. Ze beweren reeds in Europa aktief te zijn met hun vga, maar sla me maar dood, heb ze nog in geen een europees land gezien. Merk wordt ook voor MP3 zut gebruikt.
Ik ken de ZOTAC kaarten al sinds November vorig jaar en wist ook dat PC Partner er achter zat. Het staat al een tijd lang op de PC Partner site zelf (ook al sinds November geloof ik).

PC Partner doet het volgende: Sapphire -> ATI Exclusive. Zotac -> NV en andere zooi, zoals MP3 spelers en andere consumer electronics. In America zijn al verschillende Zotac VGA kaarten opgedoken eind vorig jaar.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op donderdag 18 januari 2007 @ 19:04:
De X1950 Uber Edition bestaat uit:

[list]
• 1x ATI Radeon X1950XTX
• 1x ATI Radeon X1950XTX CrossFire
Er is een X1950 en een X1950XTX:
Packed in a spy-style briefcase, the ATI Radeon™ X1950 Uber Edition features a set of overclocked ATI Radeon™ X1950 XTX and ATI Radeon™ X1950 CrossFire Edition graphics cards.
Ben trouwens benieuwd voor de prestaties X2x00XTX, hopelijk komen er edities die kleiner zijn dan 25cm, anders is mijn dure behuizing aan vervanging toe als ik voor de R600 ga.

[ Voor 16% gewijzigd door Verwijderd op 18-01-2007 22:48 ]


Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Of je zaagt er gewoon een stuk uit. Ik bedoel, welke case is nou €400+ waard. :P

Saturnus schreef op woensdag 17 januari 2007 @ 18:40:
Vanmiddag vond ik dit project: http://service.futuremark.com/compare?3dm06=921433
Daarin staat dat een X1900XT en X1900GT in CF draaien, is dit onzin of kan het echt?
Kickje

Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 09:11

Milmoor

Footsteps and pictures.

(jarig!)
Mijn hoop is op ATI gevestigd: hopelijk heeft de X2x00 serie een goede analoge uitgang. Ze staan er wel om bekend. Fabrikanten gaan er steeds meer vanuit dat als je een hoge resolutie wil draaien, je een monitor met digitale ingang gebruikt. Men bezuinigt daarom op de componenten, scheelt weer een paar centen. De g80 serie kan volgens de C'T 1600x1200 al niet meer strak te doen. En mijn 24" breedbeeld CRT wil ik analoog op 1900x12000 draaien. Helaas zijn er maar weinig reviewers die daar op testen. Dus als iemand straks wat tegen komt, graag even melden...

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • rstyled
  • Registratie: September 2006
  • Laatst online: 09-09 15:28
Saturnus schreef op vrijdag 19 januari 2007 @ 00:10:
Of je zaagt er gewoon een stuk uit. Ik bedoel, welke case is nou €400+ waard. :P




[...]

Kickje
degene waar je niks uit kan zagen ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op donderdag 18 januari 2007 @ 17:40:
Het gaat wel een belemmering worden voor barebones en kleinere kasten, die kunnen dus vrijwel onmogelijk de XTX gaan plaatsen. Deze zullen zowiezo een XT of lager moeten nemen dan ? Maar wat ik me afvraag: als ze echt 3 inches (bijna 8cm) verschillen en enkel in kloksnelheden anders zijn, dan is die 8cm plek puur gebruikt voor de voeding van de kaart, aka de MOSFETs ? Wil dit zeggen dat de kaart niet serieus veel meer stroom zal verbruiken dan zijn iets lager geklokt broertje en dat hij dus als "last resort" tot het maximum al geklokt is om echt concurrerend te zijn ? En dus zie ik de mogelijkheid tot overklokken bij de XT en XTX niet zo positief in aangezien ik dan vermoed dat beide op het randje van hun performance schaalbaarheid zitten.

Natuurlijk ervan uitgaand dat The Inquirer deze keer wel eens juist zit, wat vaker niet lijkt dan wel.
Dit is bij de 8800 GTX ook al een probleem. Volgens mij hebben ze daarom ook de GTS gemaakt. Dit zalbij ATI dus hetzelfde worden als de inq gelijk heeft. Dus XTX full speed = groot en XT lagere clocks klein. Maar misschien heeft de xtx straks toch dat kleine pcb. 12"is wel heel erg groot.
dafz0r schreef op donderdag 18 januari 2007 @ 16:16:
ik ben toe aan een nieuwe pc waarbij ik mijn x800xtpe AGP ga vervangen. Probleem is dat ati sinds enige tijd die ViVo blijkbaart niet echt meer adverteert en ik heb nogal wat analoge video te bewerken... Zijn er nog ati (of nvidia :+ ) kaarten die een analoge video in hebben?
Die van de x800 was echt van een goeie kwaliteit; zelfs zo goed dat ik mijn pci insteekkaartje van msi verkocht heb toen in de x800 al enige tijd gebruikte.
Volgens mij hebben alle X1K Kaarten Avivo en dus ook video in. Maar ik weet dit niet zeker. Zo i zo niet of alle low end het hebben. Misschien even goed op de website van ATi kijken of ze vivo aan boord hebben.
Verwijderd schreef op donderdag 18 januari 2007 @ 19:42:
Mooi koffertje :D

Bij Newegg hebben ze wat meer plaatjes:

[afbeelding]
OMG je kunt zeggen wat je wilt maar dat ziet er echt stoer uit :9~ :9~ :9~ :9~ :9~ Laat ze dat maar met de R600 doen :P. Die naam zuigt ja maar het product is wel Uber :D

En over stukje uit de kast zagen. liever niet.... Laat ze de kaart maar klein houden. Of je moet een stacker kopen maar die zijn best duur. En ik heb die van mij nog niet zo lang.

[ Voor 23% gewijzigd door Astennu op 19-01-2007 09:39 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • rstyled
  • Registratie: September 2006
  • Laatst online: 09-09 15:28
Ik heb echt trek in een '' T-bone ''. Doe mij die maar. Liever een 12 inch lange plank dan een dalijk kleinere met meer hitteproductie, zodat de clocks naar beneden geschroeft worden en het overclokpotentieel? naar beneden gaat.

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

[/quote]1900x12000 draaien [quote]
sow , das wel erg breedbeeld :+ _/-\o_
Het bevalt me eigenlijk wel dat ze zo lang zijn. Heb ik me HDD tray er niet alleen uitgesloopt omdat ik ik hem lelijk vond staan voor het window van m TT Soprano }:O

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Hekking schreef op vrijdag 19 januari 2007 @ 09:56:
[/quote]1900x12000 draaien [quote]
sow , das wel erg breedbeeld :+ _/-\o_
Het bevalt me eigenlijk wel dat ze zo lang zijn. Heb ik me HDD tray er niet alleen uitgesloopt omdat ik ik hem lelijk vond staan voor het window van m TT Soprano }:O
Jah kijk dan past hij bij mij ook :) het probleem is dat ik 4 hd's heb en ik die ruimte daar dus hard nodig heb. Er zitten al 2 hd's onder de DVD Brander. Dus ik hoop dat hij toch kleiner wordt. En zo'n stacker is wel erg groot om als kast te hebben. En ook erg duur.

Anders wordt het toch maar een of twee XT kaarten. Ik ga denk ik toch een beetje naar de performance per watt kijken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 17-09 16:52

Krizzie

Progressive Music \o/

Astennu schreef op vrijdag 19 januari 2007 @ 10:36:
[...]


Jah kijk dan past hij bij mij ook :) het probleem is dat ik 4 hd's heb en ik die ruimte daar dus hard nodig heb. Er zitten al 2 hd's onder de DVD Brander. Dus ik hoop dat hij toch kleiner wordt. En zo'n stacker is wel erg groot om als kast te hebben. En ook erg duur.

Anders wordt het toch maar een of twee XT kaarten. Ik ga denk ik toch een beetje naar de performance per watt kijken.
offtopic:
Stacker kost niet zo heel veel meer hoor (De 810 that is) tegenwoordig en is de prijs zeker waard. ;)
Ik heb de ruimte ook wel nodig met 6HDD's en nog 2 op komst. :P

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Krizzie schreef op vrijdag 19 januari 2007 @ 11:06:
[...]


offtopic:
Stacker kost niet zo heel veel meer hoor (De 810 that is) tegenwoordig en is de prijs zeker waard. ;)
Ik heb de ruimte ook wel nodig met 6HDD's en nog 2 op komst. :P
Ja maar hij is zo groot. Heb zelf een Antec Soho. Die was 109 euro inc ene voeding. Die voeding heb ik verkocht en vervangen voor een Coolermaster Realpower 550 Watt. Dus de kast koste me misschien 70 euro of zo. En is super mooi en makkelijk om mee te werken. Alleen dus niet lang genoeg doordat de HD bracket op die plek zit. En ik wil eigenlijk geen grotere kast. Vond dit juist wel mooi.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Wel grappig om te zien dat mensen die mischien wel 1000 euro per jaar uitgeven aan videokaarten zo moeilijk doen over een kastje van 139 euro. Als ik de R600 koop, en hij past niet in mijn Thermaltake Tsunami, dan bestel ik gewoon een Stacker STC-101. Met die kast kan ik weer een paar jaar doen, en waarschijnlijk doe ik maar 6 tot 8 maanden met de R600.

Nog even en een videokaart is een halve meter.. :+

[ Voor 22% gewijzigd door Format-C op 19-01-2007 11:45 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • MiskentTalent
  • Registratie: Januari 2003
  • Laatst online: 08-09 19:34
Heb even een vraagje over de x1950Pro van Club3D.
Ben van plan deze te kopen bij 4Launch, maar zie ook dat de XFX GF 7900GS XXXX 256MB ook in dezelfde prijsklasse zit.
Nu is mijn vraag dat ik de kaarten niet helemaal begrijp - Club3D X1950 256MB heeft maar 12 pipelines & de XFX 7900GS XXX 256MB heeft er 20 na mijn mening, dan zou je toch zeggen dat de XFX sneller is als de Club3D & ook het geheugen van de XFX zit op 1600MHZ & de Club3D zit maar op 1400MHZ.
Heb alles al doorgelezen in dit Forum, maar er komt niet echt een duidelijk vershil tussen de kaarten, mischien is er iemand die mij de ogen kan openen of ik zie iets gigantisch over het hoofd 8)7 8)7 8)7

Core I7 6700K (4,5GHZ) - EVGA 960 GTX 4GB DDR5 - ASUS Z170-PRO - Corsair 32 GB DDR4-3000 - SSD Samsung Evo 840 128GB - 2x 3TB WD Red Hardisks - Nzxt White 700 Watt Voeding - Coolermaster C690II Behuizing - Be Quiet Dark Rock Advanced C1


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
RappieRappie schreef op vrijdag 19 januari 2007 @ 11:43:
Nog even en een videokaart is een halve meter.. :+
Doet me denken aan de Creative AWE32. Heb je tenminste het idee dat je je geld in iets materialistisch om hebt gezet ipv. in een 10cm pcb met een blokje koper er op :+

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • MiskentTalent
  • Registratie: Januari 2003
  • Laatst online: 08-09 19:34
Verwijderd schreef op donderdag 18 januari 2007 @ 19:42:
Mooi koffertje :D

Bij Newegg hebben ze wat meer plaatjes:

[afbeelding]
Hoe zit het met het geluid van die koelers, zijn die een beetje still :*) :*)

Core I7 6700K (4,5GHZ) - EVGA 960 GTX 4GB DDR5 - ASUS Z170-PRO - Corsair 32 GB DDR4-3000 - SSD Samsung Evo 840 128GB - 2x 3TB WD Red Hardisks - Nzxt White 700 Watt Voeding - Coolermaster C690II Behuizing - Be Quiet Dark Rock Advanced C1


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
MiskentTalent schreef op vrijdag 19 januari 2007 @ 12:03:
Heb even een vraagje over de x1950Pro van Club3D.
Ben van plan deze te kopen bij 4Launch, maar zie ook dat de XFX GF 7900GS XXXX 256MB ook in dezelfde prijsklasse zit.
Nu is mijn vraag dat ik de kaarten niet helemaal begrijp - Club3D X1950 256MB heeft maar 12 pipelines & de XFX 7900GS XXX 256MB heeft er 20 na mijn mening, dan zou je toch zeggen dat de XFX sneller is als de Club3D & ook het geheugen van de XFX zit op 1600MHZ & de Club3D zit maar op 1400MHZ.
Heb alles al doorgelezen in dit Forum, maar er komt niet echt een duidelijk vershil tussen de kaarten, mischien is er iemand die mij de ogen kan openen of ik zie iets gigantisch over het hoofd 8)7 8)7 8)7
Heb je de topicstart ook gelezen? Het antwoord staat er gewoon in hoor. ;)

Pipelines in de oude zin van het woord bestaan niet meer bij de X19x0 serie van ATI. Het aantal pipelines zegt dus niets meer over de snelheid.

Maar ik snap wat je verwarring. Hier dan even een korte samenvatting uit de topicstart... De 7900GS heeft 20 "fragment pipelines", terwijl de X1950Pro er 12 "fragment pipelines" heeft. Het verschil is echter dat bij de X1950Pro elke fragment pipeline bestaat uit 3 "shaderprocessors" en bij de 7900GS is dat er eentje.

In totaal heeft de X1950Pro dus 36 shaderprocessors waardoor deze vaak sneller is dan 20 in de een 7900GS. Daarnaast staat ATI er om bekend dat ze vaak beter gebruik kunnen maken van de beschikbare geheugenbandbreedte. Een X1950Pro heeft daardoor vaak al genoeg aan minder snel geheugen dan een 7900GS om 'm bij te houden. Wel moet worden gezegd dat een flink overgeklokte 7900GS de X1950Pro wel flink wat tegengas weet te geven. Maar daar staat natuurlijk tegenover dat de X1950Pro HDR met AA kan doen in bv Oblivion, SS2 en Call of Juarez en HiQ AF heeft, terwijl je dit bij nVidia alleen bij de GF8 serie hebt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

RappieRappie schreef op vrijdag 19 januari 2007 @ 11:43:
Wel grappig om te zien dat mensen die mischien wel 1000 euro per jaar uitgeven aan videokaarten zo moeilijk doen over een kastje van 139 euro.
Of 3 euro extra stroomverbruik per maand, hè Ast.... ;) :)

[ Voor 3% gewijzigd door Verwijderd op 19-01-2007 14:24 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: AMD gebruikt 65nm op low-end en midrange producten

Digitimes meldt dat AMD gebruik gaat maken van het 65nm productieproces voor de RV610 en RV630. nVidia voert ook een productieprocesverkleining door en gaat met haar low-end en midrange producten naar het 80nm proces, waar AMDs RV505, RV535, RV560 en RV570 al op gemaakt worden. B3D bevestigd dat dit nieuwsbericht waar is.

Volgens Digitimes zal nVidia haar eerste 80nm mainstream/lowend DX10 GPUs (G84 en G86) in April klaar zijn voor massaproductie en zullen de eerste kaarten rond Juni in de winkel liggen. AMD aan de andere kant zal rond Februari/Maart de productie van de 80nm R600 opvoeren, terwijl de massaproductie van de midrange en low-end 65nm producten rond Juni/Juli op gang komt.

Bron: http://www.digitimes.com/bits_chips/a20070119PB201.html

Leuk detail is dat RV630 op 65nm volgens de laatste geruchten een stuk kleiner is als RV530 op 90nm, maar toch een stuk sneller is.

Dan nog even over de Uber Edition... Beide X1950 kaarten lopen op 670Mhz core en 1050Mhz GDDR4 (2100Mhz effectief). En er zijn maar 500 exemplaren van.

[ Voor 7% gewijzigd door CJ op 19-01-2007 15:19 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 11:31

aex351

I am the one

Ik heb een tijd geleden op een 9700 een Zalman cooler gezet. Met veel moeite de stockcooler eraf gehaalt. En omdat het schoonmaken van de koelpasta niet echt wilde lukken heb ik het maar met een schroeferdraaier (etc) eraf gehakt.In dat proces heb ik ook een metal dingetje eraf gehakt wat naast de core op het groene vlak zat. Nu wil ik weten wat heb ik eraf gehakt ?

< dit stukje webruimte is te huur >


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
aex351 schreef op vrijdag 19 januari 2007 @ 16:18:
In dat proces heb ik ook een metal dingetje eraf gehakt wat naast de core op het groene vlak zat. Nu wil ik weten wat heb ik eraf gehakt ?
doet de kaart het nog ? :)

Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
aex351 schreef op vrijdag 19 januari 2007 @ 16:18:
Ik heb een tijd geleden op een 9700 een Zalman cooler gezet. Met veel moeite de stockcooler eraf gehaalt. En omdat het schoonmaken van de koelpasta niet echt wilde lukken heb ik het maar met een schroeferdraaier (etc) eraf gehakt.In dat proces heb ik ook een metal dingetje eraf gehakt wat naast de core op het groene vlak zat. Nu wil ik weten wat heb ik eraf gehakt ?
Eigenlijk is het niet de bedoeling dat zulke vragen hier gesteld worden, daar is Tweaking & Cooling voor.
Om je vraag te beantwoorden, waarschijnlijk heb je een weerstandje eraf gehakt. Of dat directe gevolgen heeft weet ik niet, maar op de langere termijn waarschijnlijk wel.

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 11:31

aex351

I am the one

Ja doet het nog perfect. Vandaar. Robuuste kaart :p. Wilde overigens niet voor deze kleine vraag speciaal een nieuwe topic openen vandaar dat ik em hier gesteld had.

[ Voor 25% gewijzigd door aex351 op 19-01-2007 16:54 ]

< dit stukje webruimte is te huur >


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
aex351 schreef op vrijdag 19 januari 2007 @ 16:52:
[...]

Ja doet het nog perfect. Vandaar. Robuuste kaart :p. Wilde overigens niet voor deze kleine vraag speciaal een nieuwe topic openen vandaar dat ik em hier gesteld had.
Sorry dat het misschien wat bot over komt, maar daarvoor is dit topic niet. :>

Voor dit soort vragen ben ik niet met dit topic begonnen. En dat geldt voor iedereen hier en niet alleen voor jou hoor. Heb je vragen die over problemen gaan met bv hardware of software (bv drivers), open daar dan aub een nieuw topic voor!!

Het komt nog te vaak voor dat als excuus gebruikt wordt dat men geen nieuw topic wil openen om een klein vraagje en het daarom maar hier post. Natuurlijk heb je recht op een antwoord waarmee je geholpen wordt. Maar het vervelende is dat er vaak veel mensen op in gaan en daardoor dit ATI Nieuwsdiscussie topic te veel vervuild wordt. Dus voortaan toch maar even een nieuw topic openen en ook in het juiste forum.

Het staat trouwens ook niet voor niets in de topic regels dat dit topic alleen bedoelt is om interessante nieuwszaken over ATI te bespreken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 11:31

aex351

I am the one

CJ schreef op vrijdag 19 januari 2007 @ 18:00:
[...]


Sorry dat het misschien wat bot over komt, maar daarvoor is dit topic niet. :>

Voor dit soort vragen ben ik niet met dit topic begonnen. En dat geldt voor iedereen hier en niet alleen voor jou hoor. Heb je vragen die over problemen gaan met bv hardware of software (bv drivers), open daar dan aub een nieuw topic voor!!

Het komt nog te vaak voor dat als excuus gebruikt wordt dat men geen nieuw topic wil openen om een klein vraagje en het daarom maar hier post. Natuurlijk heb je recht op een antwoord waarmee je geholpen wordt. Maar het vervelende is dat er vaak veel mensen op in gaan en daardoor dit ATI Nieuwsdiscussie topic te veel vervuild wordt. Dus voortaan toch maar even een nieuw topic openen en ook in het juiste forum.

Het staat trouwens ook niet voor niets in de topic regels dat dit topic alleen bedoelt is om interessante nieuwszaken over ATI te bespreken.
Je kan mij ook niet vertellen dat mijn vraag over een ATI zo erg offtopic was. Aangezien er pagina's vol staan over de 8800GTX of mensen die willen weten wat de specs van een bepaalde kaart zijn. Ik wilde gewoon weten wat de metalen dingen zijn die op het groene vlak naast de kern van de GPU bevinden. Stond vast een keer ergens vermeldt in een nieuwsbericht dat er metalen dingetjes naast de kern zitten op de 9700 ;) Maar goed ik begrijp je punt.

Iemand al nieuws over nieuwe ATI producten ?

< dit stukje webruimte is te huur >


Acties:
  • 0 Henk 'm!

  • MiskentTalent
  • Registratie: Januari 2003
  • Laatst online: 08-09 19:34
CJ schreef op vrijdag 19 januari 2007 @ 14:19:
[...]


Heb je de topicstart ook gelezen? Het antwoord staat er gewoon in hoor. ;)

Pipelines in de oude zin van het woord bestaan niet meer bij de X19x0 serie van ATI. Het aantal pipelines zegt dus niets meer over de snelheid.

Maar ik snap wat je verwarring. Hier dan even een korte samenvatting uit de topicstart... De 7900GS heeft 20 "fragment pipelines", terwijl de X1950Pro er 12 "fragment pipelines" heeft. Het verschil is echter dat bij de X1950Pro elke fragment pipeline bestaat uit 3 "shaderprocessors" en bij de 7900GS is dat er eentje.

In totaal heeft de X1950Pro dus 36 shaderprocessors waardoor deze vaak sneller is dan 20 in de een 7900GS. Daarnaast staat ATI er om bekend dat ze vaak beter gebruik kunnen maken van de beschikbare geheugenbandbreedte. Een X1950Pro heeft daardoor vaak al genoeg aan minder snel geheugen dan een 7900GS om 'm bij te houden. Wel moet worden gezegd dat een flink overgeklokte 7900GS de X1950Pro wel flink wat tegengas weet te geven. Maar daar staat natuurlijk tegenover dat de X1950Pro HDR met AA kan doen in bv Oblivion, SS2 en Call of Juarez en HiQ AF heeft, terwijl je dit bij nVidia alleen bij de GF8 serie hebt.
Mooi bedankt voor de Info ik ga zo ie zo voor de ATI :9

Core I7 6700K (4,5GHZ) - EVGA 960 GTX 4GB DDR5 - ASUS Z170-PRO - Corsair 32 GB DDR4-3000 - SSD Samsung Evo 840 128GB - 2x 3TB WD Red Hardisks - Nzxt White 700 Watt Voeding - Coolermaster C690II Behuizing - Be Quiet Dark Rock Advanced C1


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
CJ schreef op vrijdag 19 januari 2007 @ 15:15:
Newsflash: AMD gebruikt 65nm op low-end en midrange producten

Digitimes meldt dat AMD gebruik gaat maken van het 65nm productieproces voor de RV610 en RV630. nVidia voert ook een productieprocesverkleining door en gaat met haar low-end en midrange producten naar het 80nm proces, waar AMDs RV505, RV535, RV560 en RV570 al op gemaakt worden. B3D bevestigd dat dit nieuwsbericht waar is.

Volgens Digitimes zal nVidia haar eerste 80nm mainstream/lowend DX10 GPUs (G84 en G86) in April klaar zijn voor massaproductie en zullen de eerste kaarten rond Juni in de winkel liggen. AMD aan de andere kant zal rond Februari/Maart de productie van de 80nm R600 opvoeren, terwijl de massaproductie van de midrange en low-end 65nm producten rond Juni/Juli op gang komt.

Bron: http://www.digitimes.com/bits_chips/a20070119PB201.html

Leuk detail is dat RV630 op 65nm volgens de laatste geruchten een stuk kleiner is als RV530 op 90nm, maar toch een stuk sneller is.

Dan nog even over de Uber Edition... Beide X1950 kaarten lopen op 670Mhz core en 1050Mhz GDDR4 (2100Mhz effectief). En er zijn maar 500 exemplaren van.
Toevallig vandaag nog wat info komen bovendrijven. :)

In het performance segment zal R600 tijdens de Cebit geintroduceerd worden, de pers krijg deze eind Februari al te zien. Een week na cebit zal de kaart beschikbaar zijn. Er wordt geclaimed 5/10% sneller te zijn in LET OP DX10, dus de superieure DX10 performance waar iedereen het over heeft is onzin. Prijs zal overigens 599,= zijn en enkel het 9"model komt beschikbaar voor het kanaal, de 12" is enkel OEM.

In het performance segment zal de RV630 gelanceerd worden, ter vervanging van de 1950PRO, etc. De launch zal inderdaad eind april zijn. Echter zal hier nVidia een maand eerder, eind maart de 8600GTS (G84) introduceren ter vervangen van 7900GS en 7950GT. Een paar weken later midden april komt de 8600GT zonder / met HDMI / met HDCP, ter vervanging van de 7600GT kaart.

In het mainstreamsegment zal eind april ATI de RV610 introduceren, ze hebben net de eerste exemplaren uit de fabriek ontvangen en deze zien er goed uit. Deze RV630 is ter vervaning van de 1650, etc. Rond dezelfde tijd zal nVidia ook de 8500GT HDMI (G86 DDR3) en de zonder en met HDCP versie (G86 DDR2) lanceren om de 7600GS te vervangen. Daarbij komt er eind april ook nog eens de 8300GS (G86 DDR2) om de 7600GS / 7300GT te vervangen.

Grootste troefkaart voor ATI zal UVD (Universal Video Decoder) support zijn.
Afbeeldingslocatie: http://www.thg.ru/technews/images/1-060806.jpg

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dus in Maart de R600. 8)

En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?

In Maart komt waarschijnlijk ook de patch uit van Company of Heroes die het spel een DX10 make-over geeft. Goed getimed dus.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Tja

Enkele maanden l Een half jaar later op de markt en dan 5/10% sneller zijn. In DX10. Sorry hoor, ik zou daar als Ati fan niet om kunnen lachen eerlijk gezegd...

[ Voor 7% gewijzigd door Verwijderd op 19-01-2007 19:41 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17-09 12:47
CJ schreef op vrijdag 19 januari 2007 @ 19:34:
Dus in Maart de R600. 8)

En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?
Toe ff zeg, mag ook wel als je zo laat achter de rest over de streep komt kruipen. Zelfs dan nog blijkt het maar weer dat de bijna dubbele bandbreedte zich niet echt waarmaakt en dus als onefficient kan bestempeld kan worden. nVidia hoeft nu alleen maar met de prijs te gaan stunten en zo blijft een g80 heel interessant voor iedereen. Een 9700 pro is het zeker niet geworden.

Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op vrijdag 19 januari 2007 @ 19:34:
Dus in Maart de R600. 8)

En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?

In Maart komt waarschijnlijk ook de patch uit van Company of Heroes die het spel een DX10 make-over geeft. Goed getimed dus.
5/10% daar zou ik ook als ik in jouw schoenen zou staan niet om kunnen lachen.
5-10% is niks ! Als ik mijn 8800GTX beetje overclock zit ik al +10-15% betere performance.
Dan spreken we er nog niet van dat deze misschien trager is in DX9 dan de G80.
Dus de G81 word een R600 killer. Killer? Als die kaart uitkomt de G81 zal het zijn alsof de R600 niet meer bestaat zoals het ook was met de X1800XT.

Dit was mooi geweest als ze tesamen kwamen met de G80.
Met dan nog als nadeel voor ATI dat de G80 overclocked als een gek.
En ik ben bijna zeker dat dat bij ATI niet zo vet zal zijn.

offtopic
En de 8800GTX kost nog ~550 euro.
En de R600 zal adviesprijs 599 krijgen dus ~650,euro.
Mijne keuze zou rap gemaakt zijn. G80
Blijkt er dus naar uit dat Nvidia lang de kroon zal houden tot een refresh (door XXX versies.)


Conclusie : Lang gewacht voor niks , al kon het anders en beter geweest zijn. :+

[ Voor 17% gewijzigd door Verwijderd op 19-01-2007 19:59 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sjekneck schreef op vrijdag 19 januari 2007 @ 19:47:
[...]

Toe ff zeg, mag ook wel als je zo laat achter de rest over de streep komt kruipen. Zelfs dan nog blijkt het maar weer dat de bijna dubbele bandbreedte zich niet echt waarmaakt en dus als onefficient kan bestempeld kan worden.
Ik heb nog geen 1920x1200 HDR+AA benches gezien, dus jouw conclusie is iets te vroeg imo.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 19 januari 2007 @ 20:00:
[...]


Ik heb nog geen 1920x1200 HDR+AA benches gezien, dus jouw conclusie is iets te vroeg imo.
lol.. 10% sneller zal allesinds niet op 800*600 zijn 8)7.
Denk eerder op HD resoluties. Swat , beide kaarten hebben genoeg power voor komende games.

Optimaliseren is het antwoord voor iedereen , niet een nieuwe kaart kopen.
UT2007 en Crysis zullen hier voorbeeld van zijn >1-2jaar optimalisatie.
Terwijl 3/4 van de games brak is.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

The Source schreef op vrijdag 19 januari 2007 @ 19:08:


Toevallig vandaag nog wat info komen bovendrijven. :)

In het performance segment zal R600 tijdens de Cebit geintroduceerd worden, de pers krijg deze eind Februari al te zien. Een week na cebit zal de kaart beschikbaar zijn. Er wordt geclaimed 5/10% sneller te zijn in LET OP DX10, dus de superieure DX10 performance waar iedereen het over heeft is onzin.
Bummer... :/

En het zullen idd wel de HD reso's zijn waarin hij sneller is. Dus alleen interessant voor mensen met een scherm die hoger kan dan 1600x1200, en dan is het als consument misschien wel heel interessant om prijzen te gaan vergelijken en de beste prijs kwaliteit verhoudning te zoeken/nemen.

Er vanuit gaande dat de G80 wel goedkoper wordt bij de launch van de R600 zou het best kunnen zijn dat nVidia een grote slag slaat dit keer.

Wel vreemd overigens; bijna dubbele bandbreedte tov de G80 en "maar" 10-15% 5-10% meer performance. In DX10. Misschien is de G80 zelfs wel sneller in DX9... :?

[ Voor 255% gewijzigd door Format-C op 19-01-2007 20:17 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op vrijdag 19 januari 2007 @ 19:34:


En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?
Die ''verwachting'' is volgens mij gebaseerd op het (dx9) succes van de r300 (ja...daar hebben we 'm weer :) )

Maar volgens mij zijn de meningen nogal verdeeld over de dx10 performance van 128 shaders vs 64 vec4 shaders...

even afwachten nog hoe dat verschil uitpakt... :)
The Source schreef op vrijdag 19 januari 2007 @ 19:08:
[...]
Echter zal hier nVidia een maand eerder, eind maart de 8600GTS (G84) introduceren ter vervangen van 7900GS en 7950GT.

offtopic


de 8600 had toch een 128bits geheugenbus ?...of de gts weer niet

[ Voor 24% gewijzigd door Mr. Detonator op 19-01-2007 20:21 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Toch leuk dat iedereen blijkbaar zeker weet wat de specs zijn van R600.

Effe kijken, 512-bit memory interface zie ik hier, 64 vec4 ALUs, zelfde performance dus G80 blijft een goede keuze...

Hoeveel is er nou eigenlijk echt bekend over R600? Niks. Blijkbaar weten de nVidiots die dit topic zo graag bezoeken (waarom is het eigenlijk zo stil in het nV discussie topic, want G81, G83, G84 en G86 komen er toch aan?) met zekerheid dat R600 geen nieuwigheden heeft op het gebied van image quality of andere gebieden.

Neem nog rustig een kopje koffie. In Februari zien we meer. :P
Mr. Detonator schreef op vrijdag 19 januari 2007 @ 20:18:
[...]

offtopic


de 8600 had toch een 128bits geheugenbus ?...of de gts weer niet
Graag in het nV topic bespreken en niet hier. :>

De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance, maar aan de Xenos in de Microsoft Xbox360. En 5 tot 10% sneller in DX10 applicaties is nog altijd 'sneller' en niet 'langzamer'. Als het 'langzamer' was geweest dan waren er hier nog meer nV aanhangers toegestroomd om de boel helemaal af te kraken. Nu blijkt-ie 'maar' 5-10% sneller te zijn (wat overigens nog moet blijken want we hebben nog niets gezien) dus wordt door die mensen natuurlijk de nadruk gelegd op het woordje 'maar'. Leuk geprobeerd jongens, maar het wordt tijd om het nV discussie topic eens wat meer op te vrolijken. Het is daar altijd zo stil. :+

Overigens is het wel heel erg moeilijk om nu al DX10 performance in te schatten. Er zijn namelijk absoluut nog geen DX10 games uit. CoH wordt pas eind maart geupdate naar DX10, Crysis is uitgesteld naar halfweg dit jaar net als DX10. Mocht er getest zijn, dan is het op hele vroege versies waar je nog niets op kan baseren. Oh ja, 3DM07 komt er natuurlijk ook nog aan. }:O

[ Voor 56% gewijzigd door CJ op 19-01-2007 20:48 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
Verwijderd schreef op vrijdag 19 januari 2007 @ 19:55:
[...]

En de 8800GTX kost nog ~550 euro.
En de R600 zal adviesprijs 599 krijgen dus ~650,euro.
Mijne keuze zou rap gemaakt zijn. G80
Conclusie : Lang gewacht voor niks , al kon het anders en beter geweest zijn. :+
Zowel de R600 als de 8800GTX hebben 599,= consumenten prijs. Met $ en verschillende marges kan de R600 op hetzelde prijslevel komen als de GTX.

De info die ik gaf is redelijk betrouwbaar, ATI info komt direct van ATI, nvidia info direct van Nvidia, beide heb ik uit eerste hand. Nvidia wist me overigens ook te vertellen dat de R600 erg veel hitte, power en koeling problemen had, maar dat soort info neem ik altijd met korrel zout. Als ik naar marktaandeel van 2006 kijk dan zie ik ATI in europa van zo'n 40/35% marktaandeel naar zo'n 25/20% marktaandeel dalen in de loop van H2 2006. Ik verwacht dat dit in Q1 2007 niet anders zal zijn, maar zodra AMD/ATI alles goed op de rit hebben en de RV630/R610 op de markt hebben dan verwacht ik wel dat ze weer marktaandeel terug zullen pakken. Maar enkel dat terug pakken dat ze verloren hebben door afgelopen tijd geen visie gehad te hebben.

[edit]
Nog iets anders, we zullen door vista ook gekke marketing gaan zien in de toekomst. Vista gaat heel anders om met haar VGA geheugen. Onderstaande een screenshot van Vista met een 7950 512MB, toch laat Vista 783MB VGA geheugen zien. Dus nu is de verwachting dat OEM en SI's zullen gaan adverteren met "PC voorzien van VGA kaart met 783MB geheugen". Zelfde eigenlijk als Turbo Cache / Hyper Memory verhaal.
Afbeeldingslocatie: http://img251.imageshack.us/img251/3540/untitled1gu8.jpg

[ Voor 21% gewijzigd door The Source op 19-01-2007 20:57 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance,
Volgens mij doet elke DX10 kaart het gewoon erg goed in DX10 apps, DX10 werd nl geschreven met performance in het achterhoofd (de G80 schijnt 60 fps in Crysis te halen (beta game én drivers) in een heel hoge resolutie, helemaal niet slecht dus mits het waar is). Uiteraard is er niks over de R600 bekend, maar info van The Source mag je als waar beschouwen. 5 - 10% sneller, da's echt niks.
In Februari zien we meer.
En ik eerder dan jij schat :>
Mocht er getest zijn, dan is het op hele vroege versies waar je nog niets op kan baseren.
How about emulatie? Als er recht uit de mond van ATI komt dat R600 max 10% sneller is dan hebben ze dat heus niet op beta games alleen getest ;)

[ Voor 21% gewijzigd door XWB op 19-01-2007 20:52 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Om toch een beetje in het kader te blijven van de eeuwigdurende strijd tussen AMD en nVidia. Komt G81 nou vlak na de R600 uit? Daar heb ik je namelijk niet over gehoord. En staat de "next gen R600" nog op de planning voor Q3 van dit jaar?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
[b][message=27342632,noline]

De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance, maar aan de Xenos in de Microsoft Xbox360.
die specs baseer ik natuurlijk alleen maar op de laatste geruchten...

De xenos voldoet niet aan de dx10 specs...hij kan wel sommige dx10 functies, dus in die zin hebben ze er al wat mee kunnen ''oefenen''...als je dat bedoelt

It also lacks quite a few key DX10 features like Geometry Shaders, Integer and Bitwise support in Shaders, etc

[ Voor 13% gewijzigd door Mr. Detonator op 19-01-2007 21:03 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
CJ schreef op vrijdag 19 januari 2007 @ 20:51:
Om toch een beetje in het kader te blijven van de eeuwigdurende strijd tussen AMD en nVidia. Komt G81 nou vlak na de R600 uit? Daar heb ik je namelijk niet over gehoord. En staat de "next gen R600" nog op de planning voor Q3 van dit jaar?
"We are waiting for ATI to launch R600" was het antwoord toen ik die vraag vanmiddag op tafel legde :)

Over te ver vooruit praten ze nooit, focusen enkel op dat wat verkocht moet worden, dus niets over next gen R600 of over G90. Ik vraag er ook niet naar, ook verspilling van mijn tijd.

Nog een leuke... Nvidia wist mij een verhaal te vertellen dat de DX10 drivers niet alleen zo laat zijn omdat het complex is maar ook omdat zij ook de eerste waren die DX10 drivers aan het ontwikkelen waren, MS had haar zaken niet op orde, en nvidia was nog voornamelijk bezig met het debuggen van de MS Vista WHQL, dit omdat MS hier veel gaten heeft laten vallen. Voor OEM en SI klanten is Vista WHQL vereist FYI.

Mbt de 5/10% extra performance... weet natuurlijk niet of het waar is, ze kunnen mij ook voor de gek houden, maar ik zie niet in waarom ze dat zouden doen. Daarbij sluit het aan bij alles dat wij al hebben gehoord. Maar misschien verrast ATI ons :) Mocht het wel kloppen, dan kan ik enkel zeggen dat R600 enorm tegenvalt, want ze zijn er een paar maanden telang mee bezig geweest, dat duidt meestal op fuckup's. Deze performance is voor de nerds belangrijk maar niet voor het marktaandeel en het success van ATI vergeet dat niet. Een slecht kaart met goed marketing verkoopt altijd nog beter dan een goed kaart met slecht marketing.

[ Voor 65% gewijzigd door The Source op 19-01-2007 21:12 ]


Acties:
  • 0 Henk 'm!

  • rstyled
  • Registratie: September 2006
  • Laatst online: 09-09 15:28
Voor Nvidia makkelijk praten. Maar ik vind het gewoon zo knap dat dat die Nvito's al kunnen vertellen (my Bad) Dat een kaart die (met de specificaties die we voorgeschoteld gekregen hebben van R600) maar 5-10% sneller blijkt te zijn in DX10 games die nog niet bestaan. daarnaast zie ik liever een kaart die iets meer toekomstgericht is. En ik wil trouwens dalijk wel de benchmarks zien in huidige dx9 games als oblivion :)


offtopic:
uh ja, ik lees dit topic vanaf deel 1 en ik moest eens minder dropshots drinken

[ Voor 10% gewijzigd door rstyled op 19-01-2007 22:18 ]


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op vrijdag 19 januari 2007 @ 20:59:
[...]

"We are waiting for ATI to launch R600" was het antwoord toen ik die vraag vanmiddag op tafel legde :)

Over te ver vooruit praten ze nooit, focusen enkel op dat wat verkocht moet worden, dus niets over next gen R600 of over G90. Ik vraag er ook niet naar, ook verspilling van mijn tijd.

Nog een leuke... Nvidia wist mij een verhaal te vertellen dat de DX10 drivers niet alleen zo laat zijn omdat het complex is maar ook omdat zij ook de eerste waren die DX10 drivers aan het ontwikkelen waren, MS had haar zaken niet op orde, en nvidia was nog voornamelijk bezig met het debuggen van de MS Vista WHQL, dit omdat MS hier veel gaten heeft laten vallen. Voor OEM en SI klanten is Vista WHQL vereist FYI.

Mbt de 5/10% extra performance... weet natuurlijk niet of het waar is, ze kunnen mij ook voor de gek houden, maar ik zie niet in waarom ze dat zouden doen. Daarbij sluit het aan bij alles dat wij al hebben gehoord. Maar misschien verrast ATI ons :) Mocht het wel kloppen, dan kan ik enkel zeggen dat R600 enorm tegenvalt, want ze zijn er een paar maanden telang mee bezig geweest, dat duidt meestal op fuckup's. Deze performance is voor de nerds belangrijk maar niet voor het marktaandeel en het success van ATI vergeet dat niet. Een slecht kaart met goed marketing verkoopt altijd nog beter dan een goed kaart met slecht marketing.
Als je het uit de mond van ATI weet zullen ze het volgens mij allesinds niet lager zeggen. ;)
ATI en AMD samenvloeiing enzo hebben ook wel met die uitstellen te maken volgens mij.
Enorm tegenvalt , je kan het kerel zoals je wilt. Voor zover ik weet is de G80 the card 2 be.
Superieure IQ , performance , etc.. Het is te hopen dat ATI toch zeker voor het eerste kan zorgen.
Van die 5% meer of minder liggen volgens mij de echte ATI'ers niet wakker.

EDIT : DX10 = toekomst.
Hoe nieuwer de games hoe kleiner het verschil tussen de kaarten.
Bv. 18fps t.o.v 20fps. Terwijl het nu 30 t.o.v 40 kan zijn.

Meestal is hetgeen dat The Source zegt correct naar mijn weten ;)

[ Voor 5% gewijzigd door Verwijderd op 19-01-2007 22:11 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
rstyled schreef op vrijdag 19 januari 2007 @ 22:05:
Voor Nvidia makkelijk praten. Maar ik vind het gewoon zo knap dat dat die Nvito's al kunnen vertellen dat een kaart die (met de specificaties die we voorgeschoteld gekregen hebben van R600) maar 5-10% sneller blijkt te zijn in DX10 games die nog niet bestaan. daarnaast zie ik liever een kaart die iets meer toekomstgericht is. En ik wil trouwens dalijk wel de benchmarks zien in huidige dx9 games als oblivion :)
Lezen, het komt uit de mond van ATI :>

March of the Eagles


Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op vrijdag 19 januari 2007 @ 22:11:
[...]


Lezen, het komt uit de mond van ATI :>
Idd. Zei ik ook al. Verder valt er niet veel over te zeggen.
Als het zo is (5-10% t.o.v 8800GTX stock) hoop ik voor de ATI aanhangers dat er toch
IQ en goede AA tegenover staat zoals de G80.

Acties:
  • 0 Henk 'm!

Verwijderd

Zoals gezegd is er nog niet veel van DX10 uit om performance mee te meten, 1of 2 games is ook een schaarse enquete zeg maar. Ook is de mate van performance altijd erg game/engine afhankelijk geweest, en kom je pas op een gemiddelde prestatie uit als je al die games er bij betrekt.
Dus één of twee andere DX10 games kunne de balans zo verstoren. 10% performance is dus niet erg concreet, net zoals de definitieve specs :+

Toch moet je natuurlijk roeien met de riemen die je hebt en ze zullen het dus wel over 5-10% betere performance in de crytek engine DX10 hebben.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op vrijdag 19 januari 2007 @ 22:07:
[...]
Voor zover ik weet is de G80 the card 2 be.
Superieure IQ , performance , etc.. Het is te hopen dat ATI toch zeker voor het eerste kan zorgen.
Van die 5% meer of minder liggen volgens mij de echte ATI'ers niet wakker.
Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.

Punt 3: CJ, The Source en de ATI Nieuwsdiscussietopics zijn een serieuze meerwaarde aan het forum en aan een ATI-kaart.
Verwijderd schreef op vrijdag 19 januari 2007 @ 22:07:
EDIT : DX10 = toekomst.
Hoe nieuwer de games hoe kleiner het verschil tussen de kaarten.
Bv. 18fps t.o.v 20fps. Terwijl het nu 30 t.o.v 40 kan zijn.
DX10 de toekomst ? Meen je dat ? 8)7
Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:
[...]

Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.

Punt 3: CJ, The Source en de ATI Nieuwsdiscussietopics zijn een serieuze meerwaarde aan het forum en aan een ATI-kaart.


[...]

DX10 de toekomst ? Meen je dat ? 8)7
Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?
Er staat bv. voor? Je kent da woord toch wel?
Wat ik wil duidelijk maken is , dat als de kaart maar 5-10% beter is dat je toch geen verschil zal merken. Nu merk je dat niet , en later zeker niet omdat het allemaal zwaarder word kwa games en alle architecturen komen dan bij elkaar te liggen.

En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.

Edit : Maar als je de moeite niet doet een nvidia te kopen zal je het nooit weten.
Ik heb ATI kaarten gehad ;) ( 9800XT & X1800XT )

[ Voor 6% gewijzigd door Verwijderd op 19-01-2007 23:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:
[...]

Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.
Hoe 'weet' jij dat de support bij Ati beter zal zijn op langere termijn? SLI is nog steeds een stuk volwassener dan Crossfire imo, PhysX support zit al ingebakken in de G80 enz enz.

En jouw tweede argument slaat natuurlijk helemaal nergens op. Dus jij negeert nVidia omdat er daar teveel kindertjes rondlopen die enkel maar lopen te blaten dat Geforce zo goed is 8)7 Beetje vage redenering. Daar zou ik echt maling aan hebben. Die kom ik ook tegen hier op het Ati forum ( zal geen namen noemen ;) ).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:

Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?
Ik denk dat hij bedoelt dat de games op den duur zo zwaar zijn dat de verschillen in FPS daardoor kleiner worden. Kijk maar naar ultra high res benchmarks in DX9. Daar zijn de verschillen klein, en op bijvoorbeeld 1280x1024 weer groter.

Hier gaat het mij om:

wat het verschil tussen DX10 en DX9 is qua performance. En dan bedoel ik niet zozeer de performance van de kaarten zelf, maar de manier waarop dirtectX10 draait. Als DX10 vele malen lichter draait zoals microsoft claimt dat het doet, dan zou je met zowel een G80 als R600 gewoon hele mooie FPS moeten hebben in DX10 games. En of je nu 80 of 100FPS hebt dat boeit mij eigenlijk geen ruk. Beide speelt lekker. En dat terwijl het verschil toch 25% is. ;)

Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.

De kaarten zijn op zich snel zat; nu DX10 zélf nog. Laten de gamedevs en heren van Microsoft maar eens op een fatsoenlijke manier gaan coden zodat wij fatsoenlijk kunnen gamen met onze peperdure hardware. ;)

[ Voor 5% gewijzigd door Format-C op 20-01-2007 00:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers"
Kortom, fanboys ;) Vind ik persoonlijk nutteloos, waar de concurrentie voor hetzelfde geld een betere kaart heeft ga je toch de tragere halen om je trots op het merk niet te schaden 8)7
ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt.
Ook een beetje nutteloos he, van mij mag iedereen kinderachtig doen, als een bepaalde kaart goed presteert haal ik die gewoon. Wat de rest er over zegt kan me gestolen worden. Maar kortom, als we nu allemaal kinderachtige uitspraken over ATI gaan rondstrooien koop je geen ATI meer ? :)
Physics support
De G80 doet ook aan physics rendering, al zal een apparte kaart (theoretisch) beter presteren natuurlijk. AMD's Triple Play is uiteraard een mooi stukje technologie :)
Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.
Klopt ja, maar je hebt ook twee soorten devvers. Degene die hun engine zoveel mogelijk optimaliseren zodat het toch aardig draait en devvers die alleen aan geld denken waardoor je games als Oblivion krijgt. Maar idd, DX10 belooft veel meer dan alleen mooie graphics. Hij zou ook een stuk sneller moeten zijn enzovoort.

[ Voor 25% gewijzigd door XWB op 20-01-2007 00:12 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

Verwijderd

RappieRappie schreef op zaterdag 20 januari 2007 @ 00:07:
[...]


Ik denk dat hij bedoelt dat de games op den duur zo zwaar zijn dat de verschillen in FPS daardoor kleiner worden. Kijk maar naar ultra high res benchmarks in DX9. Daar zijn de verschillen klein, en op bijvoorbeeld 1280x1024 weer groter.

Hier gaat het mij om:

[
Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.

De kaarten zijn op zich snel zat; nu DX10 zélf nog. Laten de gamedevs en heren van Microsoft maar eens op een fatsoenlijke manier gaan coden zodat wij fatsoenlijk kunnen gamen met onze peperdure hardware. ;)
_/-\o_ Precies, en daarom hoop ik ook dat Vista en DX10 daar tezamen netjes voor zullen gaan zorgen, iets waar ik oprecht goede hoop op heb.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 19 januari 2007 @ 23:42:
[...]


Er staat bv. voor? Je kent da woord toch wel?
Wat ik wil duidelijk maken is , dat als de kaart maar 5-10% beter is dat je toch geen verschil zal merken. Nu merk je dat niet , en later zeker niet omdat het allemaal zwaarder word kwa games en alle architecturen komen dan bij elkaar te liggen.
Waarom klok jij je 8800GTX dan over? Dan moet je hier toch ook niks van merken? ;)

Zelf zal ik nooit een keuze maken op basis van alleen prestaties. Het gaat om het totaal plaatje, Dus IQ + prestatie + koeling + verbruik + support + toekomsperspectief
Van de meeste dingen is niks bekend, En 5% betere prestaties dan G80 is toch gewoon volgens verwachting? Het verschil tussen X800XT en 6800GT, G70 en X1800XT was zeker niet meer.
En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.
Het gaat hier niet om X1950 VS G80 maar om R600 VS G80/G81, Over de IQ van R600 is niks bekend.
Edit : Maar als je de moeite niet doet een nvidia te kopen zal je het nooit weten.
Ik heb ATI kaarten gehad ;) ( 9800XT & X1800XT )
Aan de types te zien waren het beide "5%-10% beter" kaartjes. Weet je zeker dat wanneer R600 uit is en 5% sneller blijkt te zijn dat je je G80 nog hebt? ;)

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
Verwijderd schreef op vrijdag 19 januari 2007 @ 23:51:
[...]
PhysX support zit al ingebakken in de G80 enz enz.
Niet echt. De G80 bestaat uit unified shaders, die programmeerbaar zijn. Dus door de juiste software zijn deze in te zetten voor physic acceleratie. Leuke marketing truuk want bij de aankondiging was dit ook een verkoop argument maar tot op heden niets van gezien. Dit betekent gewoon dat er geen drivers zijn die het supporten, en die zijn er logischerwijs nog niet omdat er geen software is die er gebruikt van maakt.

Maw de R600 heeft op dit moment zoveel physics support ingebakken zitten, en het wordt ook niet gebruikt. Dus nVidia en ATI zullen van de beide marketing bullshit gebruik maken. Dus zgn physhics support in de G80 is helemaal geen aparte unit ofzo die dedicated voor dat is. Maar je reactie laat zien dat de marketing machine goed haar best doen, want het enige dat je weet (niet persoonlijk, zo werkt marketing) is dat er physic support zit ingebakken.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Over dit onderwerp hadden we het laatst ook al in een topic.

Zie mijn reaktie:

RappieRappie in "X1900XT als PhysX kaart gebruiken????"

Maar goed, geen games die het ondersteunen: geen physics. Mooi dat het kan, maar we hebben er niks aan. En dit geldt voor zowel ATi als nV. :O

[ Voor 6% gewijzigd door Format-C op 20-01-2007 01:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
[...]
Klopt ja, maar je hebt ook twee soorten devvers. Degene die hun engine zoveel mogelijk optimaliseren zodat het toch aardig draait en devvers die alleen aan geld denken waardoor je games als Oblivion krijgt.
ff klein beetje offtopic O-) Waarom lees ik zoveel dat Oblivion vol fouten zit/zat. Heb het toch wel een 100tal uren gespeelt en ken ook anderen die dit gedaan hebben en ikzelf heb 0!! keer een uitvaller gehad en ook nerges een verkeerd pixeltje gezien. Heb het spel ook gespeelt met 3 verschillende videokaarten (veeleisend spelletje :P), en 2 compleet andere setups (alles uiteraard heftig overklokt). + vergeef het spel een paar bugs, is toch een leuk spelletje. _/-\o_

Verder hoop ik ook dat dx10 betere performance oplevert met in combinatie drivertweaks als EATM/ATMALphaSharpenMode, anders mag de 45nm vga wel snel komen.

Post van The Source staat er wel een beetje vaag (of ik ben een beetje 8)7 :? :|)is het nu dat de r600 5/10% beter presteert in dx10 als zelfde spel/settings in dx9?? of in vergelijking met de 8800.

Nukezone FTW


Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
Kortom, fanboys ;) Vind ik persoonlijk nutteloos, waar de concurrentie voor hetzelfde geld een betere kaart heeft ga je toch de tragere halen om je trots op het merk niet te schaden 8)7
Smaken kunnen verschillen. Om daarom nou iemand direct tot fanboi te classificeren... Als ik elke keer bij de AH mijn boodschappen doe, ben ik dan een AH-fanboi? Pff... Leuk dat je t nutteloos vindt, maar de wereld zit toch net wat anders in elkaar. :)

[ Voor 24% gewijzigd door Verwijderd op 20-01-2007 02:00 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hacku schreef op vrijdag 19 januari 2007 @ 20:48:
[...]

En ik eerder dan jij schat :>
Misschien heb je 'm in het echt wel sneller onder handen wat mij helemaal niet onlogisch lijkt. ;) Maar er zijn wat (b)engeltjes die vaak zo lief zijn om soms tegelijkertijd met de pers of soms eerder (!), wat informatie in m'n mailbox te dumpen. Ben er wel vrij zeker van dat ik de precieze performance info van de R600 ook ruim op tijd binnen heb. :)
How about emulatie? Als er recht uit de mond van ATI komt dat R600 max 10% sneller is dan hebben ze dat heus niet op beta games alleen getest ;)
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen, want daar zagen ze geen brood in. Zoveel waarde moet je aan zo'n uitspraak hechten in mijn ogen. En emulatie zegt ook niet veel, zeker niet gezien het feit dat te veel dingen nog beta zijn wat betreft de games.

En 5-10%... Op welke resolutie? Met welke instellingen?
Mr. Detonator schreef op vrijdag 19 januari 2007 @ 20:55:
[...]


die specs baseer ik natuurlijk alleen maar op de laatste geruchten...

De xenos voldoet niet aan de dx10 specs...hij kan wel sommige dx10 functies, dus in die zin hebben ze er al wat mee kunnen ''oefenen''...als je dat bedoelt

It also lacks quite a few key DX10 features like Geometry Shaders, Integer and Bitwise support in Shaders, etc
Dat Xenos voldoet aan de DX10 spec heb ik nooit gezegd. Maar je moet ook niet zo maar aan nemen wat iemand quote, zeker niet als diegene ook wel eens wat foute dingen heeft gepost op andere fora. ;)

Wat daar staat klinkt alsof Xenos enorm veel mist wat betreft DX10. Dat is absoluut niet zo. Xenos hangt tussen DX9/SM3 en DX10/SM4 in. Als je zou moeten zeggen waar het precies er tussen in zit, dan leunt Xenos meer naar SM4 dan naar SM3. Xenos mist inderdaad wat DX10 dingen zoals Geometry Shaders en Virtualisatie, en ook het feit dat alle ALUs puur floating point zijn en niet integer. Maar daar staat tegenover dat het in alle punten over de SM3 vereisten heen gaat, aan de meeste SM4 vereisten voldoet en zelfs verder gaat met bv zaken als MEMEXPORT. Dat laatste heeft een hele grote kans om in een toekomstige DX te komen. Het is niet gelukt om dit in DX10 te krijgen, maar waarschijnlijk dus in een update of toekomstige versie.

Een betere betrouwbare uitleg over wat Xenos precies is en kan, staat hier: http://www.beyond3d.com/articles/xenos/
Verwijderd schreef op vrijdag 19 januari 2007 @ 23:42:

En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.
Ben ik het zelf niet mee eens.

[G71] ------------------------------- [R580]-------------[G80]

Als het op IQ aan komt is het gat tussen R580 en G71 groter dan het gat tussen R580 en G80.
Verwijderd schreef op vrijdag 19 januari 2007 @ 23:51:
[...]


Hoe 'weet' jij dat de support bij Ati beter zal zijn op langere termijn? SLI is nog steeds een stuk volwassener dan Crossfire imo, PhysX support zit al ingebakken in de G80 enz enz.
Fout. PhysX support zit NIET in de G80 ingebakken. De G80 maakt gebruik van de HavokFX engine n niet van Ageia's PhysX. Zie ook de lange FAQ over physics die ik een paar dagen geleden in de second post heb gestopt.

Daarnaast zit in de hele X1K serie support voor physics ingebakken en dat geldt ook voor de G7 serie. En op dit moment heb je niets aan physics in de G80 omdat de drivers dit nog niet geactiveerd hebben en omdat er geen games uit zijn die de HavokFX engine ondersteunen. Dus wat dat betreft zitten ATI en nVidia op hetzelfde punt.

Dat hij de support beter vind op langere termijn, daar is een paar dagen terug ook over gediscussieerd en dan vooral wat er mee bedoeld werd. Hieronder vielen dus bv zaken als het achteraf toevoegen van nieuwe features als adaptive AA, temporal AA, EATM AA, Geometry Instancing op kaarten die al jaren uit zijn. Maar dit is weer de kras op de plaat en ik had gehoopt dat mensen eens wat vaker terug bladeren want die lange posts worden niet voor jan-met-de-korte-achternaam gemaakt.

Dit is geen ATI is beter of nVidia is beter topic, het is hier voornamelijk bedoeld om mensen op de hoogte te houden van nieuwtjes en technieken, dus mensen op de hoogte stellen van technieken die ATI gebruikt om bepaalde dingen te bereiken en niet over hoe goed nVidia het allemaal wel niet doet. Dat mag allemaal in het nV topic.
Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
[...]
Ook een beetje nutteloos he, van mij mag iedereen kinderachtig doen, als een bepaalde kaart goed presteert haal ik die gewoon. Wat de rest er over zegt kan me gestolen worden. Maar kortom, als we nu allemaal kinderachtige uitspraken over ATI gaan rondstrooien koop je geen ATI meer ? :)
Van mij mag iedereen ook kinderachtig doen, maar niet in dit topic. Doe dat dan aub ergens anders. Nuttige toevoegingen zijn natuurlijk altijd welkom, en de meesten van jullie hebben bewezen dat ze ook daartoe in staat zijn. Graag meer daarvan aub. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 20 januari 2007 @ 00:18:
[...]

Waarom klok jij je 8800GTX dan over? Dan moet je hier toch ook niks van merken? ;)

Zelf zal ik nooit een keuze maken op basis van alleen prestaties. Het gaat om het totaal plaatje, Dus IQ + prestatie + koeling + verbruik + support + toekomsperspectief
Van de meeste dingen is niks bekend, En 5% betere prestaties dan G80 is toch gewoon volgens verwachting? Het verschil tussen X800XT en 6800GT, G70 en X1800XT was zeker niet meer.


[...]


Het gaat hier niet om X1950 VS G80 maar om R600 VS G80/G81, Over de IQ van R600 is niks bekend.


[...]


Aan de types te zien waren het beide "5%-10% beter" kaartjes. Weet je zeker dat wanneer R600 uit is en 5% sneller blijkt te zijn dat je je G80 nog hebt? ;)
offtopic
Ik heb mijn 8800GTX niet overclocked ;) juist omdat ik het verschil van 10-15% bijna niet voel.
En overbodig is. Als de R600 uitkomt? Dan zal ik overclocken.. zodat ik weer de snelste heb.
Door die 10-15% extra zal de R600 volgens mij echt niet beter zijn. En jah? Nvidia heeft aan IQ gewerkt? Heeft ATI dat wel gedaan? Zou heel goed kunnen dat de R600dezelfde IQ als de X1950XTX heeft. Nvidia heeft de slechte punten bijgewerkt. En ATI op een zekere manier ook door voor een brutere architectuur te kiezen die infeite niet veel sneller zal zijn. Hetzelfde als de 7800GTX een brutere architectuur had als de X1800XT. Maar uiteindelijk was het ATI met een lichtere architectuur die juist zat. :> Nvidia koos voor een slimme architectuur , ATI voor een brute. Ze hebben beiden wat ze vroeger fout deden gefixed zodus.

Speel eens Cs Source met een X1950XTX en G80 echt groot verschil.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen, want daar zagen ze geen brood in. Zoveel waarde moet je aan zo'n uitspraak hechten in mijn ogen. En emulatie zegt ook niet veel, zeker niet gezien het feit dat te veel dingen nog beta zijn wat betreft de games.
Emz, hoe ontwerpen ze die chip dan, de specs van MS volgen en dan maar hopen dat je chip snel genoeg is? Nee, DX10 performance wordt wel degelijk nagedaan door emulatie.
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen,
Wat heeft dit er dan met te maken, voor DX10 ben je niet verplicht aan een unified architectuur (hoewel aangeraden door MS). Ik had het over de DX10 performance.
En 5-10%... Op welke resolutie? Met welke instellingen?
Vast niet 800x600. Meer een gemiddelde ?
Verwijderd schreef op zaterdag 20 januari 2007 @ 01:57:
[...]


Smaken kunnen verschillen. Om daarom nou iemand direct tot fanboi te classificeren... Als ik elke keer bij de AH mijn boodschappen doe, ben ik dan een AH-fanboi? Pff... Leuk dat je t nutteloos vindt, maar de wereld zit toch net wat anders in elkaar. :)
Mwa, mijn reactie was misschien wat overdreven. Ik kan er gewoon niet bij waarom je bij een bepaald merk wil blijven.

[ Voor 21% gewijzigd door XWB op 20-01-2007 11:37 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hacku schreef op zaterdag 20 januari 2007 @ 11:25:
[...]


Emz, hoe ontwerpen ze die chip dan, de specs van MS volgen en dan maar hopen dat je chip snel genoeg is? Nee, DX10 performance wordt wel degelijk nagedaan door emulatie.
Er wordt wel aan emulatie van DX10 gedaan, maar wat kan je er verder mee emuleren als je geen enkele DX10 game hebt in z'n uiteindelijke vorm? Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt? En je weet toch ook wel dat er ook nog andere factoren zijn die performance kunnen beinvloeden zoals de drivers? Zie bv Catalyst 6.12 (of was het 6.11) die een enorme boost bracht in Company of Heroes (de eerste DX10 game in maart als het goed is) op de gehele linie van AMD kaarten.

Als men zegt dat de performance 5-10% sneller is dan een G80 in DX10 games, dan is dat dus door: 1) emulatie, 2) op DX10 games die nog niet eens helemaal af zijn, 3) ofwel in 3DM07, 4) met drivers die nog niet het volle vermogen uit de R600 halen (zie ook de drivers van de G80 waar nog veel uit kan worden geperst).
Wat heeft dit er dan met te maken, voor DX10 ben je niet verplicht aan een unified architectuur (hoewel aangeraden door MS). Ik had het over de DX10 performance.
Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.
Vast niet 800x600. Meer een gemiddelde ?
Yep, maar wat is het gemiddelde? 1280x1024 lijkt me nu normaal, en dan met 4xAA en 16xAF. Maar ja, zo'n high end kaart kan natuurlijk veel meer dan dat. 1600x1200 en hoger is natuurlijk perfect.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt?
Uiteraard, ik maak toch ook nergens een vergelijking op? Ik zeg gewoon dat ze die cijfers van ergens halen. Een beta game geeft overigens wel de minimale performance weer, als bv die G80 met 60 fps in Crysis op een heel hoge resolutie. Da's erg knap en wil alleen maar zeggen dat het final game nog beter zal draaien.
Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.
Thanks, duidelijk :)

Verder is er nog wat nieuws van Sapphire dat ik juist online geknald heb: Sapphire X1550 & X1050 serie (is volgens mij nog niet gemeld in dit topic)

March of the Eagles


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op zaterdag 20 januari 2007 @ 13:39:
[...]


Er wordt wel aan emulatie van DX10 gedaan, maar wat kan je er verder mee emuleren als je geen enkele DX10 game hebt in z'n uiteindelijke vorm? Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt? En je weet toch ook wel dat er ook nog andere factoren zijn die performance kunnen beinvloeden zoals de drivers? Zie bv Catalyst 6.12 (of was het 6.11) die een enorme boost bracht in Company of Heroes (de eerste DX10 game in maart als het goed is) op de gehele linie van AMD kaarten.

Als men zegt dat de performance 5-10% sneller is dan een G80 in DX10 games, dan is dat dus door: 1) emulatie, 2) op DX10 games die nog niet eens helemaal af zijn, 3) ofwel in 3DM07, 4) met drivers die nog niet het volle vermogen uit de R600 halen (zie ook de drivers van de G80 waar nog veel uit kan worden geperst).


[...]

Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.

[...]


Yep, maar wat is het gemiddelde? 1280x1024 lijkt me nu normaal, en dan met 4xAA en 16xAF. Maar ja, zo'n high end kaart kan natuurlijk veel meer dan dat. 1600x1200 en hoger is natuurlijk perfect.
Meestal zal de full versie van een game beter draaien dat is een feit.
Maar als de ene kaart goed overweg kan met een nog engine met slechte drivers
dan zal die zeker beter presteren , zowel ATI als Nvidia. Wie weet zijn de ATI drivers atm al beter dan die van nvidia. Nvidia mag wel eens een deftige driver releasen ja.

Het gemiddelde.. ? Kan je veel van zeggen alleen weet ik zeker dat ze eerder op 1600*1200 zullen testen. Zo hoog mogenlijk waarschijnlijk of de reso waar ze het meest profijt uithalen.
Het zou heel goed kunnen dat ATI voorsprong van 10% op 1600*1200 heeft.
En dat op 2560*1920 de G80 en R600 bijna hetzelfde hebben. Met 4xAA 16xAF.
(speculatie)

Van Nvidia zijn we veel meer verrassingen gewoon dan van ATI zie maar de G71 die moest 32 pipes hebben 32 ROP's etc.. ATI daarintegen is voor zover ik weet nog nooit veel afgewijken van zijn voorgestelde versies(Wat positief is t.o.v Nvidia).Bij nvidia was het vroeger altijd bijna slechter dan hetgeen ze voorpresenteerde waardoor veel mensen wachtte voor niks.
En het is zeker geen FX reeks. Maar eerder een soort van 9700Pro in de tijd.

Het zou goed kunnen dat ATI en Nvidia al beschikken over beta versies van Crysis en Ut2007 en ook 3Dmark07 die op Vista draaien.

Verder ik denk dat het bij DX10 eerder zal te maken hebben met de drivers dan met de architectuur van de kaarten. En natuurlijk zal optimalisatie ook een groot rol spelen in DX10
Zo zijn UT2007 & Crysis & STALKER etc.. (meer nvidia geoptimaliseerd.)

Mijn gedacht is , als je beter optimaliseerd dan had je atm zeker nog genoeg met een X1900XTX of 7900GTX om alles op high te draaien. Maar sommige gamedev denken enkel aan poen scheppen zonder enkele kosten eraan. Crysis en UT2007 , STALKER zullen tonen dat je met oude kaarten de moge,lijkheid hebt om ook mooie games te draaien. Ze zijn dan ook al tijden aan het optimaliseren.

That's my point of view.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
We zijn weer lekker bezig. Ik wil best toegeven dat ik een ATi / AMD fanboy ben. Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen. AMD koopt netjes SSE licenties. En dan heb je ook nog de kortingen die ze aan Dell gaven was ook wel duidelijk...

Ik heb nu overigens gewoon een 7600 Go in me laptop. Echt blij ben ik er niet mee had liever een X1600 gehad. Maar dan had ik geen AMD cpu en dat was de echte must. Vind de ATi kaarten wel makkelijker werken maar dat is een mening.

Sommige doen moeilijk over een dure kast maar kopen wel een vga kaart van 600 euro. Tja ik wil ook wel een kast van 250 kopen maar geeft dat liever aan een vga kaart uit :P + me huidige kast vind ik super mooi en fijn wil dus geen nieuwe :). + Ik verkoop me oude kaart altijd en leg een bedrag bij. De ene keer is dat 100 de andere keer 200 euro.

Als de R600 maar 5%-10% sneller zou zijn zou ik dit wel jammer vinden. Zeker gezien die 512 Bit bus. Over het stroom verbruik ( Tja die 5-10 euro per jaar kunnen wel eens veel meer zijn :) Ik wil best wel eens uitrekenen wat 50 Watt meer in verbruik moet kosten. )

Laten we maar even afwachten wat de R600 echt is. Ik hoop dat hij toch iets meer dan die 10% kan doen. Ik ben het er ook mee eens dat Windows Vista en DX 10 wat beter met hun resources mogen omspringen en deze beter benutten. Kijk maar eens naar Windows server 2003 VS linux als je VM ware draait.
Volgens Carmack, oprichter van Id Software en ontwikkelaar van de Doom- en Quake-games, zijn er voor hem op dit moment geen motiverende redenen om de overstap naar versie 10 van DirectX te maken. Hij is namelijk tevreden met de mogelijkheden en het ontwerp van de api's van DirectX 9 en de Xbox 360. In ieder geval voor het spel 'Quake Wars' zal Carmack dan ook geen gebruikmaken van DirectX 10. Ook is de gameontwikkelaar van mening dat gamers niet op stel en sprong naar de winkel hoeven te gaan om een DirectX 10-videokaart aan te schaffen, aangezien alle high-endvideokaarten van dit moment voldoende krachtig en featurerijk zijn. Afwachten is daarom zijn devies: 'I would let things settle out a little bit and wait until there's a really strong need for it'.

DirectX 10-logo (kleiner)Wie gebruik wil maken van DirextX 10 zal moeten upgraden naar Windows Vista, maar Carmack ziet ook weinig redenen om de overstap naar dat OS te maken. Hij is content met de functionaliteit van Windows XP en meent dat Windows Vista voor gamers weinig te bieden heeft: 'I suspect I could run XP for a great many more years without having a problem with it.' De overgang van Windows 95/98/ME naar Windows XP bood wel aanwijsbare voordelen, maar volgens Carmack biedt Microsofts nieuwste Windows-telg die amper of niet. De Id Software-oprichter meent daarom dat de upgrade naar DirectX 10 en Windows Vista door het Redmondse bedrijf wordt opgedrongen.
Game Devs zien soms geen meer waarde. Als DX10 dus veel sneller kan zijn als DX 9 zouden ze denk ik meteen overstappen. Blijkbaar vinden sommige dat dus nog niet nodig. Ik ben het wel met em eens. Dat MS de mensen dwingt over te stappen omdat het hun goed uitkomt. Dit vind ik totaal niet correct. Jammer genoeg zijn er geen alternatieven voor microsoft.

( Deze post een een beetje een reactie op al het bovenstaande )

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op zaterdag 20 januari 2007 @ 14:03:
We zijn weer lekker bezig. Ik wil best toegeven dat ik een ATi / AMD fanboy ben. Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen. AMD koopt netjes SSE licenties. En dan heb je ook nog de kortingen die ze aan Dell gaven was ook wel duidelijk...

Ik heb nu overigens gewoon een 7600 Go in me laptop. Echt blij ben ik er niet mee had liever een X1600 gehad. Maar dan had ik geen AMD cpu en dat was de echte must. Vind de ATi kaarten wel makkelijker werken maar dat is een mening.

Sommige doen moeilijk over een dure kast maar kopen wel een vga kaart van 600 euro. Tja ik wil ook wel een kast van 250 kopen maar geeft dat liever aan een vga kaart uit :P + me huidige kast vind ik super mooi en fijn wil dus geen nieuwe :). + Ik verkoop me oude kaart altijd en leg een bedrag bij. De ene keer is dat 100 de andere keer 200 euro.

Als de R600 maar 5%-10% sneller zou zijn zou ik dit wel jammer vinden. Zeker gezien die 512 Bit bus. Over het stroom verbruik ( Tja die 5-10 euro per jaar kunnen wel eens veel meer zijn :) Ik wil best wel eens uitrekenen wat 50 Watt meer in verbruik moet kosten. )

Laten we maar even afwachten wat de R600 echt is. Ik hoop dat hij toch iets meer dan die 10% kan doen. Ik ben het er ook mee eens dat Windows Vista en DX 10 wat beter met hun resources mogen omspringen en deze beter benutten. Kijk maar eens naar Windows server 2003 VS linux als je VM ware draait.


[...]


Game Devs zien soms geen meer waarde. Als DX10 dus veel sneller kan zijn als DX 9 zouden ze denk ik meteen overstappen. Blijkbaar vinden sommige dat dus nog niet nodig. Ik ben het wel met em eens. Dat MS de mensen dwingt over te stappen omdat het hun goed uitkomt. Dit vind ik totaal niet correct. Jammer genoeg zijn er geen alternatieven voor microsoft.

( Deze post een een beetje een reactie op al het bovenstaande )
De FP post is wel tegenstrijdig met was de Gamedev van crysis zeggen :>
Ik denk gewoon dat ze DX10 nog wat te moeilijk vinden te programmeren.
Met Quake wars konden ze er evengoed een DX10 path opgezet hebben

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Astennu schreef op zaterdag 20 januari 2007 @ 14:03:
Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen.
koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?

[ Voor 6% gewijzigd door Mr. Detonator op 20-01-2007 15:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mr. Detonator schreef op zaterdag 20 januari 2007 @ 15:30:
[...]


koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?
OFFTOPIC?

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

D'r zijn geen DX10 Retail games uit, die uigebreid gebenched kunnen worden zoals je ze ook speeld in verschillende settings omgevingen. We kunnen eigenlijk niks zeggen over hoe ATI R600 tov G80 staat en al helemaal niet tov G81. Ten eerste houd nV zoals gewoonlijk 'n performance driver achter de hand die dan op R600 release uitkomt. Dus het is niet de huidige Performance die R600 moet verslaan. Release drivers van ATI presteren altijd een heel stuk slechter. ATI loopt dus achter kwa drivers. Dat groeid ook met de tijd. Je krijgt dan mindere Alfa/beta drivers tegen 'n tweede release Performance driver.
En dat zal doorgaan. ati kan eerst achterlopen maar er toch ruim voorbij gaan. Totdat G81 er is. Ondertussen gaat het dan wat beter met de ATI drivers. En zijn er ook wat meer DX10 games uit.

Ik verwacht dus eerder die driver streek van nV. Denk niet dat die ingecalculeerd is. Maar ATI moet dat ondertussen toch wel weten.
5 á 10 performance. Zegd mij niks zonder test verantwoording. Zoals
Driver versie
Test setup
Games
Gamesettings

Wat verwacht wordt is dat R600 enorme bandbreedte heeft en weer waarschijnlijk ene nextgen ringbus. Mem is efficent en raw in kracht stukken beter dan de G80.

Ik verwacht dus dat door de mem power. R600 met grote marge boven G80 zal uitsteken in 2560x1600 FSAA AF en alles op high.
Of 'n Matrox Trihead2go ding en 3640x1024

Bij 1600x1200 zal het ook afhangen hoe krachtig de GPU is zijn rol wordt dan ook meer aanwezig.
Lager is GPU ook meer bepalend en het mem een stuk minder.
Maar ook de CPU schaling gaat mee spelen

De efficentie van Dx10. Als Dx10 zo 2x meer efficent, dan worden DX10 game sook 2 keer zo zwaar. Even als simpel voorbeeldje om 'n punt duidelijk te maken.
Want een DX10 game is met die efficenty in gedachte designed. Geometry etc en shaders zijn voor die power en efficentie ontwikkeld.

Dus het loopt niet sneller. Het zal er veel beter en anders uitzien omdat er kan meer verzet worden met gelijkwaardige hardware. "n DX10 Vista game kan dus veel zwaarder zijn dan 'n Dx9 game onder XP.

Als het efficentie was dan zag een Dx10 game er uit als Dx9 met een veel groter FPS getal.

Maar ik denk dat de gamedev's 'n hybride game maken gericht op DX9 en 10. Houd in de gameplay moet hetzelfde zijn ze kunnen er wat meer eyse candy in zetten.

Daarnaast. Lijkt mij de 1GB wel lekker futureproof voor mij.
Daarnaast lijkt mij 'n aTI SM3.0 X1950 of die ouwe X1800XL er naast prikken ook wel wat voor de eerste Havok FX games die ik leuk vind.
En dat is juist waar 7 serie van nV juist in tegen valt.
Naast zo'n 8800 kan je beter 'n 8600 naast prikken

Uiteraard mag de PPU voor PhysX games niet ontbreken
Ik zal uiteraard wat PhysX en HavokFX games leuk vinden en ook QC ondersteunende.

Mijn favoriet is op dit moment de R600.
80nm vs 90nm
1GB vs 640MB
x18??/19?? serie als Physics optie. ipv 7 serie
Sowieso ene lichte voorkeur voor aTI en een lichte afkeer aan nV.

Daarnaast is DX9 performance niet zo van belang. Elke nieuwe high-end Dx10 kaar voldoet ruim. iig voor de meeste met normale monitoren. In DX10 maakt het meer uit. die 25fps wat 30 kan zijn.

Ipv 150 of 200fps.

Over DX10 performance. nV heeft al een lesje geleerd met nV3x, denk niet dat ze twee keer aan die steen stoten. Maar voor ATI is het eigenlijk al een tweede generatie unified shaders.


Begin juni ga ik 'n vista gamerig bouwen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Verwijderd schreef op zaterdag 20 januari 2007 @ 14:15:
[...]


De FP post is wel tegenstrijdig met was de Gamedev van crysis zeggen :>
Ik denk gewoon dat ze DX10 nog wat te moeilijk vinden te programmeren.
Met Quake wars konden ze er evengoed een DX10 path opgezet hebben
Het is moeilijk om voor dx10 te ontwikkelen, de sdk is nog niet compleet de drivers staan nog niet op punt, de documentatie is ook nog niet compleet en er zal nog veel geexperimenteerd moeten worden met alle nieuwe features om te weten wat er in de praktijk mee te doen valt. Daarom dat JC zegt om het nog wat af te wachten totdat alles op punt staat & de academici er eens naar gekeken hebben.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mr. Detonator schreef op zaterdag 20 januari 2007 @ 15:30:
[...]


koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?
Niet alles wel veel. Soundcard maakt niet veel uit. Heb nu een Creative hier voor altijd onboard meuk. Juist geen Asus grootste kloten borden die er zijn. HD liefst WD maar heb nu Maxtor.

Ik ga idd voor een merk. Heb eerst een Voodoo Banshee gehad. Toen Voodoo 3 die was gaar dus terrug gebracht. Toen Geforce 1 DDR toen Geforce 2 GTS. Toen Radeon 8500 en die stal me hart daar na 9700 > X800 Pro > GF 6800 GT ( Meteen weg X800 Pro was prettiger + sneller als bijde overclockted waren) X850 XT > X1800 XL > X1900 XT > X1900 XTX + CF.

En voor laptop 9700 Mobilty gehad nu een 7600 Go. Maar dit is ff offtopic.

Ik vraag me af hoe ATi nu die DX 10 performance test. De Games zijn nog niet af DX 10 is nog niet uit. Drivers zijn gaar. Dus je kunt nog niets vergelijken. Over een half jaar / jaar zijn de drivers pas volwassen en kun je een beetje zeggen welke Kaart nu echt sneller is in DX 10. DX 9 is al helemaal volwassen dus daar kun je wel een goede schattig van geven. Maar als ATi nu wint met 10% kan het best zijn dat Nvidia over een half jaar ineens goede drivers heeft die weer 15% sneller zijn dan de R600. Dus vind dat een beetje lastig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Juist geen Asus grootste kloten borden die er zijn.
Daar gaan we weer :Z Alsof alle Asus borden slecht zijn omdat jij 1 of 2 tegenvallers gehad hebt. Ik ken anders genoeg borden die het prima doen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

[Oftopic]
Ja maar hij heeft het dan denk ik ook vooral om de ondersteuning en daar heb je zeker nog niet mee te maken gehad als je mobo nog niet kapot is geweest :9~ Is trouwens ook beter voor je hart :+
Of zullen we zeggen geen ondersteuning :O
Ik heb ook dergelijke ervaringen met me A8R32 die nog geen jaar geleden is uitgebracht maar waar nog steeds geen fatsoenlijk bios voor is wat een boot post geeft en dat voor destijds 150 euro. 8)7 [Oftopic]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Verwijderd

die 5-10% winst met de r600 is echt het minimale wat je ervan mag verwachten het word echt nog wel verder geoptimaliseerd dmv drivers... en die 512bit geheugenbus gaat ook nog wel volop benut worden in de loop der tijd... de r600 is gewoon meer futureproof dan de g80...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Hacku schreef op zaterdag 20 januari 2007 @ 20:34:
[...]


Daar gaan we weer :Z Alsof alle Asus borden slecht zijn omdat jij 1 of 2 tegenvallers gehad hebt. Ik ken anders genoeg borden die het prima doen.
offtopic:
Maak er maar een stuk of 6-7 van

Ik sluit me ook bij hekking aan dat is helemaal om te huilen die support van hun en dat voor een mobo van 180 euro
Verwijderd schreef op zaterdag 20 januari 2007 @ 23:58:
die 5-10% winst met de r600 is echt het minimale wat je ervan mag verwachten het word echt nog wel verder geoptimaliseerd dmv drivers... en die 512bit geheugenbus gaat ook nog wel volop benut worden in de loop der tijd... de r600 is gewoon meer futureproof dan de g80...
Ik hoop stieken toch op meer mede door die 512 Bit bus. Als het maar 5-10% is hadden ze die niet nodig gehad.

[ Voor 36% gewijzigd door Astennu op 21-01-2007 00:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op zaterdag 20 januari 2007 @ 23:58:
de r600 is gewoon meer futureproof dan de g80...
Erg voorbarig. 8)7 Waar baseer je dat op?

@ Astennu: de ASUS borden met Intel chipsets zijn wel erg goed. Met mijn AMD processors/borden was het een drama, dat heb ik ook ervaren. Met name veel problemen met geheugen.

[ Voor 28% gewijzigd door Format-C op 21-01-2007 00:24 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peke
  • Registratie: Februari 2002
  • Laatst online: 19-05 15:21
Op het feit dat de bandbreedte dubbel zo hoog is.
Daardoor kan anti aliasing dubbel zo hoog staan als op de G80 terwijl de R600 nog steeds sneller zal zijn.
Stel je voor, 32x AA. 640*480 wordt ineens mooi. 8)7

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Beetje vreemde uitspraken hoor; er is nog helemaal niks bekend, geen benchmarks, NIKS, en toch is de R600 meer futureproof...

Zucht...

Edit: futureproof bestaat niet; als er iets nieuws is, is al het andere "oud".

[ Voor 99% gewijzigd door Format-C op 21-01-2007 00:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

corpseflayer schreef op zondag 21 januari 2007 @ 00:28:
Op het feit dat de bandbreedte dubbel zo hoog is.
Daardoor kan anti aliasing dubbel zo hoog staan als op de G80 terwijl de R600 nog steeds sneller zal zijn.
Stel je voor, 32x AA. 640*480 wordt ineens mooi. 8)7
Zoals ATI & Nvidia ook al zeiden.
Alles is mooi op papier maar het is de praktijk die geld :/
Dus die 512bit bus , het kan evengoed zijn dat ze maar even effectief is als een 384bit bus die beter in elkaar zit. R600 meer futureproof? 512Bit is nog long niet nodig , 256bit is zelf nog genoeg atm !
Tegen de tijd dat die 512bit bus echt nodig zal zijn is de kaart niks meer waard.
Maak je geen illusies het verschil tussen 4xAA en 32xAA zie je bijna niet.
Iedereen is ervan overtuigd juj AA dubbel zo hoog ! :O
Als ze spreken van 5-10% verschil mag je al blij zijn met dezelfde AA en AF die super is bij de G80 atm.

Acties:
  • 0 Henk 'm!

  • defiant
  • Registratie: Juli 2000
  • Laatst online: 14:32

defiant

Moderator General Chat
Ik ben eigenlijk wel benieuwd of ATI de r6xx drivers unified maakt met de vorige generaties (als dat technisch mogelijk is), of dat er voor de hele dx10 lijn een geheel nieuwe driverrelease wordt gemaakt die compleet breekt met de vorige generatie zoals nvidia heeft gedaan met de G80.

"When I am weaker than you I ask you for freedom because that is according to your principles; when I am stronger than you I take away your freedom because that is according to my principles"- Frank Herbert


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 21 januari 2007 @ 00:42:
[...]
512Bit is nog long niet nodig , 256bit is zelf nog genoeg atm !
Tegen de tijd dat die 512bit bus echt nodig zal zijn is de kaart niks meer waard.
En toch, Ati kennende verwacht ik dat ze die 512bit bus niet voor J. Lul ontwikkeld hebben, maar er één of andere IQ verrassing mee uit de hoed toveren. Bijv. één of andere bandbreedte vretende specular aa mode, die bepaalde aliasing aanpakt die zelfs door G80's 16xCSAA niet voldoende weggepoetst wordt. Een AA mode die tot voor kort niet uitgebracht werd, omdat het insane veel bandbreedte zou vergen... Zoiets. :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Toen R300 uit kwam met z'n 256-bit memory interface in een tijd dat 128-bit standaard was, zei nVidia ook dat 128-bit voldoende was. Met die 256-bit memory interface hebben ze inmiddels wel weer bijna 5 jaar gedaan in de high end. Hoog tijd voor iets nieuws dus.

Offtopic: Trouwens, tijd voor een trip down memory lane. Wie herinnert zich dit nog?

Het grote GeForce FX topic (Deel 4)

Wie was de OP? Moi. :P Goeie oude tijd. O-)

[ Voor 27% gewijzigd door CJ op 21-01-2007 01:45 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Dat was nog wel het laatste wat ik van jouw verwachte ATI.AMD.COM :X Hoe diep kun je zinken? :'( Ik mag hopen dat je hier een goed excuus voor hebt anders moeten er wel maatregelen genomen worden }:O

Als je trouwens kijkt naar de performance boost die de 1950 XTX ( 59.6GB/s) gaf tegenover (49.6GB/s) de 1900XTX is dat gemiddeld 5 % meer performance met 20 % extra bandwith. Als je dan met de R600 naar dik 150 GB/sec gaat moet dat al minimaal 10% meer performance winst opbrenngen :*) Er zijn nattuurlijk andere factoren die meetellen maar het zet wel zoden aan de dijk :9

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Verwijderd

Hekking schreef op zondag 21 januari 2007 @ 10:53:
Dat was nog wel het laatste wat ik van jouw verwachte ATI.AMD.COM :X Hoe diep kun je zinken? :'( Ik mag hopen dat je hier een goed excuus voor hebt anders moeten er wel maatregelen genomen worden }:O

Als je trouwens kijkt naar de performance boost die de 1950 XTX ( 59.6GB/s) gaf tegenover (49.6GB/s) de 1900XTX is dat gemiddeld 5 % meer performance met 20 % extra bandwith. Als je dan met de R600 naar dik 150 GB/sec gaat moet dat al minimaal 10% meer performance winst opbrenngen :*) Er zijn nattuurlijk andere factoren die meetellen maar het zet wel zoden aan de dijk :9
1950XTX was toch 64GB/s ;) ? >:) (=30%)
En de R600 heeft ongeveer 45% meer bandwidth , zo kom je op een ~7% sneller uit :+
Ligt dus tussen 5-10% :X
van ~90GB/s naar 143GB/s kan een verschil maken.. maar het verschil zal grotendeels te maken
hebben als de shaders beter of slechter in elkaar zitten ;) misschien is Nvidia kwa shaders het beste en ATI kwa bandwidth en op die manier neemt waarschijnlijk ATI een kleine voorsprong op Nvidia.

[ Voor 6% gewijzigd door Verwijderd op 21-01-2007 11:25 ]


Acties:
  • 0 Henk 'm!

  • peke
  • Registratie: Februari 2002
  • Laatst online: 19-05 15:21
Een zeer hoge AA, wat je idd bij veel games niet merkt, kan dan ook gecombineerd worden met een zeer hoge resolutie wat tenslotte ook veel bandbreedte vraagt.
Zo denk ik bvb aan 1600*1200*32AA. :) In spellen met hoge contrasten in de kleuren zou dit ongelooflijk veel verschil maken met een dergelijke vorm van AA.
Echter was mijn laatste ATI een 9800pro en daar blijft het voorlopig bij, Nvidia heeft namelijk scalingopties die een ATI kaart niet heeft (center en aspectratio).

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:23
Mocht het kloppen dat van die 5/10% beter performance, dan vraag ik me af waar al die extra bandbreedte naar toe gaat, en waarom die niet benut wordt. Op dit moment wordt de G80 architectuur ook door haar bandbreedte beperkt.

Daarbij is nVidia weer een slim spellentje aan het spelen. Eerst de G80 standaard lanceren, geen vendor maar de chip overklokken. Waarom niet? Yieldrate te laag, en standaard heeft de G80 weinig ruimte over om hoger geklokt worden en wellicht worden betere chips aan de kant gelegd om een snellere G80 te lanceren (G81???). Hierom klokken de eerste G80's ook niet hoog over. In verloop van tijd blijkt dat R600 langer wegblijft en dat de yieldrates omhoog gaan, dus de betere chips die aan de kant gelegd worden zijn veel beter en hoger te klokken dan die eerst aan de kant gelegd werden. Dus ineens is het wel toegestaan dat vendors hun chip mogen overklokken. Uiteraard worden hier nog geen killer resultaten behaald, want nvidia houdt de echt goede chips achter om straks een G8x te lanceren die veel sneller is dan de R600. En ze zouden ook niet willen dan de factory overklokte G80 van vendors sneller is dan de snellere G8x die nog gelanceerd moet worden. Het is maar een gedachte van mij... maar het lijkt me logisch. De snellere G8x lijkt mij gewoon een hoger geklokte G80 te zijn met sneller geheugen. Het zou me verbazen als er meer render pipelines inzitten of ineens andere truukjes. Om die snelle chip nog beter te laten lijken, en de domme consument te verwarren zal er dan wellicht ook een nieuwe driver uitkomen die nog sneller is op de G8x en dan bv ook nog bv physics support. Een paar maanden wordt dan een nieuwe driver versie uitgebracht die ook de G80 dezelfde snelheidsboost geeft en ook physics. Maar door een soortgelijk truukje zal de G8x wel heel goed lijken. Just my thought.... niet gebaseerd op facts.

Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op zondag 21 januari 2007 @ 12:16:
Mocht het kloppen dat van die 5/10% beter performance, dan vraag ik me af waar al die extra bandbreedte naar toe gaat, en waarom die niet benut wordt. Op dit moment wordt de G80 architectuur ook door haar bandbreedte beperkt.

Daarbij is nVidia weer een slim spellentje aan het spelen. Eerst de G80 standaard lanceren, geen vendor maar de chip overklokken. Waarom niet? Yieldrate te laag, en standaard heeft de G80 weinig ruimte over om hoger geklokt worden en wellicht worden betere chips aan de kant gelegd om een snellere G80 te lanceren (G81???). Hierom klokken de eerste G80's ook niet hoog over. In verloop van tijd blijkt dat R600 langer wegblijft en dat de yieldrates omhoog gaan, dus de betere chips die aan de kant gelegd worden zijn veel beter en hoger te klokken dan die eerst aan de kant gelegd werden. Dus ineens is het wel toegestaan dat vendors hun chip mogen overklokken. Uiteraard worden hier nog geen killer resultaten behaald, want nvidia houdt de echt goede chips achter om straks een G8x te lanceren die veel sneller is dan de R600. En ze zouden ook niet willen dan de factory overklokte G80 van vendors sneller is dan de snellere G8x die nog gelanceerd moet worden. Het is maar een gedachte van mij... maar het lijkt me logisch. De snellere G8x lijkt mij gewoon een hoger geklokte G80 te zijn met sneller geheugen. Het zou me verbazen als er meer render pipelines inzitten of ineens andere truukjes. Om die snelle chip nog beter te laten lijken, en de domme consument te verwarren zal er dan wellicht ook een nieuwe driver uitkomen die nog sneller is op de G8x en dan bv ook nog bv physics support. Een paar maanden wordt dan een nieuwe driver versie uitgebracht die ook de G80 dezelfde snelheidsboost geeft en ook physics. Maar door een soortgelijk truukje zal de G8x wel heel goed lijken. Just my thought.... niet gebaseerd op facts.
offtopic:

G80 niet veel overclocken 8)7
8800GTX Van 575/1800 naar 640/2100 zonder problemen met stock koeling dan hé
8800GTS Van 500/1600 naar 620/1900 is ook niks :*)
70-120Mhz op een core en 300Mhz op geheugen is zeer veel ;)
Buiten de 7950GX2 is er geen enkel beter OC monster.


Met die OC haal je meer dan 10% performance erbij :o (=R600 mocht het kloppen)
En dan nog zonder die zo genaamde 'driver boost die ze achter de hand houden'
Als ik me herinner was de 7800GTX -> 7800GTX 512 ook maar een verschil van ~100Mhz.

[ Voor 6% gewijzigd door Verwijderd op 21-01-2007 12:36 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Dat van die betere chips achteruitleggen zou kunnen, dat hebben ze ook gedaan bij de 7800GTX512, die vervolgens nergens verkrijgbaar was.

Persoonlijk denk ik dat er een G81 komt die net zoals de G71 koeler wordt, zuiniger, en veel sneller. Ik denk dus dat ze hetzelfde truukje uithalen als bij G70>G71. Echter is het wel zo dat als de R600 echt maar 5-10% sneller is dat helemaal niet hoeft, en dat er inderdaad gewoon zwaar overklokte chips met betere drivers hoeven te komen om de R600 te verslaan.

Ik kan me eerlijk gezegd niet voorstellen dat de R600 "maar" 10% sneller is. Meestal heb je wel gelijk Source, maar zullen ze geen zand in je ogen gestrooid hebben om het verrassingseffect te vergroten? :+

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

RappieRappie schreef op zondag 21 januari 2007 @ 12:33:
Dat van die betere chips achteruitleggen zou kunnen, dat hebben ze ook gedaan bij de 7800GTX512, die vervolgens nergens verkrijgbaar was.

Persoonlijk denk ik dat er een G81 komt die net zoals de G71 koeler wordt, zuiniger, en veel sneller. Ik denk dus dat ze hetzelfde truukje uithalen als bij G70>G71. Echter is het wel zo dat als de R600 echt maar 5-10% sneller is dat helemaal niet hoeft, en dat er inderdaad gewoon zwaar overklokte chips met betere drivers hoeven te komen om de R600 te verslaan.

Ik kan me eerlijk gezegd niet voorstellen dat de R600 "maar" 10% sneller is. Meestal heb je wel gelijk Source, maar zullen ze geen zand in je ogen gestrooid hebben om het verrassingseffect te vergroten? :+
Dat de G81 veel sneller wordt,sure maar veel? Ik denk dat we rond de 15-20% sneller zullen zitten.
Ik denk niet dat Nvidia alles op de tafel zal gooien als de R600 zo zou tegenvallen.
Wat ze met de X1800XT wel hebben moeten doen omdat die onverwacht goed blijkt te zijn t.o.v de 7800GTX. Wie weet steken ze er nog gewoon een G80 variant tussen die net iets sneller is als de R600 en releasen ze die in april. En dan is de G81 uitgesteld tot de nieuwe ATI kaart er komt.
Het verschil zal allesinds kleiner zijn t.o.v de G70->G71 omdat van 256 -> 512 veel meer noodzakelijk was dan van bv. 768->1024. Verder inderdaad ga ik er vanuit.
Koeler , zuiniger , hogere speeds ( ~100-150Mhz erbij) en GDDR3 (met strakke timings) @ 2200Mhz :P

Edit : En nee ik denk niet dat ze eerst zullen vertellen 10% en erna 20% want dan zou dat in hun eigen nadeel zijn. En zou zouden ze veel mensen overtuigen een andere kaart te kopen.

[ Voor 19% gewijzigd door Verwijderd op 21-01-2007 12:42 ]

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.