[Algemeen] ATi Nieuwsdiscussie Topic - Deel 48 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 4.783 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 107573

Tja

Enkele maanden l Een half jaar later op de markt en dan 5/10% sneller zijn. In DX10. Sorry hoor, ik zou daar als Ati fan niet om kunnen lachen eerlijk gezegd...

[ Voor 7% gewijzigd door Anoniem: 107573 op 19-01-2007 19:41 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08-05 18:48
CJ schreef op vrijdag 19 januari 2007 @ 19:34:
Dus in Maart de R600. 8)

En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?
Toe ff zeg, mag ook wel als je zo laat achter de rest over de streep komt kruipen. Zelfs dan nog blijkt het maar weer dat de bijna dubbele bandbreedte zich niet echt waarmaakt en dus als onefficient kan bestempeld kan worden. nVidia hoeft nu alleen maar met de prijs te gaan stunten en zo blijft een g80 heel interessant voor iedereen. Een 9700 pro is het zeker niet geworden.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op vrijdag 19 januari 2007 @ 19:34:
Dus in Maart de R600. 8)

En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?

In Maart komt waarschijnlijk ook de patch uit van Company of Heroes die het spel een DX10 make-over geeft. Goed getimed dus.
5/10% daar zou ik ook als ik in jouw schoenen zou staan niet om kunnen lachen.
5-10% is niks ! Als ik mijn 8800GTX beetje overclock zit ik al +10-15% betere performance.
Dan spreken we er nog niet van dat deze misschien trager is in DX9 dan de G80.
Dus de G81 word een R600 killer. Killer? Als die kaart uitkomt de G81 zal het zijn alsof de R600 niet meer bestaat zoals het ook was met de X1800XT.

Dit was mooi geweest als ze tesamen kwamen met de G80.
Met dan nog als nadeel voor ATI dat de G80 overclocked als een gek.
En ik ben bijna zeker dat dat bij ATI niet zo vet zal zijn.

offtopic
En de 8800GTX kost nog ~550 euro.
En de R600 zal adviesprijs 599 krijgen dus ~650,euro.
Mijne keuze zou rap gemaakt zijn. G80
Blijkt er dus naar uit dat Nvidia lang de kroon zal houden tot een refresh (door XXX versies.)


Conclusie : Lang gewacht voor niks , al kon het anders en beter geweest zijn. :+

[ Voor 17% gewijzigd door Anoniem: 162692 op 19-01-2007 19:59 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

sjekneck schreef op vrijdag 19 januari 2007 @ 19:47:
[...]

Toe ff zeg, mag ook wel als je zo laat achter de rest over de streep komt kruipen. Zelfs dan nog blijkt het maar weer dat de bijna dubbele bandbreedte zich niet echt waarmaakt en dus als onefficient kan bestempeld kan worden.
Ik heb nog geen 1920x1200 HDR+AA benches gezien, dus jouw conclusie is iets te vroeg imo.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 38733 schreef op vrijdag 19 januari 2007 @ 20:00:
[...]


Ik heb nog geen 1920x1200 HDR+AA benches gezien, dus jouw conclusie is iets te vroeg imo.
lol.. 10% sneller zal allesinds niet op 800*600 zijn 8)7.
Denk eerder op HD resoluties. Swat , beide kaarten hebben genoeg power voor komende games.

Optimaliseren is het antwoord voor iedereen , niet een nieuwe kaart kopen.
UT2007 en Crysis zullen hier voorbeeld van zijn >1-2jaar optimalisatie.
Terwijl 3/4 van de games brak is.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

The Source schreef op vrijdag 19 januari 2007 @ 19:08:


Toevallig vandaag nog wat info komen bovendrijven. :)

In het performance segment zal R600 tijdens de Cebit geintroduceerd worden, de pers krijg deze eind Februari al te zien. Een week na cebit zal de kaart beschikbaar zijn. Er wordt geclaimed 5/10% sneller te zijn in LET OP DX10, dus de superieure DX10 performance waar iedereen het over heeft is onzin.
Bummer... :/

En het zullen idd wel de HD reso's zijn waarin hij sneller is. Dus alleen interessant voor mensen met een scherm die hoger kan dan 1600x1200, en dan is het als consument misschien wel heel interessant om prijzen te gaan vergelijken en de beste prijs kwaliteit verhoudning te zoeken/nemen.

Er vanuit gaande dat de G80 wel goedkoper wordt bij de launch van de R600 zou het best kunnen zijn dat nVidia een grote slag slaat dit keer.

Wel vreemd overigens; bijna dubbele bandbreedte tov de G80 en "maar" 10-15% 5-10% meer performance. In DX10. Misschien is de G80 zelfs wel sneller in DX9... :?

[ Voor 255% gewijzigd door Format-C op 19-01-2007 20:17 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
CJ schreef op vrijdag 19 januari 2007 @ 19:34:


En het was toch altijd eigenlijk al de verwachting dat de R600 sneller zou zijn in DX10 dan de G80, terwijl de G80 sneller zou zijn in DX9?
Die ''verwachting'' is volgens mij gebaseerd op het (dx9) succes van de r300 (ja...daar hebben we 'm weer :) )

Maar volgens mij zijn de meningen nogal verdeeld over de dx10 performance van 128 shaders vs 64 vec4 shaders...

even afwachten nog hoe dat verschil uitpakt... :)
The Source schreef op vrijdag 19 januari 2007 @ 19:08:
[...]
Echter zal hier nVidia een maand eerder, eind maart de 8600GTS (G84) introduceren ter vervangen van 7900GS en 7950GT.

offtopic


de 8600 had toch een 128bits geheugenbus ?...of de gts weer niet

[ Voor 24% gewijzigd door Mr. Detonator op 19-01-2007 20:21 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Toch leuk dat iedereen blijkbaar zeker weet wat de specs zijn van R600.

Effe kijken, 512-bit memory interface zie ik hier, 64 vec4 ALUs, zelfde performance dus G80 blijft een goede keuze...

Hoeveel is er nou eigenlijk echt bekend over R600? Niks. Blijkbaar weten de nVidiots die dit topic zo graag bezoeken (waarom is het eigenlijk zo stil in het nV discussie topic, want G81, G83, G84 en G86 komen er toch aan?) met zekerheid dat R600 geen nieuwigheden heeft op het gebied van image quality of andere gebieden.

Neem nog rustig een kopje koffie. In Februari zien we meer. :P
Mr. Detonator schreef op vrijdag 19 januari 2007 @ 20:18:
[...]

offtopic


de 8600 had toch een 128bits geheugenbus ?...of de gts weer niet
Graag in het nV topic bespreken en niet hier. :>

De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance, maar aan de Xenos in de Microsoft Xbox360. En 5 tot 10% sneller in DX10 applicaties is nog altijd 'sneller' en niet 'langzamer'. Als het 'langzamer' was geweest dan waren er hier nog meer nV aanhangers toegestroomd om de boel helemaal af te kraken. Nu blijkt-ie 'maar' 5-10% sneller te zijn (wat overigens nog moet blijken want we hebben nog niets gezien) dus wordt door die mensen natuurlijk de nadruk gelegd op het woordje 'maar'. Leuk geprobeerd jongens, maar het wordt tijd om het nV discussie topic eens wat meer op te vrolijken. Het is daar altijd zo stil. :+

Overigens is het wel heel erg moeilijk om nu al DX10 performance in te schatten. Er zijn namelijk absoluut nog geen DX10 games uit. CoH wordt pas eind maart geupdate naar DX10, Crysis is uitgesteld naar halfweg dit jaar net als DX10. Mocht er getest zijn, dan is het op hele vroege versies waar je nog niets op kan baseren. Oh ja, 3DM07 komt er natuurlijk ook nog aan. }:O

[ Voor 56% gewijzigd door CJ op 19-01-2007 20:48 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Anoniem: 162692 schreef op vrijdag 19 januari 2007 @ 19:55:
[...]

En de 8800GTX kost nog ~550 euro.
En de R600 zal adviesprijs 599 krijgen dus ~650,euro.
Mijne keuze zou rap gemaakt zijn. G80
Conclusie : Lang gewacht voor niks , al kon het anders en beter geweest zijn. :+
Zowel de R600 als de 8800GTX hebben 599,= consumenten prijs. Met $ en verschillende marges kan de R600 op hetzelde prijslevel komen als de GTX.

De info die ik gaf is redelijk betrouwbaar, ATI info komt direct van ATI, nvidia info direct van Nvidia, beide heb ik uit eerste hand. Nvidia wist me overigens ook te vertellen dat de R600 erg veel hitte, power en koeling problemen had, maar dat soort info neem ik altijd met korrel zout. Als ik naar marktaandeel van 2006 kijk dan zie ik ATI in europa van zo'n 40/35% marktaandeel naar zo'n 25/20% marktaandeel dalen in de loop van H2 2006. Ik verwacht dat dit in Q1 2007 niet anders zal zijn, maar zodra AMD/ATI alles goed op de rit hebben en de RV630/R610 op de markt hebben dan verwacht ik wel dat ze weer marktaandeel terug zullen pakken. Maar enkel dat terug pakken dat ze verloren hebben door afgelopen tijd geen visie gehad te hebben.

[edit]
Nog iets anders, we zullen door vista ook gekke marketing gaan zien in de toekomst. Vista gaat heel anders om met haar VGA geheugen. Onderstaande een screenshot van Vista met een 7950 512MB, toch laat Vista 783MB VGA geheugen zien. Dus nu is de verwachting dat OEM en SI's zullen gaan adverteren met "PC voorzien van VGA kaart met 783MB geheugen". Zelfde eigenlijk als Turbo Cache / Hyper Memory verhaal.
Afbeeldingslocatie: http://img251.imageshack.us/img251/3540/untitled1gu8.jpg

[ Voor 21% gewijzigd door The Source op 19-01-2007 20:57 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance,
Volgens mij doet elke DX10 kaart het gewoon erg goed in DX10 apps, DX10 werd nl geschreven met performance in het achterhoofd (de G80 schijnt 60 fps in Crysis te halen (beta game én drivers) in een heel hoge resolutie, helemaal niet slecht dus mits het waar is). Uiteraard is er niks over de R600 bekend, maar info van The Source mag je als waar beschouwen. 5 - 10% sneller, da's echt niks.
In Februari zien we meer.
En ik eerder dan jij schat :>
Mocht er getest zijn, dan is het op hele vroege versies waar je nog niets op kan baseren.
How about emulatie? Als er recht uit de mond van ATI komt dat R600 max 10% sneller is dan hebben ze dat heus niet op beta games alleen getest ;)

[ Voor 21% gewijzigd door XWB op 19-01-2007 20:52 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Om toch een beetje in het kader te blijven van de eeuwigdurende strijd tussen AMD en nVidia. Komt G81 nou vlak na de R600 uit? Daar heb ik je namelijk niet over gehoord. En staat de "next gen R600" nog op de planning voor Q3 van dit jaar?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
[b][message=27342632,noline]

De verwachting dat R600 het goed zou doen in DX10 ligt niet aan de R300 performance, maar aan de Xenos in de Microsoft Xbox360.
die specs baseer ik natuurlijk alleen maar op de laatste geruchten...

De xenos voldoet niet aan de dx10 specs...hij kan wel sommige dx10 functies, dus in die zin hebben ze er al wat mee kunnen ''oefenen''...als je dat bedoelt

It also lacks quite a few key DX10 features like Geometry Shaders, Integer and Bitwise support in Shaders, etc

[ Voor 13% gewijzigd door Mr. Detonator op 19-01-2007 21:03 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
CJ schreef op vrijdag 19 januari 2007 @ 20:51:
Om toch een beetje in het kader te blijven van de eeuwigdurende strijd tussen AMD en nVidia. Komt G81 nou vlak na de R600 uit? Daar heb ik je namelijk niet over gehoord. En staat de "next gen R600" nog op de planning voor Q3 van dit jaar?
"We are waiting for ATI to launch R600" was het antwoord toen ik die vraag vanmiddag op tafel legde :)

Over te ver vooruit praten ze nooit, focusen enkel op dat wat verkocht moet worden, dus niets over next gen R600 of over G90. Ik vraag er ook niet naar, ook verspilling van mijn tijd.

Nog een leuke... Nvidia wist mij een verhaal te vertellen dat de DX10 drivers niet alleen zo laat zijn omdat het complex is maar ook omdat zij ook de eerste waren die DX10 drivers aan het ontwikkelen waren, MS had haar zaken niet op orde, en nvidia was nog voornamelijk bezig met het debuggen van de MS Vista WHQL, dit omdat MS hier veel gaten heeft laten vallen. Voor OEM en SI klanten is Vista WHQL vereist FYI.

Mbt de 5/10% extra performance... weet natuurlijk niet of het waar is, ze kunnen mij ook voor de gek houden, maar ik zie niet in waarom ze dat zouden doen. Daarbij sluit het aan bij alles dat wij al hebben gehoord. Maar misschien verrast ATI ons :) Mocht het wel kloppen, dan kan ik enkel zeggen dat R600 enorm tegenvalt, want ze zijn er een paar maanden telang mee bezig geweest, dat duidt meestal op fuckup's. Deze performance is voor de nerds belangrijk maar niet voor het marktaandeel en het success van ATI vergeet dat niet. Een slecht kaart met goed marketing verkoopt altijd nog beter dan een goed kaart met slecht marketing.

[ Voor 65% gewijzigd door The Source op 19-01-2007 21:12 ]


Acties:
  • 0 Henk 'm!

  • rstyled
  • Registratie: September 2006
  • Laatst online: 20-02 05:33
Voor Nvidia makkelijk praten. Maar ik vind het gewoon zo knap dat dat die Nvito's al kunnen vertellen (my Bad) Dat een kaart die (met de specificaties die we voorgeschoteld gekregen hebben van R600) maar 5-10% sneller blijkt te zijn in DX10 games die nog niet bestaan. daarnaast zie ik liever een kaart die iets meer toekomstgericht is. En ik wil trouwens dalijk wel de benchmarks zien in huidige dx9 games als oblivion :)


offtopic:
uh ja, ik lees dit topic vanaf deel 1 en ik moest eens minder dropshots drinken

[ Voor 10% gewijzigd door rstyled op 19-01-2007 22:18 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

The Source schreef op vrijdag 19 januari 2007 @ 20:59:
[...]

"We are waiting for ATI to launch R600" was het antwoord toen ik die vraag vanmiddag op tafel legde :)

Over te ver vooruit praten ze nooit, focusen enkel op dat wat verkocht moet worden, dus niets over next gen R600 of over G90. Ik vraag er ook niet naar, ook verspilling van mijn tijd.

Nog een leuke... Nvidia wist mij een verhaal te vertellen dat de DX10 drivers niet alleen zo laat zijn omdat het complex is maar ook omdat zij ook de eerste waren die DX10 drivers aan het ontwikkelen waren, MS had haar zaken niet op orde, en nvidia was nog voornamelijk bezig met het debuggen van de MS Vista WHQL, dit omdat MS hier veel gaten heeft laten vallen. Voor OEM en SI klanten is Vista WHQL vereist FYI.

Mbt de 5/10% extra performance... weet natuurlijk niet of het waar is, ze kunnen mij ook voor de gek houden, maar ik zie niet in waarom ze dat zouden doen. Daarbij sluit het aan bij alles dat wij al hebben gehoord. Maar misschien verrast ATI ons :) Mocht het wel kloppen, dan kan ik enkel zeggen dat R600 enorm tegenvalt, want ze zijn er een paar maanden telang mee bezig geweest, dat duidt meestal op fuckup's. Deze performance is voor de nerds belangrijk maar niet voor het marktaandeel en het success van ATI vergeet dat niet. Een slecht kaart met goed marketing verkoopt altijd nog beter dan een goed kaart met slecht marketing.
toon volledige bericht
Als je het uit de mond van ATI weet zullen ze het volgens mij allesinds niet lager zeggen. ;)
ATI en AMD samenvloeiing enzo hebben ook wel met die uitstellen te maken volgens mij.
Enorm tegenvalt , je kan het kerel zoals je wilt. Voor zover ik weet is de G80 the card 2 be.
Superieure IQ , performance , etc.. Het is te hopen dat ATI toch zeker voor het eerste kan zorgen.
Van die 5% meer of minder liggen volgens mij de echte ATI'ers niet wakker.

EDIT : DX10 = toekomst.
Hoe nieuwer de games hoe kleiner het verschil tussen de kaarten.
Bv. 18fps t.o.v 20fps. Terwijl het nu 30 t.o.v 40 kan zijn.

Meestal is hetgeen dat The Source zegt correct naar mijn weten ;)

[ Voor 5% gewijzigd door Anoniem: 162692 op 19-01-2007 22:11 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
rstyled schreef op vrijdag 19 januari 2007 @ 22:05:
Voor Nvidia makkelijk praten. Maar ik vind het gewoon zo knap dat dat die Nvito's al kunnen vertellen dat een kaart die (met de specificaties die we voorgeschoteld gekregen hebben van R600) maar 5-10% sneller blijkt te zijn in DX10 games die nog niet bestaan. daarnaast zie ik liever een kaart die iets meer toekomstgericht is. En ik wil trouwens dalijk wel de benchmarks zien in huidige dx9 games als oblivion :)
Lezen, het komt uit de mond van ATI :>

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Hacku schreef op vrijdag 19 januari 2007 @ 22:11:
[...]


Lezen, het komt uit de mond van ATI :>
Idd. Zei ik ook al. Verder valt er niet veel over te zeggen.
Als het zo is (5-10% t.o.v 8800GTX stock) hoop ik voor de ATI aanhangers dat er toch
IQ en goede AA tegenover staat zoals de G80.

Acties:
  • 0 Henk 'm!

Anoniem: 126513

Zoals gezegd is er nog niet veel van DX10 uit om performance mee te meten, 1of 2 games is ook een schaarse enquete zeg maar. Ook is de mate van performance altijd erg game/engine afhankelijk geweest, en kom je pas op een gemiddelde prestatie uit als je al die games er bij betrekt.
Dus één of twee andere DX10 games kunne de balans zo verstoren. 10% performance is dus niet erg concreet, net zoals de definitieve specs :+

Toch moet je natuurlijk roeien met de riemen die je hebt en ze zullen het dus wel over 5-10% betere performance in de crytek engine DX10 hebben.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Anoniem: 162692 schreef op vrijdag 19 januari 2007 @ 22:07:
[...]
Voor zover ik weet is de G80 the card 2 be.
Superieure IQ , performance , etc.. Het is te hopen dat ATI toch zeker voor het eerste kan zorgen.
Van die 5% meer of minder liggen volgens mij de echte ATI'ers niet wakker.
Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.

Punt 3: CJ, The Source en de ATI Nieuwsdiscussietopics zijn een serieuze meerwaarde aan het forum en aan een ATI-kaart.
Anoniem: 162692 schreef op vrijdag 19 januari 2007 @ 22:07:
EDIT : DX10 = toekomst.
Hoe nieuwer de games hoe kleiner het verschil tussen de kaarten.
Bv. 18fps t.o.v 20fps. Terwijl het nu 30 t.o.v 40 kan zijn.
DX10 de toekomst ? Meen je dat ? 8)7
Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:
[...]

Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.

Punt 3: CJ, The Source en de ATI Nieuwsdiscussietopics zijn een serieuze meerwaarde aan het forum en aan een ATI-kaart.


[...]

DX10 de toekomst ? Meen je dat ? 8)7
Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?
toon volledige bericht
Er staat bv. voor? Je kent da woord toch wel?
Wat ik wil duidelijk maken is , dat als de kaart maar 5-10% beter is dat je toch geen verschil zal merken. Nu merk je dat niet , en later zeker niet omdat het allemaal zwaarder word kwa games en alle architecturen komen dan bij elkaar te liggen.

En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.

Edit : Maar als je de moeite niet doet een nvidia te kopen zal je het nooit weten.
Ik heb ATI kaarten gehad ;) ( 9800XT & X1800XT )

[ Voor 6% gewijzigd door Anoniem: 162692 op 19-01-2007 23:43 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107573

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:
[...]

Superieure IQ ? Een setje 1950XTX'en doen daar niet voor onder. Prijs/prestatie gezien dan, wat de meeste mensen doen die een kaart kopen. De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers" ;) We zijn niet allemaal jassendraaiers. Ik weet wel dat als de R600 uitkomt en het prijs/prestatieverschil zelfs 10% is in het voordeel van nVidia, dat ik nog een ATI neem. Ten eerste omdat ik weet dat de support beter is op langere termijn (nieuwe features, Crossfire, Physics support,...) en ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt. Bah, ik zie me al elke dag de vele "wowww mijn 8800 0wned zo hart, ati suxx nvidia 0wns all ftw wtflolrofl!!!11!!11" posts doorschuimen om enige nuttige informatie te vinden.
Hoe 'weet' jij dat de support bij Ati beter zal zijn op langere termijn? SLI is nog steeds een stuk volwassener dan Crossfire imo, PhysX support zit al ingebakken in de G80 enz enz.

En jouw tweede argument slaat natuurlijk helemaal nergens op. Dus jij negeert nVidia omdat er daar teveel kindertjes rondlopen die enkel maar lopen te blaten dat Geforce zo goed is 8)7 Beetje vage redenering. Daar zou ik echt maling aan hebben. Die kom ik ook tegen hier op het Ati forum ( zal geen namen noemen ;) ).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Phuncz schreef op vrijdag 19 januari 2007 @ 23:35:

Ik snap al helemaal die uitspraak van nieuwere games niet. Is dat een vergelijking ATI vs nVidia met DX9 en ATI vs nVidia met DX10 ?
Ik denk dat hij bedoelt dat de games op den duur zo zwaar zijn dat de verschillen in FPS daardoor kleiner worden. Kijk maar naar ultra high res benchmarks in DX9. Daar zijn de verschillen klein, en op bijvoorbeeld 1280x1024 weer groter.

Hier gaat het mij om:

wat het verschil tussen DX10 en DX9 is qua performance. En dan bedoel ik niet zozeer de performance van de kaarten zelf, maar de manier waarop dirtectX10 draait. Als DX10 vele malen lichter draait zoals microsoft claimt dat het doet, dan zou je met zowel een G80 als R600 gewoon hele mooie FPS moeten hebben in DX10 games. En of je nu 80 of 100FPS hebt dat boeit mij eigenlijk geen ruk. Beide speelt lekker. En dat terwijl het verschil toch 25% is. ;)

Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.

De kaarten zijn op zich snel zat; nu DX10 zélf nog. Laten de gamedevs en heren van Microsoft maar eens op een fatsoenlijke manier gaan coden zodat wij fatsoenlijk kunnen gamen met onze peperdure hardware. ;)

[ Voor 5% gewijzigd door Format-C op 20-01-2007 00:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De "echte ATI'ers" zullen trouwens ook voor een minder goed presterende kaart een ATI nemen, anders zijn het geen "echte ATI'ers"
Kortom, fanboys ;) Vind ik persoonlijk nutteloos, waar de concurrentie voor hetzelfde geld een betere kaart heeft ga je toch de tragere halen om je trots op het merk niet te schaden 8)7
ten tweede omdat er bij nVidia teveel kinderen zijn die schreeuwen dat Geforce de beste is zonder ook maar enige argumentatie te kunnen geven die klopt.
Ook een beetje nutteloos he, van mij mag iedereen kinderachtig doen, als een bepaalde kaart goed presteert haal ik die gewoon. Wat de rest er over zegt kan me gestolen worden. Maar kortom, als we nu allemaal kinderachtige uitspraken over ATI gaan rondstrooien koop je geen ATI meer ? :)
Physics support
De G80 doet ook aan physics rendering, al zal een apparte kaart (theoretisch) beter presteren natuurlijk. AMD's Triple Play is uiteraard een mooi stukje technologie :)
Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.
Klopt ja, maar je hebt ook twee soorten devvers. Degene die hun engine zoveel mogelijk optimaliseren zodat het toch aardig draait en devvers die alleen aan geld denken waardoor je games als Oblivion krijgt. Maar idd, DX10 belooft veel meer dan alleen mooie graphics. Hij zou ook een stuk sneller moeten zijn enzovoort.

[ Voor 25% gewijzigd door XWB op 20-01-2007 00:12 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 107573

RappieRappie schreef op zaterdag 20 januari 2007 @ 00:07:
[...]


Ik denk dat hij bedoelt dat de games op den duur zo zwaar zijn dat de verschillen in FPS daardoor kleiner worden. Kijk maar naar ultra high res benchmarks in DX9. Daar zijn de verschillen klein, en op bijvoorbeeld 1280x1024 weer groter.

Hier gaat het mij om:

[
Het gaat mij er gewoon om dat we eindelijk van dat loodzware DX9 af zijn. DX9 is gewoon veel te zwaar als je kijkt naar de graphics. Zo bijzonder zijn die niet namelijk. En als ik dan kijk wat voor processors en videokaarten we nodig hebben om fatsoenlijk een game zoals Oblivion te spelen word ik er een beetje moe van eerlijk gezegd.

De kaarten zijn op zich snel zat; nu DX10 zélf nog. Laten de gamedevs en heren van Microsoft maar eens op een fatsoenlijke manier gaan coden zodat wij fatsoenlijk kunnen gamen met onze peperdure hardware. ;)
toon volledige bericht
_/-\o_ Precies, en daarom hoop ik ook dat Vista en DX10 daar tezamen netjes voor zullen gaan zorgen, iets waar ik oprecht goede hoop op heb.

Acties:
  • 0 Henk 'm!

Anoniem: 149755

Anoniem: 162692 schreef op vrijdag 19 januari 2007 @ 23:42:
[...]


Er staat bv. voor? Je kent da woord toch wel?
Wat ik wil duidelijk maken is , dat als de kaart maar 5-10% beter is dat je toch geen verschil zal merken. Nu merk je dat niet , en later zeker niet omdat het allemaal zwaarder word kwa games en alle architecturen komen dan bij elkaar te liggen.
Waarom klok jij je 8800GTX dan over? Dan moet je hier toch ook niks van merken? ;)

Zelf zal ik nooit een keuze maken op basis van alleen prestaties. Het gaat om het totaal plaatje, Dus IQ + prestatie + koeling + verbruik + support + toekomsperspectief
Van de meeste dingen is niks bekend, En 5% betere prestaties dan G80 is toch gewoon volgens verwachting? Het verschil tussen X800XT en 6800GT, G70 en X1800XT was zeker niet meer.
En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.
Het gaat hier niet om X1950 VS G80 maar om R600 VS G80/G81, Over de IQ van R600 is niks bekend.
Edit : Maar als je de moeite niet doet een nvidia te kopen zal je het nooit weten.
Ik heb ATI kaarten gehad ;) ( 9800XT & X1800XT )
Aan de types te zien waren het beide "5%-10% beter" kaartjes. Weet je zeker dat wanneer R600 uit is en 5% sneller blijkt te zijn dat je je G80 nog hebt? ;)

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Anoniem: 107573 schreef op vrijdag 19 januari 2007 @ 23:51:
[...]
PhysX support zit al ingebakken in de G80 enz enz.
Niet echt. De G80 bestaat uit unified shaders, die programmeerbaar zijn. Dus door de juiste software zijn deze in te zetten voor physic acceleratie. Leuke marketing truuk want bij de aankondiging was dit ook een verkoop argument maar tot op heden niets van gezien. Dit betekent gewoon dat er geen drivers zijn die het supporten, en die zijn er logischerwijs nog niet omdat er geen software is die er gebruikt van maakt.

Maw de R600 heeft op dit moment zoveel physics support ingebakken zitten, en het wordt ook niet gebruikt. Dus nVidia en ATI zullen van de beide marketing bullshit gebruik maken. Dus zgn physhics support in de G80 is helemaal geen aparte unit ofzo die dedicated voor dat is. Maar je reactie laat zien dat de marketing machine goed haar best doen, want het enige dat je weet (niet persoonlijk, zo werkt marketing) is dat er physic support zit ingebakken.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Over dit onderwerp hadden we het laatst ook al in een topic.

Zie mijn reaktie:

RappieRappie in "X1900XT als PhysX kaart gebruiken????"

Maar goed, geen games die het ondersteunen: geen physics. Mooi dat het kan, maar we hebben er niks aan. En dit geldt voor zowel ATi als nV. :O

[ Voor 6% gewijzigd door Format-C op 20-01-2007 01:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
[...]
Klopt ja, maar je hebt ook twee soorten devvers. Degene die hun engine zoveel mogelijk optimaliseren zodat het toch aardig draait en devvers die alleen aan geld denken waardoor je games als Oblivion krijgt.
ff klein beetje offtopic O-) Waarom lees ik zoveel dat Oblivion vol fouten zit/zat. Heb het toch wel een 100tal uren gespeelt en ken ook anderen die dit gedaan hebben en ikzelf heb 0!! keer een uitvaller gehad en ook nerges een verkeerd pixeltje gezien. Heb het spel ook gespeelt met 3 verschillende videokaarten (veeleisend spelletje :P), en 2 compleet andere setups (alles uiteraard heftig overklokt). + vergeef het spel een paar bugs, is toch een leuk spelletje. _/-\o_

Verder hoop ik ook dat dx10 betere performance oplevert met in combinatie drivertweaks als EATM/ATMALphaSharpenMode, anders mag de 45nm vga wel snel komen.

Post van The Source staat er wel een beetje vaag (of ik ben een beetje 8)7 :? :|)is het nu dat de r600 5/10% beter presteert in dx10 als zelfde spel/settings in dx9?? of in vergelijking met de 8800.

Nukezone FTW


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
Kortom, fanboys ;) Vind ik persoonlijk nutteloos, waar de concurrentie voor hetzelfde geld een betere kaart heeft ga je toch de tragere halen om je trots op het merk niet te schaden 8)7
Smaken kunnen verschillen. Om daarom nou iemand direct tot fanboi te classificeren... Als ik elke keer bij de AH mijn boodschappen doe, ben ik dan een AH-fanboi? Pff... Leuk dat je t nutteloos vindt, maar de wereld zit toch net wat anders in elkaar. :)

[ Voor 24% gewijzigd door Anoniem: 107626 op 20-01-2007 02:00 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hacku schreef op vrijdag 19 januari 2007 @ 20:48:
[...]

En ik eerder dan jij schat :>
Misschien heb je 'm in het echt wel sneller onder handen wat mij helemaal niet onlogisch lijkt. ;) Maar er zijn wat (b)engeltjes die vaak zo lief zijn om soms tegelijkertijd met de pers of soms eerder (!), wat informatie in m'n mailbox te dumpen. Ben er wel vrij zeker van dat ik de precieze performance info van de R600 ook ruim op tijd binnen heb. :)
How about emulatie? Als er recht uit de mond van ATI komt dat R600 max 10% sneller is dan hebben ze dat heus niet op beta games alleen getest ;)
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen, want daar zagen ze geen brood in. Zoveel waarde moet je aan zo'n uitspraak hechten in mijn ogen. En emulatie zegt ook niet veel, zeker niet gezien het feit dat te veel dingen nog beta zijn wat betreft de games.

En 5-10%... Op welke resolutie? Met welke instellingen?
Mr. Detonator schreef op vrijdag 19 januari 2007 @ 20:55:
[...]


die specs baseer ik natuurlijk alleen maar op de laatste geruchten...

De xenos voldoet niet aan de dx10 specs...hij kan wel sommige dx10 functies, dus in die zin hebben ze er al wat mee kunnen ''oefenen''...als je dat bedoelt

It also lacks quite a few key DX10 features like Geometry Shaders, Integer and Bitwise support in Shaders, etc
Dat Xenos voldoet aan de DX10 spec heb ik nooit gezegd. Maar je moet ook niet zo maar aan nemen wat iemand quote, zeker niet als diegene ook wel eens wat foute dingen heeft gepost op andere fora. ;)

Wat daar staat klinkt alsof Xenos enorm veel mist wat betreft DX10. Dat is absoluut niet zo. Xenos hangt tussen DX9/SM3 en DX10/SM4 in. Als je zou moeten zeggen waar het precies er tussen in zit, dan leunt Xenos meer naar SM4 dan naar SM3. Xenos mist inderdaad wat DX10 dingen zoals Geometry Shaders en Virtualisatie, en ook het feit dat alle ALUs puur floating point zijn en niet integer. Maar daar staat tegenover dat het in alle punten over de SM3 vereisten heen gaat, aan de meeste SM4 vereisten voldoet en zelfs verder gaat met bv zaken als MEMEXPORT. Dat laatste heeft een hele grote kans om in een toekomstige DX te komen. Het is niet gelukt om dit in DX10 te krijgen, maar waarschijnlijk dus in een update of toekomstige versie.

Een betere betrouwbare uitleg over wat Xenos precies is en kan, staat hier: http://www.beyond3d.com/articles/xenos/
Anoniem: 162692 schreef op vrijdag 19 januari 2007 @ 23:42:

En het verschil met de X1950XTX en 8800GTX kwa IQ
Is hetzelfde als de G71 en de X1950XTX. Zo groot verschil, ja.
Ben ik het zelf niet mee eens.

[G71] ------------------------------- [R580]-------------[G80]

Als het op IQ aan komt is het gat tussen R580 en G71 groter dan het gat tussen R580 en G80.
Anoniem: 107573 schreef op vrijdag 19 januari 2007 @ 23:51:
[...]


Hoe 'weet' jij dat de support bij Ati beter zal zijn op langere termijn? SLI is nog steeds een stuk volwassener dan Crossfire imo, PhysX support zit al ingebakken in de G80 enz enz.
Fout. PhysX support zit NIET in de G80 ingebakken. De G80 maakt gebruik van de HavokFX engine n niet van Ageia's PhysX. Zie ook de lange FAQ over physics die ik een paar dagen geleden in de second post heb gestopt.

Daarnaast zit in de hele X1K serie support voor physics ingebakken en dat geldt ook voor de G7 serie. En op dit moment heb je niets aan physics in de G80 omdat de drivers dit nog niet geactiveerd hebben en omdat er geen games uit zijn die de HavokFX engine ondersteunen. Dus wat dat betreft zitten ATI en nVidia op hetzelfde punt.

Dat hij de support beter vind op langere termijn, daar is een paar dagen terug ook over gediscussieerd en dan vooral wat er mee bedoeld werd. Hieronder vielen dus bv zaken als het achteraf toevoegen van nieuwe features als adaptive AA, temporal AA, EATM AA, Geometry Instancing op kaarten die al jaren uit zijn. Maar dit is weer de kras op de plaat en ik had gehoopt dat mensen eens wat vaker terug bladeren want die lange posts worden niet voor jan-met-de-korte-achternaam gemaakt.

Dit is geen ATI is beter of nVidia is beter topic, het is hier voornamelijk bedoeld om mensen op de hoogte te houden van nieuwtjes en technieken, dus mensen op de hoogte stellen van technieken die ATI gebruikt om bepaalde dingen te bereiken en niet over hoe goed nVidia het allemaal wel niet doet. Dat mag allemaal in het nV topic.
Hacku schreef op zaterdag 20 januari 2007 @ 00:08:
[...]
Ook een beetje nutteloos he, van mij mag iedereen kinderachtig doen, als een bepaalde kaart goed presteert haal ik die gewoon. Wat de rest er over zegt kan me gestolen worden. Maar kortom, als we nu allemaal kinderachtige uitspraken over ATI gaan rondstrooien koop je geen ATI meer ? :)
Van mij mag iedereen ook kinderachtig doen, maar niet in dit topic. Doe dat dan aub ergens anders. Nuttige toevoegingen zijn natuurlijk altijd welkom, en de meesten van jullie hebben bewezen dat ze ook daartoe in staat zijn. Graag meer daarvan aub. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 149755 schreef op zaterdag 20 januari 2007 @ 00:18:
[...]

Waarom klok jij je 8800GTX dan over? Dan moet je hier toch ook niks van merken? ;)

Zelf zal ik nooit een keuze maken op basis van alleen prestaties. Het gaat om het totaal plaatje, Dus IQ + prestatie + koeling + verbruik + support + toekomsperspectief
Van de meeste dingen is niks bekend, En 5% betere prestaties dan G80 is toch gewoon volgens verwachting? Het verschil tussen X800XT en 6800GT, G70 en X1800XT was zeker niet meer.


[...]


Het gaat hier niet om X1950 VS G80 maar om R600 VS G80/G81, Over de IQ van R600 is niks bekend.


[...]


Aan de types te zien waren het beide "5%-10% beter" kaartjes. Weet je zeker dat wanneer R600 uit is en 5% sneller blijkt te zijn dat je je G80 nog hebt? ;)
toon volledige bericht
offtopic
Ik heb mijn 8800GTX niet overclocked ;) juist omdat ik het verschil van 10-15% bijna niet voel.
En overbodig is. Als de R600 uitkomt? Dan zal ik overclocken.. zodat ik weer de snelste heb.
Door die 10-15% extra zal de R600 volgens mij echt niet beter zijn. En jah? Nvidia heeft aan IQ gewerkt? Heeft ATI dat wel gedaan? Zou heel goed kunnen dat de R600dezelfde IQ als de X1950XTX heeft. Nvidia heeft de slechte punten bijgewerkt. En ATI op een zekere manier ook door voor een brutere architectuur te kiezen die infeite niet veel sneller zal zijn. Hetzelfde als de 7800GTX een brutere architectuur had als de X1800XT. Maar uiteindelijk was het ATI met een lichtere architectuur die juist zat. :> Nvidia koos voor een slimme architectuur , ATI voor een brute. Ze hebben beiden wat ze vroeger fout deden gefixed zodus.

Speel eens Cs Source met een X1950XTX en G80 echt groot verschil.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen, want daar zagen ze geen brood in. Zoveel waarde moet je aan zo'n uitspraak hechten in mijn ogen. En emulatie zegt ook niet veel, zeker niet gezien het feit dat te veel dingen nog beta zijn wat betreft de games.
Emz, hoe ontwerpen ze die chip dan, de specs van MS volgen en dan maar hopen dat je chip snel genoeg is? Nee, DX10 performance wordt wel degelijk nagedaan door emulatie.
En het kwam een jaar geleden recht uit de mond van nVidia's David Kirk dat nVidia nog lang niet aan een unified architecture zou beginnen,
Wat heeft dit er dan met te maken, voor DX10 ben je niet verplicht aan een unified architectuur (hoewel aangeraden door MS). Ik had het over de DX10 performance.
En 5-10%... Op welke resolutie? Met welke instellingen?
Vast niet 800x600. Meer een gemiddelde ?
Anoniem: 107626 schreef op zaterdag 20 januari 2007 @ 01:57:
[...]


Smaken kunnen verschillen. Om daarom nou iemand direct tot fanboi te classificeren... Als ik elke keer bij de AH mijn boodschappen doe, ben ik dan een AH-fanboi? Pff... Leuk dat je t nutteloos vindt, maar de wereld zit toch net wat anders in elkaar. :)
Mwa, mijn reactie was misschien wat overdreven. Ik kan er gewoon niet bij waarom je bij een bepaald merk wil blijven.

[ Voor 21% gewijzigd door XWB op 20-01-2007 11:37 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hacku schreef op zaterdag 20 januari 2007 @ 11:25:
[...]


Emz, hoe ontwerpen ze die chip dan, de specs van MS volgen en dan maar hopen dat je chip snel genoeg is? Nee, DX10 performance wordt wel degelijk nagedaan door emulatie.
Er wordt wel aan emulatie van DX10 gedaan, maar wat kan je er verder mee emuleren als je geen enkele DX10 game hebt in z'n uiteindelijke vorm? Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt? En je weet toch ook wel dat er ook nog andere factoren zijn die performance kunnen beinvloeden zoals de drivers? Zie bv Catalyst 6.12 (of was het 6.11) die een enorme boost bracht in Company of Heroes (de eerste DX10 game in maart als het goed is) op de gehele linie van AMD kaarten.

Als men zegt dat de performance 5-10% sneller is dan een G80 in DX10 games, dan is dat dus door: 1) emulatie, 2) op DX10 games die nog niet eens helemaal af zijn, 3) ofwel in 3DM07, 4) met drivers die nog niet het volle vermogen uit de R600 halen (zie ook de drivers van de G80 waar nog veel uit kan worden geperst).
Wat heeft dit er dan met te maken, voor DX10 ben je niet verplicht aan een unified architectuur (hoewel aangeraden door MS). Ik had het over de DX10 performance.
Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.
Vast niet 800x600. Meer een gemiddelde ?
Yep, maar wat is het gemiddelde? 1280x1024 lijkt me nu normaal, en dan met 4xAA en 16xAF. Maar ja, zo'n high end kaart kan natuurlijk veel meer dan dat. 1600x1200 en hoger is natuurlijk perfect.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt?
Uiteraard, ik maak toch ook nergens een vergelijking op? Ik zeg gewoon dat ze die cijfers van ergens halen. Een beta game geeft overigens wel de minimale performance weer, als bv die G80 met 60 fps in Crysis op een heel hoge resolutie. Da's erg knap en wil alleen maar zeggen dat het final game nog beter zal draaien.
Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.
Thanks, duidelijk :)

Verder is er nog wat nieuws van Sapphire dat ik juist online geknald heb: Sapphire X1550 & X1050 serie (is volgens mij nog niet gemeld in dit topic)

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op zaterdag 20 januari 2007 @ 13:39:
[...]


Er wordt wel aan emulatie van DX10 gedaan, maar wat kan je er verder mee emuleren als je geen enkele DX10 game hebt in z'n uiteindelijke vorm? Je weet toch zelf wel dat een beta-game vaak een heel andere performance heeft dan een game die officieel uit komt? En je weet toch ook wel dat er ook nog andere factoren zijn die performance kunnen beinvloeden zoals de drivers? Zie bv Catalyst 6.12 (of was het 6.11) die een enorme boost bracht in Company of Heroes (de eerste DX10 game in maart als het goed is) op de gehele linie van AMD kaarten.

Als men zegt dat de performance 5-10% sneller is dan een G80 in DX10 games, dan is dat dus door: 1) emulatie, 2) op DX10 games die nog niet eens helemaal af zijn, 3) ofwel in 3DM07, 4) met drivers die nog niet het volle vermogen uit de R600 halen (zie ook de drivers van de G80 waar nog veel uit kan worden geperst).


[...]

Ik reageerde op het feit dat je zei dat het rechtstreeks uit de mond van ATI kwam dat de DX10 performance van de R600 zo'n 5-10% sneller was dan de G80. Dat dit niet veel zegt, blijkt o.a. uit het feit dat nVidia een jaar eerder riep dat unified niet 'the way to go' was en dat ze DX10 ook met een non-unified konden doen. Daarmee hadden ze iedereen voor de gek gehouden. Zou me dus niet verbazen als AMD nu hetzelfde doet. Misinformation hoort bij het hele spelletje. Alhoewel ik toe moet geven dat het meer bij nVidia past dan bij ATI.

[...]


Yep, maar wat is het gemiddelde? 1280x1024 lijkt me nu normaal, en dan met 4xAA en 16xAF. Maar ja, zo'n high end kaart kan natuurlijk veel meer dan dat. 1600x1200 en hoger is natuurlijk perfect.
toon volledige bericht
Meestal zal de full versie van een game beter draaien dat is een feit.
Maar als de ene kaart goed overweg kan met een nog engine met slechte drivers
dan zal die zeker beter presteren , zowel ATI als Nvidia. Wie weet zijn de ATI drivers atm al beter dan die van nvidia. Nvidia mag wel eens een deftige driver releasen ja.

Het gemiddelde.. ? Kan je veel van zeggen alleen weet ik zeker dat ze eerder op 1600*1200 zullen testen. Zo hoog mogenlijk waarschijnlijk of de reso waar ze het meest profijt uithalen.
Het zou heel goed kunnen dat ATI voorsprong van 10% op 1600*1200 heeft.
En dat op 2560*1920 de G80 en R600 bijna hetzelfde hebben. Met 4xAA 16xAF.
(speculatie)

Van Nvidia zijn we veel meer verrassingen gewoon dan van ATI zie maar de G71 die moest 32 pipes hebben 32 ROP's etc.. ATI daarintegen is voor zover ik weet nog nooit veel afgewijken van zijn voorgestelde versies(Wat positief is t.o.v Nvidia).Bij nvidia was het vroeger altijd bijna slechter dan hetgeen ze voorpresenteerde waardoor veel mensen wachtte voor niks.
En het is zeker geen FX reeks. Maar eerder een soort van 9700Pro in de tijd.

Het zou goed kunnen dat ATI en Nvidia al beschikken over beta versies van Crysis en Ut2007 en ook 3Dmark07 die op Vista draaien.

Verder ik denk dat het bij DX10 eerder zal te maken hebben met de drivers dan met de architectuur van de kaarten. En natuurlijk zal optimalisatie ook een groot rol spelen in DX10
Zo zijn UT2007 & Crysis & STALKER etc.. (meer nvidia geoptimaliseerd.)

Mijn gedacht is , als je beter optimaliseerd dan had je atm zeker nog genoeg met een X1900XTX of 7900GTX om alles op high te draaien. Maar sommige gamedev denken enkel aan poen scheppen zonder enkele kosten eraan. Crysis en UT2007 , STALKER zullen tonen dat je met oude kaarten de moge,lijkheid hebt om ook mooie games te draaien. Ze zijn dan ook al tijden aan het optimaliseren.

That's my point of view.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
We zijn weer lekker bezig. Ik wil best toegeven dat ik een ATi / AMD fanboy ben. Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen. AMD koopt netjes SSE licenties. En dan heb je ook nog de kortingen die ze aan Dell gaven was ook wel duidelijk...

Ik heb nu overigens gewoon een 7600 Go in me laptop. Echt blij ben ik er niet mee had liever een X1600 gehad. Maar dan had ik geen AMD cpu en dat was de echte must. Vind de ATi kaarten wel makkelijker werken maar dat is een mening.

Sommige doen moeilijk over een dure kast maar kopen wel een vga kaart van 600 euro. Tja ik wil ook wel een kast van 250 kopen maar geeft dat liever aan een vga kaart uit :P + me huidige kast vind ik super mooi en fijn wil dus geen nieuwe :). + Ik verkoop me oude kaart altijd en leg een bedrag bij. De ene keer is dat 100 de andere keer 200 euro.

Als de R600 maar 5%-10% sneller zou zijn zou ik dit wel jammer vinden. Zeker gezien die 512 Bit bus. Over het stroom verbruik ( Tja die 5-10 euro per jaar kunnen wel eens veel meer zijn :) Ik wil best wel eens uitrekenen wat 50 Watt meer in verbruik moet kosten. )

Laten we maar even afwachten wat de R600 echt is. Ik hoop dat hij toch iets meer dan die 10% kan doen. Ik ben het er ook mee eens dat Windows Vista en DX 10 wat beter met hun resources mogen omspringen en deze beter benutten. Kijk maar eens naar Windows server 2003 VS linux als je VM ware draait.
Volgens Carmack, oprichter van Id Software en ontwikkelaar van de Doom- en Quake-games, zijn er voor hem op dit moment geen motiverende redenen om de overstap naar versie 10 van DirectX te maken. Hij is namelijk tevreden met de mogelijkheden en het ontwerp van de api's van DirectX 9 en de Xbox 360. In ieder geval voor het spel 'Quake Wars' zal Carmack dan ook geen gebruikmaken van DirectX 10. Ook is de gameontwikkelaar van mening dat gamers niet op stel en sprong naar de winkel hoeven te gaan om een DirectX 10-videokaart aan te schaffen, aangezien alle high-endvideokaarten van dit moment voldoende krachtig en featurerijk zijn. Afwachten is daarom zijn devies: 'I would let things settle out a little bit and wait until there's a really strong need for it'.

DirectX 10-logo (kleiner)Wie gebruik wil maken van DirextX 10 zal moeten upgraden naar Windows Vista, maar Carmack ziet ook weinig redenen om de overstap naar dat OS te maken. Hij is content met de functionaliteit van Windows XP en meent dat Windows Vista voor gamers weinig te bieden heeft: 'I suspect I could run XP for a great many more years without having a problem with it.' De overgang van Windows 95/98/ME naar Windows XP bood wel aanwijsbare voordelen, maar volgens Carmack biedt Microsofts nieuwste Windows-telg die amper of niet. De Id Software-oprichter meent daarom dat de upgrade naar DirectX 10 en Windows Vista door het Redmondse bedrijf wordt opgedrongen.
Game Devs zien soms geen meer waarde. Als DX10 dus veel sneller kan zijn als DX 9 zouden ze denk ik meteen overstappen. Blijkbaar vinden sommige dat dus nog niet nodig. Ik ben het wel met em eens. Dat MS de mensen dwingt over te stappen omdat het hun goed uitkomt. Dit vind ik totaal niet correct. Jammer genoeg zijn er geen alternatieven voor microsoft.

( Deze post een een beetje een reactie op al het bovenstaande )

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Astennu schreef op zaterdag 20 januari 2007 @ 14:03:
We zijn weer lekker bezig. Ik wil best toegeven dat ik een ATi / AMD fanboy ben. Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen. AMD koopt netjes SSE licenties. En dan heb je ook nog de kortingen die ze aan Dell gaven was ook wel duidelijk...

Ik heb nu overigens gewoon een 7600 Go in me laptop. Echt blij ben ik er niet mee had liever een X1600 gehad. Maar dan had ik geen AMD cpu en dat was de echte must. Vind de ATi kaarten wel makkelijker werken maar dat is een mening.

Sommige doen moeilijk over een dure kast maar kopen wel een vga kaart van 600 euro. Tja ik wil ook wel een kast van 250 kopen maar geeft dat liever aan een vga kaart uit :P + me huidige kast vind ik super mooi en fijn wil dus geen nieuwe :). + Ik verkoop me oude kaart altijd en leg een bedrag bij. De ene keer is dat 100 de andere keer 200 euro.

Als de R600 maar 5%-10% sneller zou zijn zou ik dit wel jammer vinden. Zeker gezien die 512 Bit bus. Over het stroom verbruik ( Tja die 5-10 euro per jaar kunnen wel eens veel meer zijn :) Ik wil best wel eens uitrekenen wat 50 Watt meer in verbruik moet kosten. )

Laten we maar even afwachten wat de R600 echt is. Ik hoop dat hij toch iets meer dan die 10% kan doen. Ik ben het er ook mee eens dat Windows Vista en DX 10 wat beter met hun resources mogen omspringen en deze beter benutten. Kijk maar eens naar Windows server 2003 VS linux als je VM ware draait.


[...]


Game Devs zien soms geen meer waarde. Als DX10 dus veel sneller kan zijn als DX 9 zouden ze denk ik meteen overstappen. Blijkbaar vinden sommige dat dus nog niet nodig. Ik ben het wel met em eens. Dat MS de mensen dwingt over te stappen omdat het hun goed uitkomt. Dit vind ik totaal niet correct. Jammer genoeg zijn er geen alternatieven voor microsoft.

( Deze post een een beetje een reactie op al het bovenstaande )
toon volledige bericht
De FP post is wel tegenstrijdig met was de Gamedev van crysis zeggen :>
Ik denk gewoon dat ze DX10 nog wat te moeilijk vinden te programmeren.
Met Quake wars konden ze er evengoed een DX10 path opgezet hebben

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Astennu schreef op zaterdag 20 januari 2007 @ 14:03:
Ik zal het ook niet in me hooft halen ooit een Intel cpu te kopen. In de tijd van de snelere P4 had ik gewoon een Athlon XP en nu een Opteron 170 @ 2800 MHz. Dat is lang geen QX6700 @ 3800 MHz. Maar blijf gewoon trouw :) Waarom ? Omdat ik de manier van concurentie van Intel niet leuk vind. Zelf maken ze de dingen die AMD bedenkt onder een andere naam zodat ze geen licentie geld hoeven te betalen.
koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?

[ Voor 6% gewijzigd door Mr. Detonator op 20-01-2007 15:42 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Mr. Detonator schreef op zaterdag 20 januari 2007 @ 15:30:
[...]


koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?
OFFTOPIC?

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 10-05 15:58

SG

SG surft naar info hardewaren

D'r zijn geen DX10 Retail games uit, die uigebreid gebenched kunnen worden zoals je ze ook speeld in verschillende settings omgevingen. We kunnen eigenlijk niks zeggen over hoe ATI R600 tov G80 staat en al helemaal niet tov G81. Ten eerste houd nV zoals gewoonlijk 'n performance driver achter de hand die dan op R600 release uitkomt. Dus het is niet de huidige Performance die R600 moet verslaan. Release drivers van ATI presteren altijd een heel stuk slechter. ATI loopt dus achter kwa drivers. Dat groeid ook met de tijd. Je krijgt dan mindere Alfa/beta drivers tegen 'n tweede release Performance driver.
En dat zal doorgaan. ati kan eerst achterlopen maar er toch ruim voorbij gaan. Totdat G81 er is. Ondertussen gaat het dan wat beter met de ATI drivers. En zijn er ook wat meer DX10 games uit.

Ik verwacht dus eerder die driver streek van nV. Denk niet dat die ingecalculeerd is. Maar ATI moet dat ondertussen toch wel weten.
5 á 10 performance. Zegd mij niks zonder test verantwoording. Zoals
Driver versie
Test setup
Games
Gamesettings

Wat verwacht wordt is dat R600 enorme bandbreedte heeft en weer waarschijnlijk ene nextgen ringbus. Mem is efficent en raw in kracht stukken beter dan de G80.

Ik verwacht dus dat door de mem power. R600 met grote marge boven G80 zal uitsteken in 2560x1600 FSAA AF en alles op high.
Of 'n Matrox Trihead2go ding en 3640x1024

Bij 1600x1200 zal het ook afhangen hoe krachtig de GPU is zijn rol wordt dan ook meer aanwezig.
Lager is GPU ook meer bepalend en het mem een stuk minder.
Maar ook de CPU schaling gaat mee spelen

De efficentie van Dx10. Als Dx10 zo 2x meer efficent, dan worden DX10 game sook 2 keer zo zwaar. Even als simpel voorbeeldje om 'n punt duidelijk te maken.
Want een DX10 game is met die efficenty in gedachte designed. Geometry etc en shaders zijn voor die power en efficentie ontwikkeld.

Dus het loopt niet sneller. Het zal er veel beter en anders uitzien omdat er kan meer verzet worden met gelijkwaardige hardware. "n DX10 Vista game kan dus veel zwaarder zijn dan 'n Dx9 game onder XP.

Als het efficentie was dan zag een Dx10 game er uit als Dx9 met een veel groter FPS getal.

Maar ik denk dat de gamedev's 'n hybride game maken gericht op DX9 en 10. Houd in de gameplay moet hetzelfde zijn ze kunnen er wat meer eyse candy in zetten.

Daarnaast. Lijkt mij de 1GB wel lekker futureproof voor mij.
Daarnaast lijkt mij 'n aTI SM3.0 X1950 of die ouwe X1800XL er naast prikken ook wel wat voor de eerste Havok FX games die ik leuk vind.
En dat is juist waar 7 serie van nV juist in tegen valt.
Naast zo'n 8800 kan je beter 'n 8600 naast prikken

Uiteraard mag de PPU voor PhysX games niet ontbreken
Ik zal uiteraard wat PhysX en HavokFX games leuk vinden en ook QC ondersteunende.

Mijn favoriet is op dit moment de R600.
80nm vs 90nm
1GB vs 640MB
x18??/19?? serie als Physics optie. ipv 7 serie
Sowieso ene lichte voorkeur voor aTI en een lichte afkeer aan nV.

Daarnaast is DX9 performance niet zo van belang. Elke nieuwe high-end Dx10 kaar voldoet ruim. iig voor de meeste met normale monitoren. In DX10 maakt het meer uit. die 25fps wat 30 kan zijn.

Ipv 150 of 200fps.

Over DX10 performance. nV heeft al een lesje geleerd met nV3x, denk niet dat ze twee keer aan die steen stoten. Maar voor ATI is het eigenlijk al een tweede generatie unified shaders.


Begin juni ga ik 'n vista gamerig bouwen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Anoniem: 162692 schreef op zaterdag 20 januari 2007 @ 14:15:
[...]


De FP post is wel tegenstrijdig met was de Gamedev van crysis zeggen :>
Ik denk gewoon dat ze DX10 nog wat te moeilijk vinden te programmeren.
Met Quake wars konden ze er evengoed een DX10 path opgezet hebben
Het is moeilijk om voor dx10 te ontwikkelen, de sdk is nog niet compleet de drivers staan nog niet op punt, de documentatie is ook nog niet compleet en er zal nog veel geexperimenteerd moeten worden met alle nieuwe features om te weten wat er in de praktijk mee te doen valt. Daarom dat JC zegt om het nog wat af te wachten totdat alles op punt staat & de academici er eens naar gekeken hebben.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
Mr. Detonator schreef op zaterdag 20 januari 2007 @ 15:30:
[...]


koop je je andere hardware ook allemaal met die gedachte ?

dus je geluidskaart (creative?)...moederbord(asus?)...hdd's....enz..enz...(allemaal van ''eerlijke'' fabrikanten dus)

zou hypocriet zijn als je dat dan niet zou doen :)

of denk je dat de rest van de fabrikanten op hardware-gebied allemaal ''eerlijk'' met de concurrentie omgaat ?
Niet alles wel veel. Soundcard maakt niet veel uit. Heb nu een Creative hier voor altijd onboard meuk. Juist geen Asus grootste kloten borden die er zijn. HD liefst WD maar heb nu Maxtor.

Ik ga idd voor een merk. Heb eerst een Voodoo Banshee gehad. Toen Voodoo 3 die was gaar dus terrug gebracht. Toen Geforce 1 DDR toen Geforce 2 GTS. Toen Radeon 8500 en die stal me hart daar na 9700 > X800 Pro > GF 6800 GT ( Meteen weg X800 Pro was prettiger + sneller als bijde overclockted waren) X850 XT > X1800 XL > X1900 XT > X1900 XTX + CF.

En voor laptop 9700 Mobilty gehad nu een 7600 Go. Maar dit is ff offtopic.

Ik vraag me af hoe ATi nu die DX 10 performance test. De Games zijn nog niet af DX 10 is nog niet uit. Drivers zijn gaar. Dus je kunt nog niets vergelijken. Over een half jaar / jaar zijn de drivers pas volwassen en kun je een beetje zeggen welke Kaart nu echt sneller is in DX 10. DX 9 is al helemaal volwassen dus daar kun je wel een goede schattig van geven. Maar als ATi nu wint met 10% kan het best zijn dat Nvidia over een half jaar ineens goede drivers heeft die weer 15% sneller zijn dan de R600. Dus vind dat een beetje lastig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Juist geen Asus grootste kloten borden die er zijn.
Daar gaan we weer :Z Alsof alle Asus borden slecht zijn omdat jij 1 of 2 tegenvallers gehad hebt. Ik ken anders genoeg borden die het prima doen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

[Oftopic]
Ja maar hij heeft het dan denk ik ook vooral om de ondersteuning en daar heb je zeker nog niet mee te maken gehad als je mobo nog niet kapot is geweest :9~ Is trouwens ook beter voor je hart :+
Of zullen we zeggen geen ondersteuning :O
Ik heb ook dergelijke ervaringen met me A8R32 die nog geen jaar geleden is uitgebracht maar waar nog steeds geen fatsoenlijk bios voor is wat een boot post geeft en dat voor destijds 150 euro. 8)7 [Oftopic]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Anoniem: 102844

die 5-10% winst met de r600 is echt het minimale wat je ervan mag verwachten het word echt nog wel verder geoptimaliseerd dmv drivers... en die 512bit geheugenbus gaat ook nog wel volop benut worden in de loop der tijd... de r600 is gewoon meer futureproof dan de g80...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
Hacku schreef op zaterdag 20 januari 2007 @ 20:34:
[...]


Daar gaan we weer :Z Alsof alle Asus borden slecht zijn omdat jij 1 of 2 tegenvallers gehad hebt. Ik ken anders genoeg borden die het prima doen.
offtopic:
Maak er maar een stuk of 6-7 van

Ik sluit me ook bij hekking aan dat is helemaal om te huilen die support van hun en dat voor een mobo van 180 euro
Anoniem: 102844 schreef op zaterdag 20 januari 2007 @ 23:58:
die 5-10% winst met de r600 is echt het minimale wat je ervan mag verwachten het word echt nog wel verder geoptimaliseerd dmv drivers... en die 512bit geheugenbus gaat ook nog wel volop benut worden in de loop der tijd... de r600 is gewoon meer futureproof dan de g80...
Ik hoop stieken toch op meer mede door die 512 Bit bus. Als het maar 5-10% is hadden ze die niet nodig gehad.

[ Voor 36% gewijzigd door Astennu op 21-01-2007 00:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Anoniem: 102844 schreef op zaterdag 20 januari 2007 @ 23:58:
de r600 is gewoon meer futureproof dan de g80...
Erg voorbarig. 8)7 Waar baseer je dat op?

@ Astennu: de ASUS borden met Intel chipsets zijn wel erg goed. Met mijn AMD processors/borden was het een drama, dat heb ik ook ervaren. Met name veel problemen met geheugen.

[ Voor 28% gewijzigd door Format-C op 21-01-2007 00:24 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • peke
  • Registratie: Februari 2002
  • Laatst online: 13-01 16:47
Op het feit dat de bandbreedte dubbel zo hoog is.
Daardoor kan anti aliasing dubbel zo hoog staan als op de G80 terwijl de R600 nog steeds sneller zal zijn.
Stel je voor, 32x AA. 640*480 wordt ineens mooi. 8)7

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Beetje vreemde uitspraken hoor; er is nog helemaal niks bekend, geen benchmarks, NIKS, en toch is de R600 meer futureproof...

Zucht...

Edit: futureproof bestaat niet; als er iets nieuws is, is al het andere "oud".

[ Voor 99% gewijzigd door Format-C op 21-01-2007 00:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 162692

corpseflayer schreef op zondag 21 januari 2007 @ 00:28:
Op het feit dat de bandbreedte dubbel zo hoog is.
Daardoor kan anti aliasing dubbel zo hoog staan als op de G80 terwijl de R600 nog steeds sneller zal zijn.
Stel je voor, 32x AA. 640*480 wordt ineens mooi. 8)7
Zoals ATI & Nvidia ook al zeiden.
Alles is mooi op papier maar het is de praktijk die geld :/
Dus die 512bit bus , het kan evengoed zijn dat ze maar even effectief is als een 384bit bus die beter in elkaar zit. R600 meer futureproof? 512Bit is nog long niet nodig , 256bit is zelf nog genoeg atm !
Tegen de tijd dat die 512bit bus echt nodig zal zijn is de kaart niks meer waard.
Maak je geen illusies het verschil tussen 4xAA en 32xAA zie je bijna niet.
Iedereen is ervan overtuigd juj AA dubbel zo hoog ! :O
Als ze spreken van 5-10% verschil mag je al blij zijn met dezelfde AA en AF die super is bij de G80 atm.

Acties:
  • 0 Henk 'm!

  • defiant
  • Registratie: Juli 2000
  • Laatst online: 00:03

defiant

Moderator General Chat
Ik ben eigenlijk wel benieuwd of ATI de r6xx drivers unified maakt met de vorige generaties (als dat technisch mogelijk is), of dat er voor de hele dx10 lijn een geheel nieuwe driverrelease wordt gemaakt die compleet breekt met de vorige generatie zoals nvidia heeft gedaan met de G80.

Climate dashboard | “Reality is that which, when you stop believing in it, doesn't go away.”


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Anoniem: 162692 schreef op zondag 21 januari 2007 @ 00:42:
[...]
512Bit is nog long niet nodig , 256bit is zelf nog genoeg atm !
Tegen de tijd dat die 512bit bus echt nodig zal zijn is de kaart niks meer waard.
En toch, Ati kennende verwacht ik dat ze die 512bit bus niet voor J. Lul ontwikkeld hebben, maar er één of andere IQ verrassing mee uit de hoed toveren. Bijv. één of andere bandbreedte vretende specular aa mode, die bepaalde aliasing aanpakt die zelfs door G80's 16xCSAA niet voldoende weggepoetst wordt. Een AA mode die tot voor kort niet uitgebracht werd, omdat het insane veel bandbreedte zou vergen... Zoiets. :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Toen R300 uit kwam met z'n 256-bit memory interface in een tijd dat 128-bit standaard was, zei nVidia ook dat 128-bit voldoende was. Met die 256-bit memory interface hebben ze inmiddels wel weer bijna 5 jaar gedaan in de high end. Hoog tijd voor iets nieuws dus.

Offtopic: Trouwens, tijd voor een trip down memory lane. Wie herinnert zich dit nog?

Het grote GeForce FX topic (Deel 4)

Wie was de OP? Moi. :P Goeie oude tijd. O-)

[ Voor 27% gewijzigd door CJ op 21-01-2007 01:45 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Dat was nog wel het laatste wat ik van jouw verwachte ATI.AMD.COM :X Hoe diep kun je zinken? :'( Ik mag hopen dat je hier een goed excuus voor hebt anders moeten er wel maatregelen genomen worden }:O

Als je trouwens kijkt naar de performance boost die de 1950 XTX ( 59.6GB/s) gaf tegenover (49.6GB/s) de 1900XTX is dat gemiddeld 5 % meer performance met 20 % extra bandwith. Als je dan met de R600 naar dik 150 GB/sec gaat moet dat al minimaal 10% meer performance winst opbrenngen :*) Er zijn nattuurlijk andere factoren die meetellen maar het zet wel zoden aan de dijk :9

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Hekking schreef op zondag 21 januari 2007 @ 10:53:
Dat was nog wel het laatste wat ik van jouw verwachte ATI.AMD.COM :X Hoe diep kun je zinken? :'( Ik mag hopen dat je hier een goed excuus voor hebt anders moeten er wel maatregelen genomen worden }:O

Als je trouwens kijkt naar de performance boost die de 1950 XTX ( 59.6GB/s) gaf tegenover (49.6GB/s) de 1900XTX is dat gemiddeld 5 % meer performance met 20 % extra bandwith. Als je dan met de R600 naar dik 150 GB/sec gaat moet dat al minimaal 10% meer performance winst opbrenngen :*) Er zijn nattuurlijk andere factoren die meetellen maar het zet wel zoden aan de dijk :9
1950XTX was toch 64GB/s ;) ? >:) (=30%)
En de R600 heeft ongeveer 45% meer bandwidth , zo kom je op een ~7% sneller uit :+
Ligt dus tussen 5-10% :X
van ~90GB/s naar 143GB/s kan een verschil maken.. maar het verschil zal grotendeels te maken
hebben als de shaders beter of slechter in elkaar zitten ;) misschien is Nvidia kwa shaders het beste en ATI kwa bandwidth en op die manier neemt waarschijnlijk ATI een kleine voorsprong op Nvidia.

[ Voor 6% gewijzigd door Anoniem: 162692 op 21-01-2007 11:25 ]


Acties:
  • 0 Henk 'm!

  • peke
  • Registratie: Februari 2002
  • Laatst online: 13-01 16:47
Een zeer hoge AA, wat je idd bij veel games niet merkt, kan dan ook gecombineerd worden met een zeer hoge resolutie wat tenslotte ook veel bandbreedte vraagt.
Zo denk ik bvb aan 1600*1200*32AA. :) In spellen met hoge contrasten in de kleuren zou dit ongelooflijk veel verschil maken met een dergelijke vorm van AA.
Echter was mijn laatste ATI een 9800pro en daar blijft het voorlopig bij, Nvidia heeft namelijk scalingopties die een ATI kaart niet heeft (center en aspectratio).

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Mocht het kloppen dat van die 5/10% beter performance, dan vraag ik me af waar al die extra bandbreedte naar toe gaat, en waarom die niet benut wordt. Op dit moment wordt de G80 architectuur ook door haar bandbreedte beperkt.

Daarbij is nVidia weer een slim spellentje aan het spelen. Eerst de G80 standaard lanceren, geen vendor maar de chip overklokken. Waarom niet? Yieldrate te laag, en standaard heeft de G80 weinig ruimte over om hoger geklokt worden en wellicht worden betere chips aan de kant gelegd om een snellere G80 te lanceren (G81???). Hierom klokken de eerste G80's ook niet hoog over. In verloop van tijd blijkt dat R600 langer wegblijft en dat de yieldrates omhoog gaan, dus de betere chips die aan de kant gelegd worden zijn veel beter en hoger te klokken dan die eerst aan de kant gelegd werden. Dus ineens is het wel toegestaan dat vendors hun chip mogen overklokken. Uiteraard worden hier nog geen killer resultaten behaald, want nvidia houdt de echt goede chips achter om straks een G8x te lanceren die veel sneller is dan de R600. En ze zouden ook niet willen dan de factory overklokte G80 van vendors sneller is dan de snellere G8x die nog gelanceerd moet worden. Het is maar een gedachte van mij... maar het lijkt me logisch. De snellere G8x lijkt mij gewoon een hoger geklokte G80 te zijn met sneller geheugen. Het zou me verbazen als er meer render pipelines inzitten of ineens andere truukjes. Om die snelle chip nog beter te laten lijken, en de domme consument te verwarren zal er dan wellicht ook een nieuwe driver uitkomen die nog sneller is op de G8x en dan bv ook nog bv physics support. Een paar maanden wordt dan een nieuwe driver versie uitgebracht die ook de G80 dezelfde snelheidsboost geeft en ook physics. Maar door een soortgelijk truukje zal de G8x wel heel goed lijken. Just my thought.... niet gebaseerd op facts.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

The Source schreef op zondag 21 januari 2007 @ 12:16:
Mocht het kloppen dat van die 5/10% beter performance, dan vraag ik me af waar al die extra bandbreedte naar toe gaat, en waarom die niet benut wordt. Op dit moment wordt de G80 architectuur ook door haar bandbreedte beperkt.

Daarbij is nVidia weer een slim spellentje aan het spelen. Eerst de G80 standaard lanceren, geen vendor maar de chip overklokken. Waarom niet? Yieldrate te laag, en standaard heeft de G80 weinig ruimte over om hoger geklokt worden en wellicht worden betere chips aan de kant gelegd om een snellere G80 te lanceren (G81???). Hierom klokken de eerste G80's ook niet hoog over. In verloop van tijd blijkt dat R600 langer wegblijft en dat de yieldrates omhoog gaan, dus de betere chips die aan de kant gelegd worden zijn veel beter en hoger te klokken dan die eerst aan de kant gelegd werden. Dus ineens is het wel toegestaan dat vendors hun chip mogen overklokken. Uiteraard worden hier nog geen killer resultaten behaald, want nvidia houdt de echt goede chips achter om straks een G8x te lanceren die veel sneller is dan de R600. En ze zouden ook niet willen dan de factory overklokte G80 van vendors sneller is dan de snellere G8x die nog gelanceerd moet worden. Het is maar een gedachte van mij... maar het lijkt me logisch. De snellere G8x lijkt mij gewoon een hoger geklokte G80 te zijn met sneller geheugen. Het zou me verbazen als er meer render pipelines inzitten of ineens andere truukjes. Om die snelle chip nog beter te laten lijken, en de domme consument te verwarren zal er dan wellicht ook een nieuwe driver uitkomen die nog sneller is op de G8x en dan bv ook nog bv physics support. Een paar maanden wordt dan een nieuwe driver versie uitgebracht die ook de G80 dezelfde snelheidsboost geeft en ook physics. Maar door een soortgelijk truukje zal de G8x wel heel goed lijken. Just my thought.... niet gebaseerd op facts.
toon volledige bericht
offtopic:

G80 niet veel overclocken 8)7
8800GTX Van 575/1800 naar 640/2100 zonder problemen met stock koeling dan hé
8800GTS Van 500/1600 naar 620/1900 is ook niks :*)
70-120Mhz op een core en 300Mhz op geheugen is zeer veel ;)
Buiten de 7950GX2 is er geen enkel beter OC monster.


Met die OC haal je meer dan 10% performance erbij :o (=R600 mocht het kloppen)
En dan nog zonder die zo genaamde 'driver boost die ze achter de hand houden'
Als ik me herinner was de 7800GTX -> 7800GTX 512 ook maar een verschil van ~100Mhz.

[ Voor 6% gewijzigd door Anoniem: 162692 op 21-01-2007 12:36 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Dat van die betere chips achteruitleggen zou kunnen, dat hebben ze ook gedaan bij de 7800GTX512, die vervolgens nergens verkrijgbaar was.

Persoonlijk denk ik dat er een G81 komt die net zoals de G71 koeler wordt, zuiniger, en veel sneller. Ik denk dus dat ze hetzelfde truukje uithalen als bij G70>G71. Echter is het wel zo dat als de R600 echt maar 5-10% sneller is dat helemaal niet hoeft, en dat er inderdaad gewoon zwaar overklokte chips met betere drivers hoeven te komen om de R600 te verslaan.

Ik kan me eerlijk gezegd niet voorstellen dat de R600 "maar" 10% sneller is. Meestal heb je wel gelijk Source, maar zullen ze geen zand in je ogen gestrooid hebben om het verrassingseffect te vergroten? :+

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 162692

RappieRappie schreef op zondag 21 januari 2007 @ 12:33:
Dat van die betere chips achteruitleggen zou kunnen, dat hebben ze ook gedaan bij de 7800GTX512, die vervolgens nergens verkrijgbaar was.

Persoonlijk denk ik dat er een G81 komt die net zoals de G71 koeler wordt, zuiniger, en veel sneller. Ik denk dus dat ze hetzelfde truukje uithalen als bij G70>G71. Echter is het wel zo dat als de R600 echt maar 5-10% sneller is dat helemaal niet hoeft, en dat er inderdaad gewoon zwaar overklokte chips met betere drivers hoeven te komen om de R600 te verslaan.

Ik kan me eerlijk gezegd niet voorstellen dat de R600 "maar" 10% sneller is. Meestal heb je wel gelijk Source, maar zullen ze geen zand in je ogen gestrooid hebben om het verrassingseffect te vergroten? :+
Dat de G81 veel sneller wordt,sure maar veel? Ik denk dat we rond de 15-20% sneller zullen zitten.
Ik denk niet dat Nvidia alles op de tafel zal gooien als de R600 zo zou tegenvallen.
Wat ze met de X1800XT wel hebben moeten doen omdat die onverwacht goed blijkt te zijn t.o.v de 7800GTX. Wie weet steken ze er nog gewoon een G80 variant tussen die net iets sneller is als de R600 en releasen ze die in april. En dan is de G81 uitgesteld tot de nieuwe ATI kaart er komt.
Het verschil zal allesinds kleiner zijn t.o.v de G70->G71 omdat van 256 -> 512 veel meer noodzakelijk was dan van bv. 768->1024. Verder inderdaad ga ik er vanuit.
Koeler , zuiniger , hogere speeds ( ~100-150Mhz erbij) en GDDR3 (met strakke timings) @ 2200Mhz :P

Edit : En nee ik denk niet dat ze eerst zullen vertellen 10% en erna 20% want dan zou dat in hun eigen nadeel zijn. En zou zouden ze veel mensen overtuigen een andere kaart te kopen.

[ Voor 19% gewijzigd door Anoniem: 162692 op 21-01-2007 12:42 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
RappieRappie schreef op zondag 21 januari 2007 @ 12:33:
Ik kan me eerlijk gezegd niet voorstellen dat de R600 "maar" 10% sneller is. Meestal heb je wel gelijk Source, maar zullen ze geen zand in je ogen gestrooid hebben om het verrassingseffect te vergroten? :+
Hebben ze geen reden voor. Ze weten wat ik met de info behoor te doen (en dat is niet hier vertellen!). Dus ze hebben er geen baat bij als ze mij verkeerde info geven. Daarbij heb ik ook mijn vragen bij hoe ze zoiets al kunnen weten, maar dat wij geen DX10 drivers hebben en geen DX10 games hebben wil absoluut niet zeggen dat ze er niet zijn he :) Overigens wil dit niet zeggen dat deze info final is !!!! Informatie is altijd een moment opname, ik heb genoeg een dag voor Cebit of Computex in een productupdate gezeten waarbij iets verteld wordt, en dat er terwijl de update aan de gang iemand binnen komt, die roept, bedrijf x heeft dit en dit gewijzigd, of dit en dit is uitgesteld, etc. Dus informatie is dynamisch... we zullen wel zien, even wachten he :)
Anoniem: 162692 schreef op zondag 21 januari 2007 @ 12:32:
[...]
G80 niet veel overclocken 8)7
8800GTX Van 575/1800 naar 640/2100 zonder problemen met stock koeling dan hé
8800GTS Van 500/1600 naar 620/1900 is ook niks :*)
70-120Mhz op een core en 300Mhz op geheugen is zeer veel ;)
Mmmhh... dacht dat het minder was, mischien was de slechte overklok dan bij de launch toch?.. anyway, de GTS is 24% over te klokken zoals je zegt, en de GTX een goede 10%. Geeft wel te denken he...

[ Voor 20% gewijzigd door The Source op 21-01-2007 12:51 ]


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 11-05 11:50

Krizzie

Progressive Music \o/

De G80 zou toch geen 1024MB ram kunnen hebben met de geheugenbus die hij nu heeft? :?
1.5GB lijkt me dan weer een beetje overkill.

edit:

voor x-limited bedoeld. :P

[ Voor 12% gewijzigd door Krizzie op 21-01-2007 12:51 ]

Geluidswolk


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Anoniem: 162692 schreef op zondag 21 januari 2007 @ 12:32:
G80 niet veel overclocken 8)7
8800GTX Van 575/1800 naar 640/2100 zonder problemen met stock koeling dan hé
8800GTS Van 500/1600 naar 620/1900 is ook niks :*)
70-120Mhz op een core en 300Mhz op geheugen is zeer veel ;)
Buiten de 7950GX2 is er geen enkel beter OC monster.[/sub]
Wil ik je toch even kennis laten maken met mijn oude Sapphire X800GTO (R480 core). Standaard op 400/490MHz, met waterkoeling naar 600/600MHz getild. :*) Temperatuur altijd beneden 40C.

Das 50% core en 22,5% geheugen meer dan stock 8)

[ Voor 6% gewijzigd door frankknopers op 21-01-2007 13:35 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

Anoniem: 162692

frankknopers schreef op zondag 21 januari 2007 @ 13:32:
[...]


Wil ik je toch even kennis laten maken met mijn oude Sapphire X800GTO (R480 core). Standaard op 400/490MHz, met waterkoeling naar 600/600MHz getild. :*) Temperatuur altijd beneden 40C.

Das 50% core en 22,5% geheugen meer dan stock 8)
Waterkoeling is geen stockkoeling hé :)
Ik heb al 8800GTX'en gezien 700/2400 met waterkoeling maar dat is me nog ff te duur :D
16.000 Punten in 3Dmark06 met een single kaart haalde ide 8)7
800GTO was dan ook een van de beste Oc'en kaartjes van zijn tijd :)
'Ik heb het meer in de zin van nu.' En kwa highend. Zoals het bij ATI naar mijn mening max 20Mhz er bij is

Edit : Volgens mij kan het kloppende 5-10% zijn aangezien die normaal bijna tesamen met de G80 moest uitkomen. Maar nog eens als de games niet geoptimaliseerd zijn mag je nog zo een uberkaart hebben goed draaien zal het nog niet doen. Een X1900XTX fzo zou nog volstaan zouden ze alles goed optimaliseren :/

[ Voor 26% gewijzigd door Anoniem: 162692 op 21-01-2007 13:49 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
Anoniem: 162692 schreef op zondag 21 januari 2007 @ 12:38:
[...]


Dat de G81 veel sneller wordt,sure maar veel? Ik denk dat we rond de 15-20% sneller zullen zitten.
Ik denk niet dat Nvidia alles op de tafel zal gooien als de R600 zo zou tegenvallen.
Wat ze met de X1800XT wel hebben moeten doen omdat die onverwacht goed blijkt te zijn t.o.v de 7800GTX. Wie weet steken ze er nog gewoon een G80 variant tussen die net iets sneller is als de R600 en releasen ze die in april. En dan is de G81 uitgesteld tot de nieuwe ATI kaart er komt.
Het verschil zal allesinds kleiner zijn t.o.v de G70->G71 omdat van 256 -> 512 veel meer noodzakelijk was dan van bv. 768->1024. Verder inderdaad ga ik er vanuit.
Koeler , zuiniger , hogere speeds ( ~100-150Mhz erbij) en GDDR3 (met strakke timings) @ 2200Mhz :P

Edit : En nee ik denk niet dat ze eerst zullen vertellen 10% en erna 20% want dan zou dat in hun eigen nadeel zijn. En zou zouden ze veel mensen overtuigen een andere kaart te kopen.
Volgens mij loopt GDDR 3 standaard maar tot 900 of max 1000 MHz daar na moet je naar GDDR 4 of je moet GDDR 3 over specs gaan draaien en dat lijkt me niet zo heel erg verstandig omdat te doen. Dat overclockers dat doen okeey maar dat ATi en nVidia chips die rated zijn op 900 MHz op 1100 laten lopen lijkt me een groot risico dat hun niet gaan nemen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nieuw topic komt er later vandaag aan. Heb nu even wat minder tijd. Deze gelieve nog even open te laten heren mods. }:O

En over die overgeklokte G80... Motherboards.org heeft een review online gezet van een XFX GF 8800GTX XXX op 630Mhz core en 2000Mhz mem. Misschien is de CPU de bottleneck in hun testgeval, maar de performance is nou niet echt opzienbarend hoger ondanks de hogere kloksnelheden.
Bron: http://www.motherboards.org/reviews/hardware/1685_1.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op zondag 21 januari 2007 @ 15:08:
Nieuw topic komt er later vandaag aan. Heb nu even wat minder tijd. Deze gelieve nog even open te laten heren mods. }:O

En over die overgeklokte G80... Motherboards.org heeft een review online gezet van een XFX GF 8800GTX XXX op 630Mhz core en 2000Mhz mem. Misschien is de CPU de bottleneck in hun testgeval, maar de performance is nou niet echt opzienbarend hoger ondanks de hogere kloksnelheden.
Bron: http://www.motherboards.org/reviews/hardware/1685_1.html
Slechte review :) ik heb zelf de kaart weken op 630/2000 gehad nu weer stock omdat alles goed genoeg draait. Maar het verschil is VEEL groter dan op die site. Daarom dat ik ook site af te wachten op een dergelijk review ervan zoals @ xbitlab of firingsquad. Want overal online is het een copy van motherboards.org (Ik heb een E6600@2.7Ghz en ~10-15% beter in de games die ik speel.)
(wat ik speel = Cs source 230fps 260fps , FEAR van 82fps naar 94fps , NFS carbon van 50fps naar 60fps , Rainbow Six Vegas drops zijn 2-3fps hoger en avg is ~10fps hoger (50->60fps) , Double agent praktisch geen verschil , Call of Juarez ~10% verschil , Prey weet ik niet door fps lock , en COH van 85 naar 95 fps) zoals je ziet is er nog een mooi verschil ;)

Heb de kaart atm op stock omdat ik nog geen reden zie voor te oc'en.

Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 162692 schreef op zondag 21 januari 2007 @ 15:32:
[...]
Slechte review :) ik heb zelf de kaart weken op 630/2000 gehad nu weer stock omdat alles goed genoeg draait. Maar het verschil is VEEL groter dan op die site. Daarom dat ik ook site af te wachten op een dergelijk review ervan zoals @ xbitlab of firingsquad. Want overal online is het een copy van motherboards.org (Ik heb een E6600@2.7Ghz en ~10-15% beter in de games die ik speel.)
(wat ik speel = Cs source 230fps 260fps , FEAR van 82fps naar 94fps , NFS carbon van 50fps naar 60fps , Rainbow Six Vegas drops zijn 2-3fps hoger en avg is ~10fps hoger (50->60fps) , Double agent praktisch geen verschil , Call of Juarez ~10% verschil , Prey weet ik niet door fps lock , en COH van 85 naar 95 fps) zoals je ziet is er nog een mooi verschil ;)
Je noemt dat een slechte review, maar de getallen die je zelf op tafel gooit zijn daarom wel zo geloofwaardig? :O Het is meer iets van, kijk hoe blij ik ben met mn geforce 8800gtx...!

[ Voor 3% gewijzigd door PassieWassie op 21-01-2007 16:54 ]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

Anoniem: 107573

Inderdaad, die zijn geloofwaardig. Heb hem ook een tijdje op 630/2000 laten lopen, en wat hij zegt komt overeen met wat ik heb ervaren na die OC ;)

Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 107573 schreef op zondag 21 januari 2007 @ 16:48:
Inderdaad, die zijn geloofwaardig. Heb hem ook een tijdje op 630/2000 laten lopen, en wat hij zegt komt overeen met wat ik heb ervaren na die OC ;)
Dan is het dus geen CPU bottleneck in de test, want je hebt tenslotte een cpu die minder is dan de Athlon FX62. Als je kijkt naar de benchmarks op hoge resoluties en mét AA en AF, dan lijkt me deze review heel reël.

En dan nog, heel leuk en aardig dat er een dozijn aan FPS scores in games aan komt zetten, met de bewering dat het bij jullie een andere situatie is. Waarom bewijzen jullie dat dan niet met een goed onderbouwde test in een gecontroleerde omgeving ? :*) Ik ben alvast erg benieuwd !

[ Voor 23% gewijzigd door PassieWassie op 21-01-2007 16:58 ]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

Anoniem: 107573

Ik heb niet eens naar die review gekeken, ik keek naar de cijfertjes die X-Limited opnoemde. En die komen gewoon overeen met die van mij, zowel stock als OC. Hier en daar natuulijk 2 of 3 fps verschil, maar daar heeft ie ook een E6600 voor.

Edit: lol wat moeten wij bewijzen dan? Dat de fps in COH met 10 omhooggegaan is na een OC 8)7 ?

Je zou het misschien lief kunnen vragen aan X-Limited, die maakt namelijk overal een print screen van :9

[ Voor 30% gewijzigd door Anoniem: 107573 op 21-01-2007 17:04 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
PassieWassie schreef op zondag 21 januari 2007 @ 16:56:
[...]


En dan nog, heel leuk en aardig dat er een dozijn aan FPS scores in games aan komt zetten, met de bewering dat het bij jullie een andere situatie is. Waarom bewijzen jullie dat dan niet met een goed onderbouwde test in een gecontroleerde omgeving ? :*) Ik ben alvast erg benieuwd !
offtopic

vergeet niet dat als je een gtx/gts 55mhz overklokt op de core, de shaders dan 110mhz sneller draaien

Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Mr. Detonator schreef op zondag 21 januari 2007 @ 17:14:
[...]
offtopic
vergeet niet dat als je een gtx/gts 55mhz overklokt op de core, de shaders dan 110mhz sneller draaien
Is dat anders dan bij een XXX model van XFX?

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
PassieWassie schreef op zondag 21 januari 2007 @ 17:29:
[...]

Is dat anders dan bij een XXX model van XFX?
nee...want dat is ook een gtx

dus eigenlijk draait de core op 630mhz....en de shaders op 1460mhz...en mem op 2000mhz

575/1350/1800 is standaard voor de gtx

ik merk ook ongeveer zo'n vooruitgang.....met de instellingen hoe ik speel (1600x1200/16xQ/16xaf) merk ik méér verschil als ik m'n vga 50mhz overklok, dan wanneer ik m'n opteron van 2.2 > 2.65 overklok

[ Voor 46% gewijzigd door Mr. Detonator op 21-01-2007 17:43 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

PassieWassie schreef op zondag 21 januari 2007 @ 16:56:
[...]


Dan is het dus geen CPU bottleneck in de test, want je hebt tenslotte een cpu die minder is dan de Athlon FX62. Als je kijkt naar de benchmarks op hoge resoluties en mét AA en AF, dan lijkt me deze review heel reël.

En dan nog, heel leuk en aardig dat er een dozijn aan FPS scores in games aan komt zetten, met de bewering dat het bij jullie een andere situatie is. Waarom bewijzen jullie dat dan niet met een goed onderbouwde test in een gecontroleerde omgeving ? :*) Ik ben alvast erg benieuwd !
FX62 loopt nog altijd stock en niet ~2.75Ghz zoals Uploaderke , misschien een slechte driver waarmee ze teste? Ben je benieuwd , koop dan zelf een 8800GTX en test het verschil.

Hetgeen ik zeg is 3x bevestigd O-)

*Dat een nvidia kaart beter wordt met 10-15% is natuurlijk moeilijk voor iemand met een ATI-bril die zo graag wil dat de R600 de beste zou zijn.*

Op aanvraag van PassieWassie
Plaatjes van een 'echte review met een E6600 @ stock (2400Mhz)'
Mijn CPU loopt @ 2.700Ghz en daar zit dus ook nog een paar fps verschil tussen
Deze resultaten kloppen buiten die paar fps met de mijne.

Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/xfx_8800_xxx/coh_1600.jpg
Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/xfx_8800_xxx/fc_1920.jpg
Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/xfx_8800_xxx/hl2_lc_1920.jpg
Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/xfx_8800_xxx/FEAR_1600.jpg
Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/xfx_8800_xxx/q4_1920.jpg

[ Voor 91% gewijzigd door Anoniem: 162692 op 21-01-2007 19:27 ]


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 11-05 11:50

Krizzie

Progressive Music \o/

Misschien moeten jullie je theekransje in een ander topic voortzetten zoals al vaker is gezegd. ;)

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
[quote]Anoniem: 162692 schreef op zondag 21 januari 2007 @ 18:56:
[...]


FX62 loopt nog altijd stock en niet ~2.75Ghz zoals Uploaderke , misschien een slechte driver waarmee ze teste? Ben je benieuwd , koop dan zelf een 8800GTX en test het verschil.
[quote]

>>>>>>>>
Mr. Detonator schreef op zondag 21 januari 2007 @ 17:37:
[...]


nee...want dat is ook een gtx

dus eigenlijk draait de core op 630mhz....en de shaders op 1460mhz...en mem op 2000mhz

575/1350/1800 is standaard voor de gtx

ik merk ook ongeveer zo'n vooruitgang.....met de instellingen hoe ik speel (1600x1200/16xQ/16xaf) merk ik méér verschil als ik m'n vga 50mhz overklok, dan wanneer ik m'n opteron van 2.2 > 2.65 overklok
Geweldig eindelijk iemand dit dit bevestigd. Dit loop ik al zo lang te roepen maar toch denken mensen dat ze veel sneller zijn als ze ene QX6700 hebben en dat de FPS ineens verdubbelt. Maar het scheelt misschien een paart % vooral in hoge resoluties. Het scheelt veel in 3DMark 2005/2006 maar die slaat ook nergens op....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Krizzie schreef op zondag 21 januari 2007 @ 19:50:
Misschien moeten jullie je theekranje in een ander topic voortzetten zoals al vaker is gezegd. ;)
Ehe , ben ook niet vanplan om hier dingen over Nvidia te zetten.
Ik ging gewoon in op vraag van PassieWassie. Ik wil ze verwijderen indien nodig.
Astennu schreef op zondag 21 januari 2007 @ 20:03:
[quote]Anoniem: 162692 schreef op zondag 21 januari 2007 @ 18:56:
[...]
Geweldig eindelijk iemand dit dit bevestigd. Dit loop ik al zo lang te roepen maar toch denken mensen dat ze veel sneller zijn als ze ene QX6700 hebben en dat de FPS ineens verdubbelt. Maar het scheelt misschien een paart % vooral in hoge resoluties. Het scheelt veel in 3DMark 2005/2006 maar die slaat ook nergens op....
Heeft niet veel verschil met 16xAA en 16xAF maximaal 1-2% buiten in games waar dual core ondersteund is zoals Oblivion enzo daar heb je echter een groter verschil.
En met 4xAA 16xAF kan je het verschil wel duidelijk zien en voelen :o
En ik speek nog steeds met 4xAA 16xAF en niet hoger zelf al heb ik een G80 die 16xAA alles vlotjes laat lopen ik zie nu eenmaal liever 100fps dan 70fps 8)

[ Voor 59% gewijzigd door Anoniem: 162692 op 21-01-2007 20:06 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ice Storm Fighters Game Technology Demo

Shadermodel 3.0 required (oftewel: GF6, GF7, GF8, X1k-series). Iemand zin om deze test eens te draaien? Het is een more-core-test maar misschien zegt het wat over de zin en onzin van graphics?

Opvallend: Graphics Card: Support DirectX* 9.0 Shader Model 3 required. nVidia* geForce* 6 series (minimum), 7 series (recommended), ATI* Radeon* 1650 or higher

Download: hier

Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 17:29
Ik test hem zo gauw ik hem binnen heb ;) Over ongeveer 13 minuten heb ik hem binnen als het goed is.. Ik heb een X1950Pro trouwens! :)

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

  • Daaaaf
  • Registratie: Januari 2004
  • Laatst online: 18-04 16:19
Ik ben benieuwd hoe die Intel multicore test gaat draaien op jouw single core AMD :/

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Werkt niet met AMD. :(

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Met stom, HOW STUPID! Post ik een techdemo gemaakt door Intel, hoe kan ik ook denken dat ze dat ook kunnen laten draaien op een AMD :$

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wat lame van Intel. Het zou perfect horen draaien (x86) dus hebben ze daar opzettelijk een check ingebouwd.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 107573

Balen |:(

Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 17:29
Ik zag het bij het installeren.. Bah! Stomme Intel!

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

  • Daaaaf
  • Registratie: Januari 2004
  • Laatst online: 18-04 16:19
Draait niet op een AMD CPU, maar wel op combinatie van Intel CPU en AMD/Ati videokaart. Er is hier toch wel iemand met zo'n setup?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Op mijn Core 2 Duo @ 3.0GHz loopt het gemiddeld 1,5fps zowat in High mode, met een Radeon X1900XT 512MB. Op Low gaat het gemiddeld 22fps en het ziet er niet veel anders uit. Ik vind het raar dat het een SM3.0 kaart nodig heeft, het lijkt bijna volledig SM2.0 rendered te zijn. Geextrapoleerd uit de best slechte graphics voor een techdemo. Ik denk dat dit eerder een demonstratie moet zijn voor de Intel Core 2 Quad QX6800.

Screenshot:

Afbeeldingslocatie: http://users.edpnet.be/phunc/isf.jpg

In de werkelijkheid oogt het dus niet zo strak :)

[ Voor 33% gewijzigd door Phuncz op 21-01-2007 22:33 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11-05 14:58
Snappen jullie mijn punt :) Booicot Intel Koop ATi+AMD spullen :D

Nja dat is misschien wel wat overdreven :).

Over dat liever 100 dan 70 fps. Doe mij maar gewoon een min FPS van minimaal 40 met high IQ. min 70 is idd beter en mooier maar toch niet haalbaar. Dus speel ik liever met max IQ. Zolang de min FPS maar niet ver onder de 40 komt is de gameplay super.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • martijnve
  • Registratie: December 2004
  • Laatst online: 06-05 22:17
Heb het even geprobeert.

Het ziet er niet uit,
Het speelt waardeloos,
Verder geen technische hoogstandjes kunnen ontdekken

_/-\o_ Lekker bezig bij intel

Nog even geprobeert op high:
Loopt nog veel slechter en ziet er iets minder waardeloos uit.

FPS demo:
Low +/- 25
High +/- 2.5
Specs in sig

[ Voor 32% gewijzigd door martijnve op 21-01-2007 22:33 ]

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hoezo haal jij 17fps, in High toch ? Mijn setup verschilt niet veel met de jouwe...
edit:
Ah ok, je bedoelt Low :)

[ Voor 19% gewijzigd door Phuncz op 21-01-2007 22:29 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107573

Maar ja aan die screenshot te zien vindt ik er wel erg goed uitzien toch als je dit vergelijkt met die cpu tests in 3d mark?

Acties:
  • 0 Henk 'm!

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 20:59

Bever!

3

Phuncz schreef op zondag 21 januari 2007 @ 22:29:
Hoezo haal jij 17fps, in High toch ? Mijn setup verschilt niet veel met de jouwe...
edit:
Ah ok, je bedoelt Low :)
Choose "Demo-High" if the system has a quad core CPU
Choose "Demo-Low" if the system has a dual core CPU

laten we weer over ati praten 8)

Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh vandaag die XFX 7600GT 580M AGP geruild voor een ASUS AX800XT Platinum Edition AGP die doet het terminste wel goed in AGP x4 modus met een mooie Zalman 700Cu of 7000Cu de naam weet ik niet echt heh met Zalman HSF heatsinks voor het geheugen :)
Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/17699-2/ASUS+ATi+Radeon+X800XT+Platinum+Edition+AGP+256MB+Rev_A+0441+Top.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/17692-2/ASUS+ATi+Radeon+X800XT+Platinum+Edition+AGP+256MB+Rev_A+0441+Back.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/17696-2/ASUS+ATi+Radeon+X800XT+Platinum+Edition+AGP+256MB+Rev_A+0441+Head+Shot.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/17708-2/ASUS+AX800XT+PE+AGP+_+Box.JPG Afbeeldingslocatie: http://www.3dfx.ch/gallery/d/17720-2/Loki+installed.jpg

ben echt blij met deze kaart met de R420 VPU die ook Loki heet :) het is iig goed te doen met deze 7 jaar oude AthlonXP 2700+ bakkie :)

@ Astennu
wel jammer dat er zo'n intel watermark in zit, dat soort dingen kunnen beter neutraal zijn, maar idd het lijkt erg op Shadermodel 2.0.

[ Voor 10% gewijzigd door Anoniem: 23009 op 22-01-2007 00:03 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Astennu schreef op zondag 21 januari 2007 @ 22:23:
Snappen jullie mijn punt :) Booicot Intel Koop ATi+AMD spullen :D
Met Intel boycotten heb ik geen enkel probleem, ik ga echter niet een X1K terughalen ten koste van m'n 8800 :o

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 38733 schreef op zondag 21 januari 2007 @ 22:33:
[...]


Met Intel boycotten heb ik geen enkel probleem, ik ga echter niet een X1K terughalen ten koste van m'n 8800 :o
Die Intel demo draait echt slecht man :(
@ E6600 @ 2.7Ghz haal ik @ high mode ~6-10fps
En op low mode zit ik van ~40-100fps.

Het verschil tussen Low en High is waardeloos ja :|


Jouw CPU draait @ 3150Mhz E6400 -> 25fps (demo)
Mijn CPU draat @ 2700Mhz E6600 -> ~40-100fps (demo)

Ik vind dat veel verschil :/

Edit : Je moeter ook zo een Ageai prul voor hebben
Ik laat in de toekomst liever dit soort gamez link liggen :X

[ Voor 30% gewijzigd door Anoniem: 162692 op 21-01-2007 22:50 ]


Acties:
  • 0 Henk 'm!

  • tjtristan
  • Registratie: Augustus 2005
  • Laatst online: 15-11-2023
Hacku schreef op zondag 21 januari 2007 @ 22:02:
Wat lame van Intel. Het zou perfect horen draaien (x86) dus hebben ze daar opzettelijk een check ingebouwd.
is dit niet te omzeilen? :P >:)

http://specs.tweak.to/15535


Acties:
  • 0 Henk 'm!

Anoniem: 23009

mischien is het weg te halen uit de .ini file wie weet :)

[ Voor 6% gewijzigd door Anoniem: 23009 op 21-01-2007 23:39 ]


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Duidelijk dat met 4 cores op high je wrs zelfde fps krijgt als 2 cores op low.
Is dus idd een progje om aan het nut van 4 cores ipv 2 aan te tonen en om intel quad cpu's te promoten uiteraard.

Terug naar AMD/ATi :)

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 24-04 21:47

Ultraman

Moderator Harde Waren

Boefje

Jongens, we zitten weer vol. U kunt weer plaatsen reserveren in een volgende deel :)

Deel 49

[ Voor 32% gewijzigd door Ultraman op 23-01-2007 17:02 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.