Toon posts:

[Algemeen] ATi Nieuws & Discussie Topic - Deel 24 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 2.864 views sinds 30-01-2008

Anoniem: 79835

Astennu schreef op dinsdag 11 oktober 2005 @ 12:17:
[...]


Dat waren die NF4 SLI dingen in het begin ook. Dus het is geen OMG. Deze prijzen gaan ook wel weer omlaag. In het begin is het altijd veel duurder.
Het probleem is dat ATi niet concurreert tegen SLI van een jaar geleden maar tegen SLI van vandaag, met dus ook de prijzen van vandaag, de drivers van vandaag en de performance van vandaag.

[Voor 7% gewijzigd door Anoniem: 79835 op 11-10-2005 16:26]


  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 26-05 18:53

Pubbert

random gestoord

Anoniem: 79835 schreef op dinsdag 11 oktober 2005 @ 16:14:
[...]

Het probleem is dat ATi niet concurreert tegen SLI van een jaar geleden maar tegen SLI van vandaag, met dus ook de prijzen van vandaag, de drivers van vandaag en de performance van vandaag.
Helemaal mee eens, maar als je ziet dat de beste nForce borden van DFI ook voor 190 euro verkocht worden, is 212euro als enige aanbieder van NL nog niet zo slecht, die daalt vanzelf wel naar 190-195euro, en aangezien de borden zeer aan elkaar gewaagd zijn, ook niets mis mee.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 11 oktober 2005 @ 02:07:
Je kan dit heel moeilijk vergelijken. Ja, er zijn evenveel pipes, ja de kloksnelheden zijn even snel. Maar het zijn twee verschillende architecturen, die afhankelijk zijn van allerlei andere zaken zoals hoe is een game geprogrammeerd? [...]
Sorrie hoor, maar ik kan hierbij even een glimlach niet onderdrukken ;)
Als R520 - naar verwachting - had gebleken sneller te zijn was het een "uitstekende test" geweest, die "duidelijk de hogere efficientie van de R520 architectuur bewijst", of niet soms?
Nu de resultaten voor R520 tegenvallen, kan dit plotseling "heel moeilijk" vergeleken worden. Zoals je zelf eerder al aangaf is een klok-voor-klok vergelijking met een gelijk aantal pipes/shaders de enige echt "eerlijke" methode om claims betreffende efficientie te staven.
Daarnaast leunt de R520 erg op hoge snelheden. Daar is de hele architectuur om heen gebouwd. De R520 is er niet voor gemaakt om op lage kloksnelheden te draaien. Ik kan me daarbij goed voorstellen dat een R520 efficienter zou kunnen werken op bv 600Mhz dan op 450Mhz en dat bepaalde optimalisaties teniet gaan wanneer er op een lagere kloksnelheid gewerkt wordt.
Ik kan me hier eerlijk gezegd moeilijk wat bij voorstellen... efficientie word pas zichtbaar op hoge snelheid? Verder is R520 niet gemaakt voor lage kloksnelheden? De X1800XL, voor zover ik me kan herinneren ook een R520, loopt toch echt op 500mhz hoor... slechts 50mhz hoger dan waarop ze hebben gebenched.
De G70 aan de andere kant is gebouwd op efficientie in de breedte, dwz meer pipelines en meer ALUs per pipe. Daardoor hoeft-ie ook minder snel te draaien als een R520. Als je het goed bekijkt dan heeft de G70 meer rekenkracht door z'n twee ALUs per pipe, terwijl ATi het met 1 moet doen nu. Wie is er dan efficienter?
De G70 is gebouwd op extra pipelines ten opzichte van de Geforce6 architectuur. Die extra pipelines zijn in de genoemde test uitgeschakeld, waardoor een 1-op-1 vergelijking met R520 mogelijk werd gemaakt.
Blijkbaar is de performance-per-pipeline (in de geteste games en in 3DMark) bij G70 hoger dan bij R520 op gelijke clocks - in tegenstelling tot wat er eerder verwacht werd. Daar ging de vergelijking om... alleen jammer dat ze niet nog een aantal extra games erbij hebben gepakt om echt conclusief te kunnen zijn.

Het valt me trouwens in de 3DMark05 test wel op dat de GTX met een ~5% hogere clockspeed, 16 pipes en 200mhz langzamer geheugen "slechts" ~900 punten minder scoort dan stock. Als je 5% van de score aftrekt (dus stock speed van 430 mhz) kom je op ~6550 punten.
Een stock GTX scoort dus met 8 extra pipes en 200mhz extra memspeed "slechts" zo'n 1300 punten meer dan een "zwaar gehandicapte" GTX. Dat doet vermoeden dat de "extra" 8 pipelines (in 3Dmark05) minder efficient worden gebruikt dan de eerste 16...
Imo is het interessanter om een X1800XT te vergelijken met een X850XT door dezelfde clockspeeds te gebruiken, dan twee compleet verschillende architecturen van twee verschillende fabrikanten. Het is net zo zinloos als een Athlon64 te vergelijken met een P4 en je dan afvragen wie er klok voor klok sneller is.
Hoewel ik bovenstaande zeker geen zinloze vergelijking vond - en ik het niet eens ben met de gedachte dat G70 "bevoordeeld" is in deze test (door driverheaven remember ;)) - was ik daarom ook geinteresseerd in hoeveel verschil er is tussen de cores in hun default config, echter met gelijkgeklokt geheugen.
Je kunt dan echt 1:1 core-architectuur met core-architectuur vergelijken, zonder dat een van de cores daarbij door externe omstandigheden bevoordeeld is. Ik hoop echt dat een van de reviewsites nog zo'n test doet :)

[Voor 15% gewijzigd door Cheetah op 11-10-2005 16:51]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

FirefoxAG schreef op dinsdag 11 oktober 2005 @ 16:37:
[...]
Sorrie hoor, maar ik kan hierbij even een glimlach niet onderdrukken ;)
Als R520 - naar verwachting - had gebleken sneller te zijn was het een "uitstekende test" geweest, die "duidelijk de hogere efficientie van de R520 architectuur bewijst", of niet soms?
Nu de resultaten voor R520 tegenvallen, kan dit plotseling "heel moeilijk" vergeleken worden. Zoals je zelf eerder al aangaf is een klok-voor-klok vergelijking met een gelijk aantal pipes/shaders de enige echt "eerlijke" methode om claims betreffende efficientie te staven.
Het is gewoon echt heel moeilijk te vergelijken. Dat zou je toch zelf ook moeten zien... :+ Zeker als je weet dat G70 met verschillende interne clockdomains werkt. Als je de core op 450 clockt, dan draaien bepaalde onderdelen het intern soms wel zo'n 40Mhz sneller zoals bv de vertexshaders die altijd -tig Mhz harder draaien dan de rest van de core. En nV heeft al aangegeven dat dit niet de enige dingen zijn die anders geklokt is en dat het moeilijk is vast te stellen wat nou echt de precieze G70 klok is.

Deze test is imo veel interessanter: http://www.ixbt.com/video2/r520-part3.shtml want hier zie je dat een X850XT op 500/500 er stelselmatig wordt uitgetrokken door een X1800XL op 500/500 met name wanneer er AA en AF gebruikt wordt. Dat geeft aan dat ATi niet aan performance inboet door de overstap van FP24 naar FP32 en dat de efficientie er inderdaad op vooruit is gegaan.
[...]
Ik kan me hier eerlijk gezegd moeilijk wat bij voorstellen... efficientie word pas zichtbaar op hoge snelheid? Verder is R520 niet gemaakt voor lage kloksnelheden? De X1800XL, voor zover ik me kan herinneren ook een R520, loopt toch echt op 500mhz hoor... slechts 50mhz hoger dan waarop ze hebben gebenched.
De X1800XL is dan ook het 'afdankertje'. Klok 't 125Mhz hoger en je ziet dat de performance heel erg goed meeschaalt. De ene IHV profiteert meer van 1 Mhz verhoging dan de ander en dat komt puur door de verschillen in architectuur. Dat zie je ook bij AMD en Intel.

Of wilde je beweren dat je ook een efficientie test kan doen met de 9800Pro en FX5900? Schakel 4 pipes uit op de 9800Pro en kijk dan eens wie er wint... Wedden dat de FX dat dan wint? Maar kan je dit vergelijken ondanks dat de kaarten tegenover elkaar zijn gezet? Nee. Maar er zullen natuurlijk altijd mensen zijn die dan zeggen dat de FX veel efficienter is.

Daarnaast heb ik het ook al aangegeven dat bv de memorycontroller bij ATi heel anders in elkaar steekt dan bij nVidia. Je zag bij de vorige generaties dat de X800Pro niet goed tot z'n recht kwam doordat de memorycontrollers geconfigureerd waren voor bv 12 pipes, maar ook voor de hogere kloksnelheden van de XT PE. Pas nadat de drivers goed getweaked waren, begon de X800Pro goed uit de verf te komen, zeker op hogere resoluties.

Natuurlijk zijn er veel meer dingen die je niet kan vergelijken. Zo werkt bv ATi met veel kleinere batchsizes, die voor zover ik heb begrepen efficienter zouden moeten werken wanneer een threading architectuur op hogere kloksnelheden (600 Mhz+) draait en zeker wanneer er langere shaders aan te pas komen.
[...]
De G70 is gebouwd op extra pipelines ten opzichte van de Geforce6 architectuur. Die extra pipelines zijn in de genoemde test uitgeschakeld, waardoor een 1-op-1 vergelijking met R520 mogelijk werd gemaakt.
Blijkbaar is de performance-per-pipeline (in de geteste games en in 3DMark) bij G70 hoger dan bij R520 op gelijke clocks - in tegenstelling tot wat er eerder verwacht werd. Daar ging de vergelijking om... alleen jammer dat ze niet nog een aantal extra games erbij hebben gepakt om echt conclusief te kunnen zijn.
Extra Pipelines + Sterk verbeterde ALUs ten opzichte van de GF6 architectuur. In plaats van 1 hele en een (bij wijze van spreken) halve zitten er 2 hele ALUs per pipeline (en ik geloof nog wat mini ALUs).

G70: 16 pipes met ieder 2 ALUs (vec2+vec2, vec2+vec, madds) + dynamic clockdomains
R520: 16 pipes met 1 ALU + mini ALU (vec3+scalar, madds, vec3+scalar, non-madds) + static clockdomain

Als je puur naar dit kijkt dan is het logisch dat G70 'efficienter' is. Maar dan kan ik me niet voorstellen dat je dit nog een appels-to-apples vergelijking noemt. Ik kan me voorstellen dat de 'leek' dit als apples-to-apples ziet en daar is de test geloof ik ook voor bedoeld, maar mensen die zich wat meer verdiepen in de tech zouden beter moetne weten. G70 heeft dus zowiezo een hogere verwerkingskracht voor standaard SM2.0 dingen, maar scoort minder op SM3.0 zaken als dynamic branching. Dat laatste komt echter nog niet tot uiting in games.
Het valt me trouwens in de 3DMark05 test wel op dat de GTX met een ~5% hogere clockspeed, 16 pipes en 200mhz langzamer geheugen "slechts" ~900 punten minder scoort dan stock. Als je 5% van de score aftrekt (dus stock speed van 430 mhz) kom je op ~6550 punten.
Een stock GTX scoort dus met 8 extra pipes en 200mhz extra memspeed "slechts" zo'n 1300 punten meer dan een "zwaar gehandicapte" GTX. Dat doet vermoeden dat de "extra" 8 pipelines (in 3Dmark05) minder efficient worden gebruikt dan de eerste 16...
Ik denk dat 3Dmark05 meer afhankelijk is van het aantal ROPs en de snelheid waarop dit draait dan veel mensen denken. Het geeft imo wel goed aan wat je van de standaard 7800 kan verwachten en waarschijnlijk ook van de 7600 (die dan waarschijnlijk de vloer aanveegt met een X1600XT).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • cirediew
  • Registratie: Oktober 2005
  • Laatst online: 27-05 17:27
het zal vast wel al een keer gezegd zijn maar aub nog een keer voor mij.. komt de x1600xt ook uit in AGP:?

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
Kortom CJ, in de high-end zit ATi wel safe. Maar in de midrange hebben ze problemen als de X1600XT (wat toch echt een van de cashcows van de X1000 serie moet worden) een pak slaag krijgt van de 7600.

specs desktop | specs laptop

cirediew schreef op dinsdag 11 oktober 2005 @ 17:31:
het zal vast wel al een keer gezegd zijn maar aub nog een keer voor mij.. komt de x1600xt ook uit in AGP:?
Kijk eens op de ATi site....
  • 157 million transistors on 90nm fabrication process
  • Dual-link DVI
  • Twelve pixel shader processors
  • Five vertex shader processors
  • 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
  • Native PCI Express x16 bus interface
  • AGP 8x configurations also supported with AGP-PCI-E external bridge chip
  • Dynamic Voltage Control
http://www.ati.com/products/RadeonX1600/specs.html
shuogg schreef op dinsdag 11 oktober 2005 @ 17:37:
Kortom CJ, in de high-end zit ATi wel safe. Maar in de midrange hebben ze problemen als de X1600XT (wat toch echt een van de cashcows van de X1000 serie moet worden) een pak slaag krijgt van de 7600.
Als de 7600GTX 16 pipes heeft op 550Mhz dan kan het haast niet anders dan dat de 4 pipes met 12 PSPs op 600Mhz het toch echt moet afleggen. Let wel dat de richtprijs voor de 7600GTX geloof ik op $299 komt te liggen. Als ik het goed heb komt er een 12 pipes 7600 op $199. En die staat weer recht tegenover de X1600XT 128MB. Het kan zijn dat ik het mis heb, maar misschien dat The Source er meer over kan vertellen?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
K heb btw op XS gelezen dat er een XI800 XT op lucht naar 691/1628 is geclockt ( met stock cooler )

Aleen dit was de kaart + de core:

http://www.digital-info.net/Editorial/ATI/R520XT/Review/012.jpg

http://www.digital-info.net/Editorial/ATI/R520XT/Review/016.jpg

http://www.digital-info.net/Editorial/ATI/R520XT/Review/010.jpg

Dus ook een W14. K heb nu ook een X1800 XL geresserveerd nu hopen dat ze snel komen.

En van die X1600 was te verwachten ding presteerd al onder de maat tegen een X700. Dus laat staan de next gen Nvidia. Kbleef er bij dat die gewoon te weinig TMU's heeft.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
Erg nice, die OC _/-\o_

specs desktop | specs laptop


  • Oet
  • Registratie: Mei 2000
  • Laatst online: 25-05 10:37

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Leuke overclock zeg ;) Best nijs!!

Over dat apples to apples vergelijken hé...
Het is dus zo dat een G70 intern nog wat andere clockspeeds hanteerd... wat dus betekend dat de G70 lang niet zo getackeld wordt door een downclock, pure and simple..... Dit stukkie zal vast wel wat invloed hebben op de testresultaten, watvoor invloed durf ik niet te zeggen...

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • -db-
  • Registratie: Februari 2003
  • Laatst online: 25-05 20:17

-db-

Hoi

Je kunt clock voor clock vergelijken, waar nvidia waarschijnlijk wint, maar dan zit je met het probleem dat ati makkelijk hoger clockt dan de nvidia.
Je kunt pipe voor pipe vergelijken, waar ati waarschijnlijk wint, maar dan zit je met het probleem dat nvidia meer pipes heeft ingebouwd.
Geen van beide is apples to apples.
De enige zinnige test is een price to price vergelijking voor standaard clocks en maxOC'd to maxOC'd voor hobbyisten die de prijs niet veel uitmaakt.

Je kunt er vanuit gaan dat zowel ati als nvidia extreem veel snellere pipes kunnen maken, waarvan er dan wel maar een op een chip gaat en die niet hoog clockt.
De beste architectuur is degene met de beste verhouding tussen performance/pipe x pipes/clock x clock = performance, en daar gaat het om.

In dit geval heeft naar mijn mening nvidia de beste architectuur omdat ati te lang nodig had om de clock dusdanig hoog te krijgen dat de performance gelijk/groter is dan nvidia.

[Voor 35% gewijzigd door -db- op 11-10-2005 18:48]


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
-db- schreef op dinsdag 11 oktober 2005 @ 18:40:
Je kunt clock voor clock vergelijken, waar nvidia waarschijnlijk wint, maar dan zit je met het probleem dat ati makkelijk hoger clockt dan de nvidia.
Je kunt pipe voor pipe vergelijken, waar ati waarschijnlijk wint, maar dan zit je met het probleem dat nvidia meer pipes heeft ingebouwd.
Geen van beide is apples to apples.
De enige zinnige test is een price to price vergelijking voor standaard clocks en maxOC'd to maxOC'd voor hobbyisten die de prijs niet veel uitmaakt.
Helemaal mee eens :)

specs desktop | specs laptop


  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 09-04 08:22
-db- schreef op dinsdag 11 oktober 2005 @ 18:40:

In dit geval heeft naar mijn mening nvidia de beste architectuur omdat ati te lang nodig had om de clock dusdanig hoog te krijgen dat de performance gelijk/groter is dan nvidia.
Is wel een beetje waar, maar ze hadden een "softground" probleem wat dusz heel moeilijk te vinden was.. en als ze had dan vinden en binnen paar uur verbeteren.. nou dan vind ik dat gewoon meer "het lot" dan het niet kunnen.. wie weet.. als ze dat softground probleem eerder hadden gevonden dat ATi dan al paar maanden eerder zijn kaarten had gereleased...

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
jimbojansen90 schreef op dinsdag 11 oktober 2005 @ 18:56:
[...]
als ze dat softground probleem eerder hadden gevonden dat ATi dan al paar maanden eerder zijn kaarten had gereleased...
ja...en als bananen recht zijn, passen ze niet meer in de schil O-)

Anoniem: 54475

FirefoxAG schreef op dinsdag 11 oktober 2005 @ 14:24:
[...]
Sorrie hoor, maar wat een onzin. Die test is "toevallig" gebaseerd op berekeningen waar de Radeon X architectuur goed in is. Zowel de nV als de ATi architectuur hebben hun sterke en zwakke punten. In bepaalde berekeningen zal ATi hardware dus een stuk sneller zijn, en in andere berekeningen nV hardware.
1 enkele zeer specifieke test dat 1 enkel specifiek algoritme uitvoert droppen, en op basis daarvan beweren dat ATi "in wetenschappelijke toepassingen" veel sneller/efficienter/wat-dan-ook is dan nVidia slaat werkelijk helemaal nergens op... er zijn net zo goed wetenschappelijke scenario's/tests te bedenken waarbij nV hardware veel sneller is dan ATi, dus andersom geld dit idem dito met ster ;)
Hey chutta!! :Y)

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 09-04 08:22
Mr. Detonator schreef op dinsdag 11 oktober 2005 @ 19:12:
[...]


ja...en als bananen recht zijn, passen ze niet meer in de schil O-)
moet je het ook wel goed quoten hea... :? ik zet daarvoor tog ook : Wie weet... dusz weet ik het niet ckr.. het is een gok.. niet een feit.. |:(

Anoniem: 123357

@ The source

Krijg juist van mijn dealer het bericht dat hij een Gecube x1800xt 512mb kan leveren volgende week. Is dit mogelijk? Want die mannen zitten er dikwijls naast.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Anoniem: 123357 schreef op dinsdag 11 oktober 2005 @ 21:35:
@ The source

Krijg juist van mijn dealer het bericht dat hij een Gecube x1800xt 512mb kan leveren volgende week. Is dit mogelijk? Want die mannen zitten er dikwijls naast.
in NL, wie is het?

Niet op voorraad.


  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
ben ik nou de enige die het niet zo'n bijzondere overclock vind? De stock kloks zijn namelijk 625/1500... :Z

Anoniem: 109887

Dat zou ik wel graag willen weten :9~ :9~ :9~ , Anders moeten we maar w8 tot 5 nov.

@ CJ , Weet jij al iets over ATi's driver Support voor dual core Cpu's .

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 25-05 10:37

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Op de FP kun je zien dat ASUS een CrossFire bordje introduceerd..

Het leuke van dit bordje is imo dat het een ULI southbridge heeft, wat dus betekend, geen problemen met USB2.0 performance :):)

Verder is het natuurlijk wel ff wachten hoe het bordje performed en wat het gaat kosten, ze zeggen er wel bij dat het al over enkele weken in de schappen moet liggen... Ik ben benieuwd, nog nix te zien bij de distri's hier iig....

[Voor 200% gewijzigd door Oet op 11-10-2005 22:20]

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 06:42

Aight!

'A toy robot...'

Brainless-NL schreef op dinsdag 11 oktober 2005 @ 22:12:
[...]

ben ik nou de enige die het niet zo'n bijzondere overclock vind? De stock kloks zijn namelijk 625/1500... :Z
van een X1800XL??

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:56
Nee het is een XT.
Overigens is de clock niet zo super bijzonder, maar de score die ermee behaald wordt is zeer netjes.

PSN: DutchTrickle PVoutput


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
Brainless-NL schreef op dinsdag 11 oktober 2005 @ 22:12:
[...]

ben ik nou de enige die het niet zo'n bijzondere overclock vind? De stock kloks zijn namelijk 625/1500... :Z
Met een enorme koeler er al op standaard, qua koeling is een 7800GTX een stuk minder ver. Daar is meer ruimte voor verbetering over.. (niet dat ik het negatief vind dat de 7800GTX single-slot is)

specs desktop | specs laptop


Anoniem: 9449

screamteam schreef op dinsdag 11 oktober 2005 @ 22:15:
Op de FP kun je zien dat ASUS een CrossFire bordje introduceerd.
De nieuwspost hiervoor lijkt mij toch iets interessanter voor dit topic:

nieuws: Overgeklokte Radeon X1800 XT scoort 12278 in 3DMark05

Een single X1800XT verslaat twee 7800 GTX in SLi !!

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
Anoniem: 9449 schreef op dinsdag 11 oktober 2005 @ 22:54:
[...]

De nieuwspost hiervoor lijkt mij toch iets interessanter voor dit topic:

nieuws: Overgeklokte Radeon X1800 XT scoort 12278 in 3DMark05

Een single X1800XT verslaat twee 7800 GTX in SLi !!
En verslaat de hoogst overgeclockte single GTX met 300 punten in 3D Mark 2005, dat vergeet men vaak ;)

specs desktop | specs laptop


  • Oet
  • Registratie: Mei 2000
  • Laatst online: 25-05 10:37

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Anoniem: 9449 schreef op dinsdag 11 oktober 2005 @ 22:54:
[...]

De nieuwspost hiervoor lijkt mij toch iets interessanter voor dit topic:

nieuws: Overgeklokte Radeon X1800 XT scoort 12278 in 3DMark05

Een single X1800XT verslaat twee 7800 GTX in SLi !!
Ja leuk, maar als je in de ORB van futurmark gaat kijken staan er OC'ed 7800GTX SLI sys met ongeveer 17.5K 3dmark05's... Dus wat is snel.... Achja zonder een XFire bord komen we er iig niet achter of een XFire oc weer over die GTX-oc heen gaat :)

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
shuogg schreef op dinsdag 11 oktober 2005 @ 22:57:
[...]


En verslaat de hoogst overgeclockte single GTX met 300 punten in 3D Mark 2005, dat vergeet men vaak ;)
ja...maar zodra de gtx 512mb heeft, komen die 300pntn er wel bij hoor !

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 9449 schreef op dinsdag 11 oktober 2005 @ 22:54:
De nieuwspost hiervoor lijkt mij toch iets interessanter voor dit topic:

nieuws: Overgeklokte Radeon X1800 XT scoort 12278 in 3DMark05

Een single X1800XT verslaat twee 7800 GTX in SLi !!
Een extreem overklokte X1800XT vergelijken met 2 stock GTX'en is sowieso een loze appels met peren vergelijking. Als je die score toch ergens mee wil vergelijken, vermeld er dan ook meteen even de topscore van een overklokte single 7800GTX bij:
Single ** ASUS EN7800GTX ** > 11.915 punten :O

En dat met het geheugen op 1520mhz, dus 450mhz minder dan die X1800XT... die X1800XT is welliswaar 3% sneller (met 30% sneller geheugen), maar om daar nou zoveel ophef over te maken :Y)

Ik kan me niet zoveel aandacht herinneren toen dat record met die single GTX werd gevestigd, dat nu met 300 puntjes overtroffen is ;)

[Voor 4% gewijzigd door Cheetah op 11-10-2005 23:20]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Anoniem: 123357

Anoniem: 109887 schreef op dinsdag 11 oktober 2005 @ 22:14:
[...]


Dat zou ik wel graag willen weten :9~ :9~ :9~ , Anders moeten we maar w8 tot 5 nov.
Nee is BE kreeg het bericht van de groothandel citeer hem even:

Beste

Offerte zie attachment

Verzending met ABX (15€ ex BTW) onder rembours of pick-up
Betalingswijze bij eerste bestelling : cheque, cash of overschrijving op voorhand

De kaarten komen normaal volgende week binnen

___

Voor de duidelijkheid ben geen winkel maar kan er via het bedrijf op inloggen en bestellen. Prijs
komt op 540incl btw voor de 512mb versie. En dit is zeker niet de goedkoopste groothandel. Prijs van een gtx top vind je in de pricewatch 20€ goedkoper dan bij de groothandel zelf.

  • Fiddle
  • Registratie: Januari 2004
  • Niet online
Dus nu moet ik zeker 540 euro op jouw rekening storten wil ik hem hebben. :P Sorry, gaat mooi niet door..... :9

Asus ROG Strix X570-E Gaming, AMD Ryzen 7 5800X, NZXT Kraken X63, Zotac Gaming GeForce RTX 3080 Trinity OC, G.Skill Trident Z RGB, 2x Samsung 980 Pro 1TB, Fractal Design Define R6 USB-C, be quiet! Straight Power 11 750W

Brainless-NL schreef op dinsdag 11 oktober 2005 @ 22:12:
[...]

ben ik nou de enige die het niet zo'n bijzondere overclock vind? De stock kloks zijn namelijk 625/1500... :Z
Dat ligt er natuurlijk maar net aan hoe je het bekijkt. Lees eens wat oude topics door en je ziet dat bepaalde mensen er heilig van overtuigd waren dat de R520 toch echt op z'n max moest lopen met 625Mhz en dat er niet veel rek meer in zou zitten. Toch blijken er nu dus kaarten te zijn die op luchtkoeling 691Mhz core en 1628Mhz mem halen en dan meer dan 10K halen in 3dMark2005. Als je de Vcore met 0.15V omhoog gooit (wat dus softwarematig kan!) dan wordt er met stockcooler 740Mhz core gehaald en 1680Mhz mem... en dan nog zonder artifacts. Dus vanuit dat opzicht van 'slechte berichten in de aanloop naar R520 launch' kan ik me best voorstellen dat er mensen zijn die de overklokmogelijkheden toch nog bijzonder vinden.

Om nog even terug te komen op de efficientie. Los van het feit dat ik de vergelijking zelf nergens op vindt slaan, wil ik voor degenen die niet snappen dat de architecturen juist heel verschillend zijn en dus moeilijk te vergelijken zijn, even op het volgende wijzen.

Op Xstremesystems hebben ze een GTX op 625Mhz core / 1500 Mhz mem geklokt en getest op een 3.06Ghz FX. Dit haalt zo'n 10300 punten. Een XT op dezelfde snelheden haalt 9444 met 8 pipes minder. Eentje draait dan echter op standaard snelheden, de ander op overgeklokte snelheden en nog eens 8 pipelines meer.

G70 16 pipes op 450Mhz core / 500Mhz mem vs R520 16 op 450Mhz core / 500Mhz mem: G70 wint net ("gelijke" omstandigheden)
G70 24 pipes op 625Mhz core / 750Mhz mem vs R520 16 pipes op 625Mhz core / 750Mhz mem: G70 wint net (GTX heeft 8 pipes meer!)

Twijfelt er dan nog iemand aan dat de R520 gebouwd is voor hogere snelheden en dus efficienter werkt op hogere kloksnelheden? Ben benieuwd wat er gebeurd als je alsnog die 8 pipes uit schakelt op de GTX. ;)

Maar goed, dit laat dus des te meer zien dat de architecturen te veel van elkaar verschillen om klok-voor-klok efficientie op te meten. De een werkt beduidend beter op hogere kloksnelheden terwijl de ander dan juist minder efficient lijkt te worden (de overige 8 pipes van de GTX lijken bijna niets te doen).
Anoniem: 109887 schreef op dinsdag 11 oktober 2005 @ 22:14:
[...]


Dat zou ik wel graag willen weten :9~ :9~ :9~ , Anders moeten we maar w8 tot 5 nov.

@ CJ , Weet jij al iets over ATi's driver Support voor dual core Cpu's .
Zit nu in de beta-test voor zover ik weet en daar levert het vaak al meer dan 10% performanceboost op. Volgens mij stond het gepland voor eind 2005 of een van de eerste Cat 6.xx.

[Voor 10% gewijzigd door CJ op 12-10-2005 01:03]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 21-05 18:55
CJ schreef op woensdag 12 oktober 2005 @ 01:00:
[...]

Maar goed, dit laat dus des te meer zien dat de architecturen te veel van elkaar verschillen om klok-voor-klok efficientie op te meten. De een werkt beduidend beter op hogere kloksnelheden terwijl de ander dan juist minder efficient lijkt te worden (de overige 8 pipes van de GTX lijken bijna niets te doen).
Daarnaast vraag ik me af what the fok het boeit welke er zogenaamd "efficienter" is. Ik koop een kaart iig niet omdat hij efficienter is, maar omdat de uiteindelijke prestaties gewoon goed zijn.

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 27-05 14:01

Krizzie

Progressive Music \o/

Als "die kaart" dan beter scoort dan neem ik aan dat hij ook efficiënter is he ;) Anders scoort hij niet beter :P

Geluidswolk


Anoniem: 123357

Fiddle schreef op woensdag 12 oktober 2005 @ 00:36:
Dus nu moet ik zeker 540 euro op jouw rekening storten wil ik hem hebben. :P Sorry, gaat mooi niet door..... :9
Nee moet je geld niet hebben. Zeg het maar ter informatie en vroeg me of deze leverdatum zouw kunnen kloppen aan The Source. Het is toch nieuws voor hoeveel hij bij de distri te bestellen is. Kun je ongeveer je winkelprijs wel mee bepalen.

[Voor 26% gewijzigd door Anoniem: 123357 op 12-10-2005 10:34]


Anoniem: 54475

FirefoxAG schreef op dinsdag 11 oktober 2005 @ 23:16:
[...]
Een extreem overklokte X1800XT vergelijken met 2 stock GTX'en is sowieso een loze appels met peren vergelijking. Als je die score toch ergens mee wil vergelijken, vermeld er dan ook meteen even de topscore van een overklokte single 7800GTX bij:
Single ** ASUS EN7800GTX ** > 11.915 punten :O

En dat met het geheugen op 1520mhz, dus 450mhz minder dan die X1800XT... die X1800XT is welliswaar 3% sneller (met 30% sneller geheugen), maar om daar nou zoveel ophef over te maken :Y)

Ik kan me niet zoveel aandacht herinneren toen dat record met die single GTX werd gevestigd, dat nu met 300 puntjes overtroffen is ;)
Het gezemel over appels en peren vindt ik absoluut totale onzin, het zijn 2 verschillende architecturen, met elk een andere wijze van functioneren/ benadering. Nv heeft bij haar benadering van de G70 de nadruk gelegd op het "veredelen" van de NV40 met extra pipes, en ATI is met de R520 een ander pad opgegaan, namelijk gewoon een complete nieuwe achitectuur, die leunt op hoge snelheden.
Dus geen appels vs peren dus, gewoon een andere benadering van efficientie, en elke fabrikant geeft op zijn eigen manier dan invulling aan. 8)7

Anoniem: 98389

Anoniem: 54475 schreef op woensdag 12 oktober 2005 @ 09:22:
[...]


Het gezemel over appels en peren vindt ik absoluut totale onzin, het zijn 2 verschillende architecturen, met elk een andere wijze van functioneren/ benadering. Nv heeft bij haar benadering van de G70 de nadruk gelegd op het "veredelen" van de NV40 met extra pipes, en ATI is met de R520 een ander pad opgegaan, namelijk gewoon een complete nieuwe achitectuur, die leunt op hoge snelheden.
Dus geen appels vs peren dus, gewoon een andere benadering van efficientie, en elke fabrikant geeft op zijn eigen manier dan invulling aan. 8)7
Appels vs peren, je kaner wel heel slecht tegen dat er maar 300 pt tussen zit! Wel altijd zeggen, hij scoort deze fps vergeleken met die kaart maar als het om records gaat dan telt dat ineens niet. Zeker weer een fanboy overtuiging |:(

Het feit is dat de xt gewoon net iets sneller is ald de gtx maar minder snel als de beloftes van ati.

[Voor 3% gewijzigd door Anoniem: 98389 op 12-10-2005 09:48]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De meeste consumenten beoordelen toch wel op prijs/prestatie (standaard), niet 3DMark 2005 scores op overclocked speeds.

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 11 oktober 2005 @ 17:21:
Deze test is imo veel interessanter: http://www.ixbt.com/video2/r520-part3.shtml want hier zie je dat een X850XT op 500/500 er stelselmatig wordt uitgetrokken door een X1800XL op 500/500 met name wanneer er AA en AF gebruikt wordt. Dat geeft aan dat ATi niet aan performance inboet door de overstap van FP24 naar FP32 en dat de efficientie er inderdaad op vooruit is gegaan.
Deze vergelijking is interessant, maar toch minder interessant dan de G70 / R520 clock-voor-clock vergelijking. Het ligt namelijk gewoon in de lijn der verwachting dat R520 clock-voor-clock sneller is dan R480... anders kon je net zo goed je R480 houden. Verder wisten we ook al dat R520 extra optimalisaties op AA/AF gebied herbergde, dus wat mij betreft ook no surprises there...

Wat echter wel verrassend is - i.m.h.o. - is dat de G70 per pipe sneller blijkt dan de R520. Dat had ik - en met mij een groot deel van de videokaartliefhebbers - absoluut niet verwacht.
De ene IHV profiteert meer van 1 Mhz verhoging dan de ander en dat komt puur door de verschillen in architectuur. Dat zie je ook bij AMD en Intel.
En hier hebben we dus een analogie die i.m.o. totaal niet opgaat. De AMD Athlon64 en Intel Pentium IV zijn architecturen die dramatisch verschillen van elkaar. Het verschil tussen die twee is veel groter dan de verschillen tussen R520 en G70.
De basis- en zelfs een flink aantal in-depth principes van de G70 en R520 zijn namelijk redelijk gelijk, en zodoende ook wel degelijk vergelijkbaar of naast elkaar te zetten.
Extra Pipelines + Sterk verbeterde ALUs ten opzichte van de GF6 architectuur. In plaats van 1 hele en een (bij wijze van spreken) halve zitten er 2 hele ALUs per pipeline (en ik geloof nog wat mini ALUs).

G70: 16 pipes met ieder 2 ALUs (vec2+vec2, vec2+vec, madds) + dynamic clockdomains
R520: 16 pipes met 1 ALU + mini ALU (vec3+scalar, madds, vec3+scalar, non-madds) + static clockdomain

Als je puur naar dit kijkt dan is het logisch dat G70 'efficienter' is. Maar dan kan ik me niet voorstellen dat je dit nog een appels-to-apples vergelijking noemt. Ik kan me voorstellen dat de 'leek' dit als apples-to-apples ziet en daar is de test geloof ik ook voor bedoeld, maar mensen die zich wat meer verdiepen in de tech zouden beter moetne weten.
Wie had het over apples-to-apples qua architectuur? Als de architecturen identiek waren zou ook de performance identiek zijn geweest, en wat vergelijk je dan?
Het interessante hier is juist om te zien hoe deze verschillen in ontwerpbeslissingen zich vertalen in real-life performance. Veel meer apples-to-apples dan deze vergelijking kun je bij een efficiency onderzoek gewoon niet komen...
Jij zegt dat het "logisch" is dat G70 efficienter is? Toch was de algemene opvatting dat de R520 per-pipe een stuk sneller zou zijn dan G70, en die illusie word ook gewekt als je in het globaal naar de scores kijkt. Dit blijkt dus echter niet het geval te zijn, en dat is de meerwaarde van dit onderzoek...

Ik snap echter jouw kritiek ook wel en daarom wil ik dus dit nog (in de herhaling :P):
Toch is het i.m.o. ook interessant om de kaarten in hun stock core configuratie (7800GTX @430mhz @24pp vs X1800XT @625mhz @16pp) tegen elkaar te benchen met gelijk geklokt geheugen (beide @1200mhz bijv). Je kunt dan een apples to apples vergelijking tussen de eigenlijke cores maken... ik zou zoiets graag willen zien
En zelfs dan kun je nog beargumenteren dat het niet apples-to-apples is gezien het "overklokpotentieel" (op de core dus) niet is meegenomen, en dat ligt bij G70 vrijwel zeker percentueel hoger dan bij R520. Zeker uitgaande van de GTX TOP die op core vanuit de factory 13% sneller is dan een default GTX.

In een vergelijking moet je echter ergens een grens trekken, anders kun je gewoon niets meer vergelijken.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 26-05 18:53

Pubbert

random gestoord

FirefoxAG schreef op woensdag 12 oktober 2005 @ 10:08:
En zelfs dan kun je nog beargumenteren dat het niet apples-to-apples is gezien het "overklokpotentieel" (op de core dus) niet is meegenomen, en dat ligt bij G70 vrijwel zeker percentueel hoger dan bij R520. Zeker uitgaande van de GTX TOP die op core vanuit de factory 13% sneller is dan een default GTX.
Wat een bullshit, er zijn nog maar een paar kaarten in omloop, en nu trek je al conclusies dat de GTX beter klokt.

Tevens is je argument dat "bijna elke" GTX de TOP snelheden haalt ook al teniet gedaan, want verscheidene links die hier gepost zijn bewezen het tegendeel, dus kom aub met feiten ipv meningen :)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Anoniem: 62850
  • Registratie: Augustus 2002
  • Niet online
Dit is eerder al langsgekomen, maar post hem nog eens op gelijke clocks+gelijke aantal pipes blijkt de G70 beter te zijn dan de R520.

http://www.driverheaven.net/articles/efficiency/


''Looking at the game results first we see that the G70 architecture is performing much better in two of the biggest titles on the market. Regardless of how well the R520 performs when at stock speeds it really does fall behind when configured to the same specs as a G70 (and this is even lowering the 7800 pipes from 24 to 16).''

''Theoretical performance does swing between the two architectures. The Geforce prefers pixel shader tests which are used in 3Dmarks technology benchmark whereas the Radeon performs much better in the HDR shader tests used by Shadermark 2.1.''

''Overall we would have to say that in the tests which really matter today the G70 is the most efficient design and therefore performance leader when both architectures are configured similarly. In more "future proofed" tests the balance swings again and when HDR is used more in games we may well see the R520 performing better overall when the same testing methods are applied.''

[Voor 73% gewijzigd door Anoniem: 62850 op 12-10-2005 10:44]


Anoniem: 54475

Anoniem: 98389 schreef op woensdag 12 oktober 2005 @ 09:47:
[...]


Appels vs peren, je kaner wel heel slecht tegen dat er maar 300 pt tussen zit! Wel altijd zeggen, hij scoort deze fps vergeleken met die kaart maar als het om records gaat dan telt dat ineens niet. Zeker weer een fanboy overtuiging |:(

Het feit is dat de xt gewoon net iets sneller is ald de gtx maar minder snel als de beloftes van ati.
Nou fanboy ben ik niet, heb zelf gewoon een gtx in mijn kassie hangen, en heb van beide merken ooit wel wat in mijn pc gehad, dus jou aanname van "fanboy"kan ik bij deze door de plee spoelen... en daarna mag je gorgelen. O-)

Tuurlijk zijn de prestaties van de X1800 serie teleurstellend, als je ervan uitgaat dat ze genoeg tijd hebben gehad om de boel te ontwikkelen. Wat dat betreft is Nv gewoon voor geweest als het gaat om het lanceren van eengoed initiatief.. het enige "grote"probleem is dat ati te laat is met het introduceren van de R520.. :Y)

Offtopic:
Owe en @ FirefoxAG: Hoever gaat je gtx top @oc?
De mijne trekt met zijn luchtkoeling 530 core Vs 1500 Mem, en ik heb gewoon een standaard Gigabyte GTX.. Dus denk ik dat de "gewone" jongens best wel potentie hebben...
_/-\o_

Ontopic:
@cj:
Maar goed, dit laat dus des te meer zien dat de architecturen te veel van elkaar verschillen om klok-voor-klok efficientie op te meten. De een werkt beduidend beter op hogere kloksnelheden terwijl de ander dan juist minder efficient lijkt te worden (de overige 8 pipes van de GTX lijken bijna niets te doen).

Heb je gelijk in: de architecturen verschillen teveel om dat te kunnen doen. Maar kijkend naar het segment die de beide topmodellen moeten bedienen, vindt ik het absoluut geen appels vs perenvergelijking, het zijn gewoon 2 fabrikanten die strijden om de gunsten in het topsegment, en daarbij absoluut een andere benadering hebben voor hun high end videokaarten. De tijd zal het leren wie voor de toekomst de beste kaarten in handen heeft, maar dat zien we pas bij de volgende generatie games. :O

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op woensdag 12 oktober 2005 @ 01:00:
[...]Lees eens wat oude topics door en je ziet dat bepaalde mensen er heilig van overtuigd waren dat de R520 toch echt op z'n max moest lopen met 625Mhz en dat er niet veel rek meer in zou zitten. Toch blijken er nu dus kaarten te zijn die op luchtkoeling 691Mhz core en 1628Mhz mem halen en dan meer dan 10K halen in 3dMark2005.
Dat er nog rek in dat 1.2ns geheugen zat was duidelijk, dat is namelijk gewoon gespecificeerd op 1600mhz.
Wat betreft de core... tja, of je een enkeling die een 10% overklok op core haalt moet toejuichen als "X1800XT is toch 'goed' te overklokken" valt te bezien. Om te beginnen is 10% echt niet veel. Zeker niet er van uitgaande dat de kaart vermoedelijk op zijn max gebenched is en het de vraag is of hij uberhaupt wel gamestabiel is (wetende hoe dit soort tests vaak uitgevoerd worden: waarschijnlijk niet dus).
Dat dit blijkbaar een record is op XS voor een stock X1800XT op lucht is zegt toch wel wat. De X1800XT kaarten in omloop zijn namelijk grotendeels (hand-picked) reviewsamples. Hoe de bulk gaat klokken valt nog wel te bezien.
Om nog even terug te komen op de efficientie. Los van het feit dat ik de vergelijking zelf nergens op vindt slaan, wil ik voor degenen die niet snappen dat de architecturen juist heel verschillend zijn en dus moeilijk te vergelijken zijn, even op het volgende wijzen.

Op Xstremesystems hebben ze een GTX op 625Mhz core / 1500 Mhz mem geklokt en getest op een 3.06Ghz FX. Dit haalt zo'n 10300 punten. Een XT op dezelfde snelheden haalt 9444 met 8 pipes minder. Eentje draait dan echter op standaard snelheden, de ander op overgeklokte snelheden en nog eens 8 pipelines meer.

G70 16 pipes op 450Mhz core / 500Mhz mem vs R520 16 op 450Mhz core / 500Mhz mem: G70 wint net ("gelijke" omstandigheden)
G70 24 pipes op 625Mhz core / 750Mhz mem vs R520 16 pipes op 625Mhz core / 750Mhz mem: G70 wint net (GTX heeft 8 pipes meer!)

Twijfelt er dan nog iemand aan dat de R520 gebouwd is voor hogere snelheden en dus efficienter werkt op hogere kloksnelheden? Ben benieuwd wat er gebeurd als je alsnog die 8 pipes uit schakelt op de GTX. ;)
Hoewel het jammer is dat de test op Xtremesystems met nV driver 78.01 is gedaan, i.p.v. de 81.84, is die test idd uitermate interessant om naast de Driverheaven test te leggen. Dit gezien uit de Driverheaven test al bleek dat in 3DMark05 die "extra" 8 pipelines voor het aantal punten niet veel toegevoegde waarde hebben. Zie ook dit eerder commentaar van me daarop:
Het valt me trouwens in de 3DMark05 test wel op dat de GTX met een ~5% hogere clockspeed, 16 pipes en 200mhz langzamer geheugen "slechts" ~900 punten minder scoort dan stock. Als je 5% van de score aftrekt (dus stock speed van 430 mhz) kom je op ~6550 punten.
Een stock GTX scoort dus met 8 extra pipes en 200mhz extra memspeed "slechts" zo'n 1300 punten meer dan een "zwaar gehandicapte" GTX. Dat doet vermoeden dat de "extra" 8 pipelines (in 3Dmark05) minder efficient worden gebruikt dan de eerste 16...


Gezien de 24 pipelines van de G70 parrallel staan lijkt het er duidelijk op dat 3DMark05 daar niet optimaal gebruik van maakt. Het zou ook aan de G70 architectuur kunnen liggen, hoewel dat me wat minder waarschijnlijk lijkt - ook gezien de vergelijkingsscores in vele games. Vergeet niet dat 3DMark05 een van de weinige toepassingen is waarin de stock R520 zo'n voorsprong neemt op de stock G70 in de default (non-eyecandy) modus!

En om even een klein beetje te bitchen betreffende dat "G70 wint net"... het verschil in 3DMark05 (!!) bedraagd 6% (Driverheaven) om 9% (Xtremesystems)... als het resultaat andersom was geweest zou dat "behoorlijk" zijn geweest, dus wel een beetje consequent blijven he ;)
Verder zou ik het verschil - in de Driverheaven gametests - van ~10% in CounterStrike Source (normaal een ATi prefererende game) en 50% in Doom3 - beide in het voordeel van de GTX - nou niet echt "wint net" willen noemen... ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Thund3r schreef op woensdag 12 oktober 2005 @ 10:20:
Wat een bullshit, er zijn nog maar een paar kaarten in omloop, en nu trek je al conclusies dat de GTX beter klokt.
Ik wil je er wel wat om verwedden dat er geen 13% (op core & mem) factory overclocked X1800XT's gaan uitkomen (dus op 705/1700). Durf jij het ook aan?
Of is het dan weer "niet eerlijk"? ;)
Tevens is je argument dat "bijna elke" GTX de TOP snelheden haalt ook al teniet gedaan, want verscheidene links die hier gepost zijn bewezen het tegendeel, dus kom aub met feiten ipv meningen :)
Om je even wat feiten te presenteren: Ten eerste heb ik nergens beweert dat "bijna elke" GTX de TOP snelheden (486/1350) haalt, hoewel de meesten op core hem heel dicht benaderen of er zelfs flink overheen gaan, zeker met dual slots koeling. Je moet echt pech hebben als je GTX de 10% core-overklok niet haalt, en een heel aardig deel haalt zelfs een 20% overklok of meer... de gelukkigen redden ~25% op air (zonder voltmods natuurlijk, daarmee gaat hij nog harder).
Ik wil de X1800XT dat ook wel zien doen op air zonder voltmods, die 20~25%... komen we aan 750~780mhz... ik ben benieuwd ;)

Op memory is het sowieso logisch dat met de GTX vaak geen TOP snelheden gehaald worden omdat de GTX (nog) gebruik maakt van 1,6ns geheugen (gespecificeerd op 1250mhz)... slechts een selectie daaruit haalt 1350mhz of meer...

'nuff said? ;)

offtopic:
@MazaneH:
Mijne doet gamestabiel 520/1400 (en de core kan waarschijnlijk nog wel wat verder)... 3D Mark stabiel kom ik nog wel een stukje hoger.

[Voor 6% gewijzigd door Cheetah op 12-10-2005 11:29]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

FirefoxAG schreef op woensdag 12 oktober 2005 @ 10:08:
[...]
Deze vergelijking is interessant, maar toch minder interessant dan de G70 / R520 clock-voor-clock vergelijking. Het ligt namelijk gewoon in de lijn der verwachting dat R520 clock-voor-clock sneller is dan R480... anders kon je net zo goed je R480 houden. Verder wisten we ook al dat R520 extra optimalisaties op AA/AF gebied herbergde, dus wat mij betreft ook no surprises there...
Hoezo ligt het in de lijn der verwachting dat de R520 klok-voor-klok sneller is dan de R480? Ik dacht dat de 'algemene verwachting' was dat de R520 niets meer was dan 'R4x0 met SM3.0 er op geplakt' en nV had via interne PR slides al laten weten dat ATi geen FP32 had omdat ze er moeite mee hadden om dit te implementeren aangezien de performance dan omlaag zou gaan (wat natuurlijk pure speculatie was van hun kant). Dat R520 nu meer blijkt te zijn dan de oude architectuur + SM3.0 en ook zaken geleend heeft van R400/R600 waardoor de performance klok-voor-klok sneller kan zijn vind ik op zich best opmerkelijk gezien de 'algemene verwachting' uit voorgaande topics.
Wat echter wel verrassend is - i.m.h.o. - is dat de G70 per pipe sneller blijkt dan de R520. Dat had ik - en met mij een groot deel van de videokaartliefhebbers - absoluut niet verwacht.
Tja, het ligt er maar net aan wat je onder 'videokaartliefhebbers' verstaat. Als je daaronder "ik geil op hoge fps en hoge 3dMarks' bedoeld, dan heb je gelijk. Als je daaronder verstaat 'ik vind de achterliggende techniek van videokaarten interessant', dan heb je het imo mis.
En hier hebben we dus een analogie die i.m.o. totaal niet opgaat. De AMD Athlon64 en Intel Pentium IV zijn architecturen die dramatisch verschillen van elkaar. Het verschil tussen die twee is veel groter dan de verschillen tussen R520 en G70.
De basis- en zelfs een flink aantal in-depth principes van de G70 en R520 zijn namelijk redelijk gelijk, en zodoende ook wel degelijk vergelijkbaar of naast elkaar te zetten.

[...]
Wie had het over apples-to-apples qua architectuur? Als de architecturen identiek waren zou ook de performance identiek zijn geweest, en wat vergelijk je dan?
Ik had het over architectuur. Dat is wat mij betreft het belangrijkste waar je eerst naar moet kijken wanneer je videokaarten gaat vergelijken. Of wilde je straks ook nog RSX tegenover Xenos gaan uitzetten en kijken wie er klok-voor-klok efficienter is? Zie ook mijn vergelijking met de 9800Pro vs FX5900, je kan niet zo maar 4 pipes uit zetten op de 9800Pro en de FX downclocken naar 380Mhz en dan zeggen dat de FX efficienter is.

De enige manier waarop ik 'apples-to-apples' kan interpreteren is dat het inderdaad beide videokaarten zijn {apples}, maar dat de een een Golden Delicious {G70} is, terwijl de ander een Elstar {R520} is. De groene Golden Delicious smaakt zoetzuur en de rode Elstar ook, maar worden op verschillende manieren geteeld {verschillende architecturen}. Is de een daarom minder smaakvol {efficient} dan de ander?
Het interessante hier is juist om te zien hoe deze verschillen in ontwerpbeslissingen zich vertalen in real-life performance. Veel meer apples-to-apples dan deze vergelijking kun je bij een efficiency onderzoek gewoon niet komen...
Jij zegt dat het "logisch" is dat G70 efficienter is? Toch was de algemene opvatting dat de R520 per-pipe een stuk sneller zou zijn dan G70, en die illusie word ook gewekt als je in het globaal naar de scores kijkt. Dit blijkt dus echter niet het geval te zijn, en dat is de meerwaarde van dit onderzoek...
De algemene opvatting van de 3D-liefhebbers was dacht ik toch echt dat 2 ALUs sneller zijn dan 1 ALU + Mini ALU, zeker als ze bijna identiek zijn (en nV's ALU theoretisch gezien al wat sneller is).

Veridian die de test heeft uitgevoerd heeft ook al gezegd dat het nooit de bedoeling is geweest om mensen het idee te geven dat omdat de G70 meer per klok doet dan een R520, deze daardoor minder efficient en slechter zou zijn, want dit is compleet irrelevant aangezien de architecturen verschillen. Dit laatste is echter wel het geval bij de mensen die minder verstand hebben van de achterliggende architecturen.
En zelfs dan kun je nog beargumenteren dat het niet apples-to-apples is gezien het "overklokpotentieel" (op de core dus) niet is meegenomen, en dat ligt bij G70 vrijwel zeker percentueel hoger dan bij R520. Zeker uitgaande van de GTX TOP die op core vanuit de factory 13% sneller is dan een default GTX.
Thund3r schreef op woensdag 12 oktober 2005 @ 10:20:
[...]


Wat een bullshit, er zijn nog maar een paar kaarten in omloop, en nu trek je al conclusies dat de GTX beter klokt.

Tevens is je argument dat "bijna elke" GTX de TOP snelheden haalt ook al teniet gedaan, want verscheidene links die hier gepost zijn bewezen het tegendeel, dus kom aub met feiten ipv meningen :)
Dat bedoel ik dus maar. Zie ook The Sources eerdere post dat nVidia niet genoeg TOP kaarten kan leveren vanwege de lage yields.
FirefoxAG schreef op woensdag 12 oktober 2005 @ 11:01:
[...]
Dat er nog rek in dat 1.2ns geheugen zat was duidelijk, dat is namelijk gewoon gespecificeerd op 1600mhz.
Wat betreft de core... tja, of je een enkeling die een 10% overklok op core haalt moet toejuichen als "X1800XT is toch 'goed' te overklokken" valt te bezien. Om te beginnen is 10% echt niet veel. Zeker niet er van uitgaande dat de kaart vermoedelijk op zijn max gebenched is en het de vraag is of hij uberhaupt wel gamestabiel is (wetende hoe dit soort tests vaak uitgevoerd worden: waarschijnlijk niet dus).
Dat dit blijkbaar een record is op XS voor een stock X1800XT op lucht is zegt toch wel wat. De X1800XT kaarten in omloop zijn namelijk grotendeels (hand-picked) reviewsamples. Hoe de bulk gaat klokken valt nog wel te bezien.
Het is logisch dat er nu nog maar een 'enkeling' is die 10% overklok haalt op de core. Een enkeling heeft namelijk nog maar de X1800XT. Trek dus voorlopig nog maar geen voorbarige conclusies over de overklokbaarheid van de X1800XT. Er zijn genoeg 'newbies' die dit topic lezen en heel snel geloven wat hier in dit topic gezegd wordt. Lezen ze 1x dat de G70 zgn "efficienter" is dan de R520 dan geloven ze dit meteen zonder even verder te kijken. Laten we nog even wachten tot november.
En om even een klein beetje te bitchen betreffende dat "G70 wint net"... het verschil in 3DMark05 (!!) bedraagd 6% (Driverheaven) om 9% (Xtremesystems)... als het resultaat andersom was geweest zou dat "behoorlijk" zijn geweest, dus wel een beetje consequent blijven he ;)
Verder zou ik het verschil - in de Driverheaven gametests - van ~10% in CounterStrike Source (normaal een ATi prefererende game) en 50% in Doom3 - beide in het voordeel van de GTX - nou niet echt "wint net" willen noemen... ;)
Stop me alsjeblieft geen woorden in de mond. Daar ben ik niet zo van gediend. :> Het valt me wel vaker op dat mensen dat hier vaker doen. Daar moet toch echt een eind aan komen.

Een verschil van minder dan 900 punten als we toch al rond de de 10K zitten vind ik 'net'. Als je het over 900 punten verschil hebt en je spreekt nog over een 5K range, dan is dat al een heel verschil (zou ik dus "groot verschil" noemen). Net zoals 10fps verschil een wereld van verschil kan uitmaken als je spreekt over gemiddelde fps van 30, maar dit minder belangrijk is als je spreekt over een gemiddelde fps van 90. In het eerste kan het het verschil uitmaken tussen speelbaar of niet speelbaar op bepaalde resoluties. In het tweede geval zal het zowiezo speelbaar zijn en kan je zelfs nog beslissen om extra IQ opties aan te zetten.
FirefoxAG schreef op woensdag 12 oktober 2005 @ 11:24:
[...]
Ik wil je er wel wat om verwedden dat er geen 13% (op core & mem) factory overclocked X1800XT's gaan uitkomen (dus op 705/1700). Durf jij het ook aan?
Of is het dan weer "niet eerlijk"? ;)
Voor iemand die niet echt voor 'als'-situaties is, speculeer je toch een aardig eind weg. ;) En wat maakt het nou uit of er een fabrikant is die een X1800XT uitbrengt op 675 (dus 8% overklok) of eentje op 706,25Mhz (13%)? :? Of is de kaart die 13% overgeklokt is dan superieur aan de ander? :+
Op memory is het sowieso logisch dat met de GTX vaak geen TOP snelheden gehaald worden omdat de GTX (nog) gebruik maakt van 1,6ns geheugen (gespecificeerd op 1250mhz)... slechts een selectie daaruit haalt 1350mhz of meer...
Over het geheugen valt ook nog te twisten. Sneller geheugen heeft een aantal nadelen voor bepaalde operations die door de hoge snelheid min of meer opgeheven worden. De X1800XT heeft timings die precies geoptimaliseerd zijn voor 1.5Ghz. Klok je dit naar beneden, dan blijf je de nadelen voor die bepaalde operations behouden en doe je ook nog eens het nut van de strakke timings teniet. Klok je dit over dan is het juist omgekeerd het geval. Het geheugen op de G70 is langzamer en heeft dus minder last van de nadelen van sneller geheugen. Klok je dit over dan blijven die nadelen weg, maar geniet je wel van de hogere snelheid.

Zo zijn er nog tal van redenen te noemen die een echte vergelijking moeilijk maken. Ik kan me voorstellen dat zo'n vergelijking interessant kan zijn voor een aantal mensen, maar eigenlijk heb je er verder niets aan. Feit is gewoon dat de X1800XT gelanceerd wordt op 625Mhz en niet op 450Mhz. En op 625Mhz doet de X1800XT gewoon goed z'n werk.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nieuwsflash: Techreport over Radeon X1K,Physics en GPGPU

Tech Report heeft een artikel online gezet waarin ze wat vertellen over de Radeon X1K en Physics en general purpose computing. Ze vertellen dat (zoals al min of meer eerder verteld was) dat ATi hun X1K launch aftrapten met de X1K-serie in een physics demo. Deze demo draaide op een CrossFire setup waar de ene X1K de graphics renderde en de andere de physics berekende.

Deze demo was bedoeld als richting waarin ATi graag op wil gaan. ATi wil dus duidelijk ook meeprofiteren van de markt die AGEIA probeert aan te boren, terwijl nVidia dit juist niet doet. Op dit moment wordt de PhysX API heel erg gepushed, dus zou ATi in zee moeten gaan met bv Havok om goed voet aan de grond te krijgen. Dit zou echter leiden tot verschillende APIs en daar is niemand echt bij gebaat.
This demonstration was more important as a statement of position and direction for ATI than anything else. NVIDIA has been rather enigmatic about any plans for physics processing, and has seemed to step out of AGEIA's way for the most part, welcoming the PhysX effort as another means of improving PC gaming. ATI is clearly ready and willing to take on AGEIA's PhysX card by using its GPUs for physics simulation, and the company believes that the more general programmability of its Shader Model 3.0 implementation in the Radeon X1000 series could make it a viable competitor there.
Bron: http://techreport.com/onearticle.x/8887

Maar Microsoft kan hier wellicht uitkomst bieden aangezien ze ook bezig zijn om Physics in DirectX te integreren.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 61946

Anoniem: 54475 schreef op woensdag 12 oktober 2005 @ 09:22:
[...]


Het gezemel over appels en peren vindt ik absoluut totale onzin, het zijn 2 verschillende architecturen, met elk een andere wijze van functioneren/ benadering. Nv heeft bij haar benadering van de G70 de nadruk gelegd op het "veredelen" van de NV40 met extra pipes, en ATI is met de R520 een ander pad opgegaan, namelijk gewoon een complete nieuwe achitectuur, die leunt op hoge snelheden.
Dus geen appels vs peren dus, gewoon een andere benadering van efficientie, en elke fabrikant geeft op zijn eigen manier dan invulling aan. 8)7
2 verschillende architecturen is dus appels en peren. Je kunt alleen het eindresultaat goed met elkaar vergelijken daar er teveel onbekende parameters in de vergelijking zitteb. Zeker als je onderwerpen als "wetenschappelijk onderzoek" erbij gaat halen.

Anoniem: 54475

CJ schreef op woensdag 12 oktober 2005 @ 12:25:
Nieuwsflash: Techreport over Radeon X1K,Physics en GPGPU

Tech Report heeft een artikel online gezet waarin ze wat vertellen over de Radeon X1K en Physics en general purpose computing. Ze vertellen dat (zoals al min of meer eerder verteld was) dat ATi hun X1K launch aftrapten met de X1K-serie in een physics demo. Deze demo draaide op een CrossFire setup waar de ene X1K de graphics renderde en de andere de physics berekende.

Deze demo was bedoeld als richting waarin ATi graag op wil gaan. ATi wil dus duidelijk ook meeprofiteren van de markt die AGEIA probeert aan te boren, terwijl nVidia dit juist niet doet. Op dit moment wordt de PhysX API heel erg gepushed, dus zou ATi in zee moeten gaan met bv Havok om goed voet aan de grond te krijgen. Dit zou echter leiden tot verschillende APIs en daar is niemand echt bij gebaat.


[...]

Bron: http://techreport.com/onearticle.x/8887

Maar Microsoft kan hier wellicht uitkomst bieden aangezien ze ook bezig zijn om Physics in DirectX te integreren.
Das goed nieuws!! Zo zie je wel dat de tactiek van ATI heel anders is dan gewoon de "snelste"te zijn.. Ik denk dat de sceptici in dit forum dit niet doorhadden |:( . Het gaat ze niet in het bijzonder om de snelheid, maar dus ook om meer... _/-\o_

Anoniem: 54475

Anoniem: 61946 schreef op woensdag 12 oktober 2005 @ 12:26:
[...]


2 verschillende architecturen is dus appels en peren. Je kunt alleen het eindresultaat goed met elkaar vergelijken daar er teveel onbekende parameters in de vergelijking zitteb. Zeker als je onderwerpen als "wetenschappelijk onderzoek" erbij gaat halen.
Biertje d'r bij? :O
Kijk es ff naar beneden!

[Voor 6% gewijzigd door Anoniem: 54475 op 12-10-2005 12:39. Reden: just because I feel like it]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Het gaat weer lekker old scool voor wat betreft de beschikbaarheid in Europa :|
Een vos verleerd z'n streken niet..........

Niet op voorraad.


  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 06:45
Anoniem: 54475 schreef op woensdag 12 oktober 2005 @ 12:37:
[...]


Das goed nieuws!! Zo zie je wel dat de tactiek van ATI heel anders is dan gewoon de "snelste"te zijn.. Ik denk dat de sceptici in dit forum dit niet doorhadden |:( . Het gaat ze niet in het bijzonder om de snelheid, maar dus ook om meer... _/-\o_
Goed nieuws? Ik vind het prima dat Ati wil laten zien waar de nieuwste videokaarten toe in staat zijn, maar laat dat alsjeblieft niet leiden tot verschillende (gesloten?) standaarden, waarbij spellen gewoon niet draaien op een gpu van een andere fabrikant die snel genoeg zou moeten zijn om zo'n spel te draaien.

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 26-05 18:53

Pubbert

random gestoord

Tja, ATi weet meer als ons, dus ook vast en zeker meer naar de vordering van Physics in Direct-X.

En DX9 is gewoon de marktleidende API, en nvidia heeft al een keer een gruwelijke (FX) fout gemaakt, door de DX standaard niet te volgen.

Niet meer dan logisch dat ATi MS braaft volgt hierin, als CJ's verhaaltje tenminste slaat op het overnemen van Physics funkties die door DX voorgeschreven worden (zodat de CPU dat niet hoeft te doen, en die zich met andere intensieve taken bezig kan houden)

[Voor 3% gewijzigd door Pubbert op 12-10-2005 13:18]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Anoniem: 54475

biobak schreef op woensdag 12 oktober 2005 @ 13:13:
[...]

Goed nieuws? Ik vind het prima dat Ati wil laten zien waar de nieuwste videokaarten toe in staat zijn, maar laat dat alsjeblieft niet leiden tot verschillende (gesloten?) standaarden, waarbij spellen gewoon niet draaien op een gpu van een andere fabrikant die snel genoeg zou moeten zijn om zo'n spel te draaien.
Denk ik niet, ik denk dat dat niet in de implementatie is van de nieuwe DirectX standaard, maar tsja... het is voornamelijk wat de spellenmakers ermee doen.. heb je nu ook al: spellen die beter draaien op NV kaarten, en spellen die beter draaien op ATI hardware... 't is gewoon wie de benen spreidt zou je welhaast zeggen, dus daar kun je op voorhand niets op zeggen.. De toekomst zal het leren. :O

  • darkphoenix
  • Registratie: November 2002
  • Laatst online: 01-10-2022
kunnen we de topic naam niet veranderen in: "ik weet het beter, clash of the fanboys"

ohhh nou bemoei ik me ermee, ik zoek al een schuilplaats. :X

ik wacht de volgende generatie af met een (hopelijk) duidelijk verschil in performance.

Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver


  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 06:45
Anoniem: 54475 schreef op woensdag 12 oktober 2005 @ 13:22:
[...]


Denk ik niet, ik denk dat dat niet in de implementatie is van de nieuwe DirectX standaard, maar tsja... het is voornamelijk wat de spellenmakers ermee doen.. heb je nu ook al: spellen die beter draaien op NV kaarten, en spellen die beter draaien op ATI hardware... 't is gewoon wie de benen spreidt zou je welhaast zeggen, dus daar kun je op voorhand niets op zeggen.. De toekomst zal het leren. :O
Maar er is een verschil in beter draaien en niet draaien. En als ik dan moet kiezen tussen Ati voor HL3 of nVidia voor Quake 5.5, dan weet ik het niet meer. In elk geval is het slecht voor de markt, want uiteindelijk moet 1 van beide partijen misschien wel het onderspit delven = winnaar kan vragen wat ie wil voor een videokaart.
Ik ben zelf meer een voorstander van open standaarden. OpenGL, OpenAL, OpenPL(??).

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Worden jullie nu niet moe van die eindeloze discussie over efficientie en overclockbaarheid en zo ? :D

Ik bedoel de X1800 serie clockt lekker mede door zijn betere geheugen modules. Nou we zullen zien of nVidia dan ook dure modules op hun 512 mb kaart stopt Anders is het jammer en is die X1800 gewoon de OC king. Want tja anders zou ATi ook 1 ns modules er op kunnen zetten en dan is het ook weer niet eerlijk. Eindeloze discussie. nVidia heeft gewoon 1.6ns (geloof ik) en de XT 1.26 ns win voor de XT dus...

Nvidia wint weer met beschikbaarheid en zo is het altijd wat.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Anoniem: 54475

biobak schreef op woensdag 12 oktober 2005 @ 14:42:
[...]

Maar er is een verschil in beter draaien en niet draaien. En als ik dan moet kiezen tussen Ati voor HL3 of nVidia voor Quake 5.5, dan weet ik het niet meer. In elk geval is het slecht voor de markt, want uiteindelijk moet 1 van beide partijen misschien wel het onderspit delven = winnaar kan vragen wat ie wil voor een videokaart.
Ik ben zelf meer een voorstander van open standaarden. OpenGL, OpenAL, OpenPL(??).
Daar heb je uiteraard gelijk in, echter het gaat om commercie, en dat speelt behoorlijk in op de ontwikkeling van spellen, wat uiteraard soms best wel jammer is. Aan de andere kant zorgt het voor de doorontwikkelingen van andere features, dus dat is weer leuk meegenomen....

Elk voordeel heb z'n nadeel en vice versa...... :X

[Voor 7% gewijzigd door Anoniem: 54475 op 12-10-2005 15:07]


Anoniem: 109887

Astennu schreef op woensdag 12 oktober 2005 @ 14:56:
Worden jullie nu niet moe van die eindeloze discussie over efficientie en overclockbaarheid en zo ? :D

Ik bedoel de X1800 serie clockt lekker mede door zijn betere geheugen modules. Nou we zullen zien of nVidia dan ook dure modules op hun 512 mb kaart stopt Anders is het jammer en is die X1800 gewoon de OC king. Want tja anders zou ATi ook 1 ns modules er op kunnen zetten en dan is het ook weer niet eerlijk. Eindeloze discussie. nVidia heeft gewoon 1.6ns (geloof ik) en de XT 1.26 ns win voor de XT dus...

Nvidia wint weer met beschikbaarheid en zo is het altijd wat.
Hehe eens iemand die hetzelfde denkt als ik , Waarom maakt ATi en NVidia niet een kaart samen dan zou je hier die discussie's niet meer hebben Dat ATi is beter of NVidia is beter . BTW lijkt me wel een geil kaartje X7800XT Ultra Edition _/-\o_ .

Anoniem: 98389

Anoniem: 109887 schreef op woensdag 12 oktober 2005 @ 15:11:
[...]


Hehe eens iemand die hetzelfde denkt als ik , Waarom maakt ATi en NVidia niet een kaart samen dan zou je hier die discussie's niet meer hebben Dat ATi is beter of NVidia is beter . BTW lijkt me wel een geil kaartje X7800XT Ultra Edition _/-\o_ .
IDD _/-\o_

het gezeur over wel of niet kunnen vergelijken :r Dit gaat toch om het laatste nieuwe, behaalde scores etc
Efficientie is zeker een discussiepunt. Dus ook geschikt voor dit topic. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het gezeur zou er niet zijn als fanboys aan hun kant van de lijn bleven, iedereen het openminded bezag en niemand zijn mening zou doordringen. Maar dat is utopie, vooral nu het ATI topic target Nr. 1 is geworden...

Anoniem: 79835

Anoniem: 109887 schreef op woensdag 12 oktober 2005 @ 15:11:
[...]


Hehe eens iemand die hetzelfde denkt als ik , Waarom maakt ATi en NVidia niet een kaart samen dan zou je hier die discussie's niet meer hebben Dat ATi is beter of NVidia is beter . BTW lijkt me wel een geil kaartje X7800XT Ultra Edition _/-\o_ .
Geen discussies in een discussie topic .... goed idee :z

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

@CJ:
Ik ga niet in op het architectuur verhaal, gezien me/ons van iets probeert te overtuigen dat iedereen al lang weet. Samengevat: de architecturen van R520 en G70 verschillen.
De verdere details waar je mee komt doen er eigenlijk weinig toe, en de analogie met P4/A64 gaat niet op omdat het architectuurverschil tussen R520 en G70 een stuk kleiner is dan bij eerdergenoemde 2.

Waar het om gaat is dat we de efficientie van de architecturen willen vergelijken. Ik geef aan dat ik denk dat dit het best kan door de boel "stock" te vergelijken met gelijkgeklokt geheugen. Nu zeg jij daarop een paar dagen terug in ditzelfde topic:
CJ schreef op zaterdag 08 oktober 2005 @ 06:51:
Een 16 pipes X1800XT @ 625Mhz en 256MB mem op 1.2Ghz wil je vergelijken met een 430 (of in jouw geval dan waarschijnlijk 490) Mhz 7800GTX met 256MB mem op 1.2Ghz? En dan wil je daarover een conclusie trekken over de efficientie van beide cores? Dan zal je toch eerst even 8 pipelines van de 7800GTX moeten uitschakelen en 195Mhz (of in jouw geval 135Mhz) van de X1800XT af moeten halen. Anders zal je nooit de efficientie van de beide cores kunnen vergelijken. Zowiezo gaat het moeilijk omdat het twee verschillende architecturen zijn, eentje met traditionele pipelines, de ander met een ultra-threading core, lostgekoppelde texture units, beter te programmeren memorycontroller etc. Het gemakkelijkste is het daarom om een eikpunt te nemen, bijvoorbeeld de standaard referentiesnelheden.
Vervolgens doet tot mijn stomme verbazing Driverheaven exact die test die jij voorstelt even later - waaruit tot zo'n beetje ieders verrassing blijkt dat G70 de betere performance levert - en prompt ga je alles uit de kast halen om iedereen er van te overtuigen dat deze test onzin is, je zo niet kunt vergelijken, en eigenlijk dat nV word bevoordeeld.
Wat is de volgende stap: Driverheaven nVidia biased verklaren?? :+

Waar het mij om gaat is dat je niet consequent bent waar het vergelijkingen tussen ATi en nV aangaat, en dit wil ik je ook laten zien door - zoals jij zegt - je woorden in de mond te leggen. Gezien de afgelopen paar topics kan ik namelijk exact van te voren vertellen hoe je gaat reageren op bepaalde informatie... "pro" X1800XT word grondig belicht, "anti" X1800XT word onder de tafel geveegd... noem het voorspellende gaven :+
Dat je biased bent is prima, maar blijf a.j.b. wel consequent... als je 900 punten weinig vind als nV die voorsprong heeft, zijn de 900 punten waarmee een stock X1800XT wint van een stock 7800GTX ook weinig. Zo dat laatste niet weinig is, is het eerste het ook niet. Zo eenvoudig is het.

Interessant is dat iedere vergelijking waarbij de R520 en G70 dichter bij elkaar worden gebracht voor een "eerlijker" vergelijking van jou "niet mag".
* Een 7800GTX TOP in de vergelijking mag niet, ondanks dat deze kaart - in tegenstelling tot ... - gewoon reeds beschikbaar is voor ongeveer hetzelfde bedrag als een standaard 7800GTX... en dus een lager bedrag dan de X1800XT
* Een clock-voor-clock vergelijking mag niet meer (ondanks je eerdere post), omdat G70 daarbij beter blijkt te presteren (ow sorrie, omdat de architectuur verschilt ;)). Was alleen vast geen probleem geweest als die R520 naar verwachting gewonnen had.
* En nu mag ook een vergelijking met cores default en gelijkgeklokt geheugen niet meer omdat R520, "speciaal geoptimaliseerd voor 1500mhz i.i.t. G70" (riiight)

Je zou toch haast denken dat je ergens bang voor bent :P
CJ schreef op woensdag 12 oktober 2005 @ 12:15:
Voor iemand die niet echt voor 'als'-situaties is, speculeer je toch een aardig eind weg. ;) En wat maakt het nou uit of er een fabrikant is die een X1800XT uitbrengt op 675 (dus 8% overklok) of eentje op 706,25Mhz (13%)? :? Of is de kaart die 13% overgeklokt is dan superieur aan de ander?
Om deze aanhaling even terug in verband te brengen: de vraag ging er over of het waarschijnlijk was dat een stock GTX beter overklokt dan een stock XT. Ik mag wel hopen dat we dat percentueel gaan bekijken natuurlijk... vandaar de vraag of hij een 13% factory overclocked XT @705/1700 waarschijnlijk acht ;)
En om zodoende antwoord te geven op je 2e vraag: JA, een 13% factory overclock is superieur aan een 8% factory overclock... maar dat hoef ik je hopelijk niet te vertellen toch? :>

Wat betreft die post van The Source die men hier met plezier gebruikt om me om mijn oren te meppen... ik zal daar later even op terug komen met wat common sense... moet nu weg ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Over die test van driverheaven:

Ze hadden dan ook moeten testen met een GTX @ 625-1500 MHz en een XT op die speed. Ik denk dat je dan het omgekeerde resultaat krijgt omdat de XT wat beter schaald op clock speeds. Jammer genoeg zullen we die tests wel niet zien.

Ik heb igg een kaart gereserveerd mischien weet ik over 2 weken meer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 26-05 18:53

Pubbert

random gestoord

Hmm, de 7800GTX TOP is nu zelfs ook nergens meer te krijgen, een maat probeerd er al bijna 2 weken 1 te bemachtigen, staat zelfs een topic in de VB wat dat ook min of meer bevestigd dat hij neit de enige is die er 1 kan vinden.

Blijkbaar kan elke fabrikant dus problemen met de yieldrates krijgen ;)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
Astennu schreef op woensdag 12 oktober 2005 @ 15:52:
Over die test van driverheaven:

. Ik denk dat je dan het omgekeerde resultaat krijgt omdat de XT wat beter schaald op clock speeds. Jammer genoeg zullen we die tests wel niet zien.

.
hoe kom je erbij dat de xt betr schaalt op clockspeeds...hier staat een gtx die op 640/1700 draait..en hiermee haalt ie 11.399 3dmarks.....het geheugen gaat idd wat moeilijker omhoog dan bij de r520, maar zodra dat omhoog gaat (zoals hier @ 2.8volt :/ ), gaat de score ook evenredig mee omhoog...de core draait dus eigenlijk maar 15mhz hoger dan die van een r520...je ziet dus dat de g70 net zo veel voordeel heeft dan de r520 met sneller geheugen (alleen de core is wat sneller)

dus zoals je ziet schaalt de g70 dus eigenlijk nóg beter (ipv omgekeerde resultaat) als ie sneller geheugen tot z'n beschikking heeft :+

effe voor de duidelijkheid....die x1800xt waar 12.229 pntn mee is behaald, draaide op 877core en 1980mem+een fx @ 3.6gig......en de snelste kaart tot nu toe in de ORB was die 7800gtx op 810/1521 + een fx @ 3.7gig

dus je kan wel op 2 vingers uittellen wat een g70 doet met sneller geheugen (en 512mb)....die maakt gehakt van een r520 :Z (of mag ik dat niet zeggen?)

dus ik vermoedt hoop dat die 512mb gtx ook wat sneller geheugen heeft, maar ik denk van wel, omdat dat een half jaar geleden nog te duur was, en nou ook makkelijker verkrijgbaar is...
Krizzie schreef op woensdag 12 oktober 2005 @ 16:16:
[...]


Vind jij maar eens een GTX die dat haalt :P

.
voila


[offtopic]
hier lopen gewoon héél veel mensen rond die een erkend verhuisbedrijf nodig hebben om die plank voor hun hoofd mee te sjouwen :X

ik ben helemaal geen ati/nvidia fan....maar wil gewoon de snelste kaart hebben die verkrijgbaar is....nou heb ik een 6800ultra, omdat dat toen de snelste was (ja..de x850xt is sneller, maar die kwam pas 3 maanden later, en zoveel geld heb ik nou ook weer niet).....de r520 zoals die nu bekend is, is idd iéts beter/sneller dan de 7800gtx, máár hij is nog niet te verkrijgen, en nvidia heeft alweer een 512mb versie aangekondigt op 5 november......dán ga ik pas de uiteindelijke beslissing maken r520/g70.....zolang ze er allebei nog niet zijn (behalve dan de ''geselecteerde'' kaarten waarvan je nou overal de score's ziet) valt er ook nog weinig te vergelijken, behalve wat ''theorie''

[Voor 70% gewijzigd door Mr. Detonator op 12-10-2005 19:04]


  • Pimmuz
  • Registratie: Mei 2003
  • Laatst online: 27-05 18:09

Pimmuz

Roar

Thund3r schreef op woensdag 12 oktober 2005 @ 15:56:
Hmm, de 7800GTX TOP is nu zelfs ook nergens meer te krijgen, een maat probeerd er al bijna 2 weken 1 te bemachtigen, staat zelfs een topic in de VB wat dat ook min of meer bevestigd dat hij neit de enige is die er 1 kan vinden.

Blijkbaar kan elke fabrikant dus problemen met de yieldrates krijgen ;)
Vergeet niet dat XFX ook een TOP versie heeft alleen dan Extreme genaamd

Maar leuk dat je hier even over mijn topic verteld :)

Asus heeft idd flinke problemen met het leveren van de TOP kaarten

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Wat een energie in een discussie die eigenlijk helemaal niet relevant is :D

De prestatie van de kaart wordt bepaald zoals en tot zover hij in real life kan opereren.
Dit betekend overigens totale dominatie van NV vooralsnog, omdat de X1800 wederom uitblinkt in het afwezig blijven.

offtopic:
Ik kan er nog steeds niet over uit dat ATI weer zon paperlaunch lijkt te flikken.

Niet op voorraad.


  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 27-05 14:01

Krizzie

Progressive Music \o/

Astennu schreef op woensdag 12 oktober 2005 @ 15:52:
Over die test van driverheaven:

Ze hadden dan ook moeten testen met een GTX @ 625-1500 MHz en een XT op die speed. Ik denk dat je dan het omgekeerde resultaat krijgt omdat de XT wat beter schaald op clock speeds. Jammer genoeg zullen we die tests wel niet zien.

Ik heb igg een kaart gereserveerd mischien weet ik over 2 weken meer.
Vind jij maar eens een GTX die dat haalt :P

Zullen er vast niet veel zijn.

Wat valt er dan te vergelijken? Een GTX op 625Mhz vs een XT op 625Mhz is een eitje voor de GTX om te winnen, aangezien hij op 430 ook al weinig moeite heeft om de XT bij te houden. :?
Ook al zet je 8 pipes uit op de GTX dan wint hij het nog wel hoor.

Geluidswolk


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:44
ik hoop het!
darkphoenix schreef op woensdag 12 oktober 2005 @ 14:39:
kunnen we de topic naam niet veranderen in: "ik weet het beter, clash of the fanboys"
het wordt er idd niet veel beter op de laatste tijd... :Z

offtopic:
@firefox: zeker geen kalkaanslag in de wc? ;)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Krizzie schreef op woensdag 12 oktober 2005 @ 16:16:
[...]


Vind jij maar eens een GTX die dat haalt :P

Zullen er vast niet veel zijn.

Wat valt er dan te vergelijken? Een GTX op 625Mhz vs een XT op 625Mhz is een eitje voor de GTX om te winnen, aangezien hij op 430 ook al weinig moeite heeft om de XT bij te houden. :?
Ook al zet je 8 pipes uit op de GTX dan wint hij het nog wel hoor.
Dat hoeft niet perse. Dan kan het zijn dat de ATi kaart de pipe efficienter en sneller van opdrachten kan voorzien waardoor deze sneller is dan de GTX. Maar idd Nvidia haald die speeds niet dus we zullen het nooit kunnen testen. Maar het kan zeker wel dat een achitectuur op hogere snelheden % meer winst boekt dan op lagere.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 27-05 14:01

Krizzie

Progressive Music \o/

Maar ik snap niet waarom je uberhaubt op 625 wil testen want op 430 is de GTX ook al sneller in sommige apps, dan kan de XT wel beter schalen maar een GTX op 625 blijft altijd sneller dan een XT op 625. Misschien als je de snelheden nog hoger maakt dat de XT dan weer terug krabbelt maar zo hoog komt een GTX toch niet. :)

Zelfde geld voor het geheugen, als de XT op 1500Mhz de GTX net bij kan houden en soms verslaat wat heeft het dan voor nut om de XT op 1200Mhz te laten lopen zo dat de efficiëntie bekeken kan worden van de core's? De GTX wint dan alleen maar makkelijker. :?

Geluidswolk


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Krizzie schreef op woensdag 12 oktober 2005 @ 16:38:
Maar ik snap niet waarom je uberhaubt op 625 wil testen want op 430 is de GTX ook al sneller in sommige apps, dan kan de XT wel beter schalen maar een GTX op 625 blijft altijd sneller dan een XT op 625. Misschien als je de snelheden nog hoger maakt dat de XT dan weer terug krabbelt maar zo hoog komt een GTX toch niet. :)

Zelfde geld voor het geheugen, als de XT op 1500Mhz de GTX net bij kan houden en soms verslaat wat heeft het dan voor nut om de XT op 1200Mhz te laten lopen zo dat de efficiëntie bekeken kan worden van de core's? De GTX wint dan alleen maar makkelijker. :?
Joh jij snapt mij echt niet of wel ?

Okeey nu anders dan.

Als ik een 9800 Pro pak op 200 MHz gpu en 200 MHz mem. Ik ik clock deze naar 400 gpu en 400 mem. Is hij niet 2x zo snel in games. mischien 80% sneller. Een XI800 gaat mischien wel van 200 gpu en mem naar 400 gpu/mem met 90 % prestatie winst omhoog. En dat is wat ik bedoel. En dat zou bij de GTX mischien ook wel zo kunnen zijn dat hij dan wel meer of minder % omhoog gaat. Dit hier boven is een voorbeeld !!! Maar mischien is he tnu wel duidelijk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
edward2 schreef op woensdag 12 oktober 2005 @ 16:14:
offtopic:
Ik kan er nog steeds niet over uit dat ATI weer zon paperlaunch lijkt te flikken.
Alternate.de meldt half oktober voor de X1800XL, Nederland zal niet veel langer duren. Denk dat je nog een weekje geduld moet hebben Edward.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Anoniem: 38733 schreef op woensdag 12 oktober 2005 @ 16:46:
[...]


Alternate.de meldt half oktober voor de X1800XL, Nederland zal niet veel langer duren. Denk dat je nog een weekje geduld moet hebben Edward.
De verwachting is nu nar 1 a 2 weken voor NL dus....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Anoniem: 38733 schreef op woensdag 12 oktober 2005 @ 16:46:
[...]


Alternate.de meldt half oktober voor de X1800XL, Nederland zal niet veel langer duren. Denk dat je nog een weekje geduld moet hebben Edward.
Ik wacht zelf op de XT, maar ik denk dat het daarmee niet beter gesteld is.

Niet op voorraad.


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
edward2 schreef op woensdag 12 oktober 2005 @ 16:59:
[...]


Ik wacht zelf op de XT, maar ik denk dat het daarmee niet beter gesteld is.
Dikke price gouging straks weer :D
Kun je voor 800+ dollar van ebay ongetwijfeld wel een XTje op de kop tikken :P

specs desktop | specs laptop

FirefoxAG schreef op woensdag 12 oktober 2005 @ 15:31:
@CJ:
Ik ga niet in op het architectuur verhaal, gezien me/ons van iets probeert te overtuigen dat iedereen al lang weet. Samengevat: de architecturen van R520 en G70 verschillen.
De verdere details waar je mee komt doen er eigenlijk weinig toe, en de analogie met P4/A64 gaat niet op omdat het architectuurverschil tussen R520 en G70 een stuk kleiner is dan bij eerdergenoemde 2.

Waar het om gaat is dat we de efficientie van de architecturen willen vergelijken. Ik geef aan dat ik denk dat dit het best kan door de boel "stock" te vergelijken met gelijkgeklokt geheugen. Nu zeg jij daarop een paar dagen terug in ditzelfde topic:
[...]
Vervolgens doet tot mijn stomme verbazing Driverheaven exact die test die jij voorstelt even later - waaruit tot zo'n beetje ieders verrassing blijkt dat G70 de betere performance levert - en prompt ga je alles uit de kast halen om iedereen er van te overtuigen dat deze test onzin is, je zo niet kunt vergelijken, en eigenlijk dat nV word bevoordeeld.
Wat is de volgende stap: Driverheaven nVidia biased verklaren?? :+

Waar het mij om gaat is dat je niet consequent bent waar het vergelijkingen tussen ATi en nV aangaat, en dit wil ik je ook laten zien door - zoals jij zegt - je woorden in de mond te leggen. Gezien de afgelopen paar topics kan ik namelijk exact van te voren vertellen hoe je gaat reageren op bepaalde informatie... "pro" X1800XT word grondig belicht, "anti" X1800XT word onder de tafel geveegd... noem het voorspellende gaven :+
Dat je biased bent is prima, maar blijf a.j.b. wel consequent... als je 900 punten weinig vind als nV die voorsprong heeft, zijn de 900 punten waarmee een stock X1800XT wint van een stock 7800GTX ook weinig. Zo dat laatste niet weinig is, is het eerste het ook niet. Zo eenvoudig is het.
Ja, dat zei ik inderdaad, maar ik was te kort door de bocht en stond niet stil bij alle andere architecturele verschillen. Simpel zat. Of mag een mens z'n mening niet veranderen nadat hem meer relevante informatie ter ore is gekomen? Als dat het geval zou zijn, dan blijf je inderdaad vaak in hokjes van ATi is the best of nVidia rules denken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Mr. Detonator schreef op woensdag 12 oktober 2005 @ 16:07:
[...]


hoe kom je erbij dat de xt betr schaalt op clockspeeds...hier staat een gtx die op 640/1700 draait..en hiermee haalt ie 11.399 3dmarks.....het geheugen gaat idd wat moeilijker omhoog dan bij de r520, maar zodra dat omhoog gaat (zoals hier @ 2.8volt :/ ), gaat de score ook evenredig mee omhoog...de core draait dus eigenlijk maar 15mhz hoger dan die van een r520...je ziet dus dat de g70 net zo veel voordeel heeft dan de r520 met sneller geheugen (alleen de core is wat sneller)

dus zoals je ziet schaalt de g70 dus eigenlijk nóg beter (ipv omgekeerde resultaat) als ie sneller geheugen tot z'n beschikking heeft :+
Zie mijn eerdere post hier. Daaruit blijkt dat een G70 op dezelfde kloksnelheden als een X1800XT minder goed profiteert van de 8 extra pipelines. Performance schaalt minder snel mee dan je zou verwachten van 24 pipes.

Lees voor de gein ook de rest eens over timings van het geheugen etc voordat je conclusies maakt over wie er beter mee schaalt op hogere kloksnelheden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
De 512 mb 6800 Ultra:

http://www.muropaketti.com/artikkelit/video/xfx6800u512/testit_3dmark03.png
http://www.muropaketti.com/artikkelit/video/xfx6800u512/testit_3dmark05.png

[Voor 4% gewijzigd door Astennu op 12-10-2005 20:09]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
CJ schreef op woensdag 12 oktober 2005 @ 17:24:
[...]


Daaruit blijkt dat een G70 op dezelfde kloksnelheden als een X1800XT minder goed profiteert van de 8 extra pipelines. Performance schaalt minder snel mee dan je zou verwachten van 24 pipes.

.
misschien ligt dat wel aan 3dmark2005 die er niet goed van profiteerd ! (zoals al eerder aangegeven is, omdat een gtx met 8pipes disabled niet ineens 1/3 minder punten oplevert)

[Voor 13% gewijzigd door Mr. Detonator op 12-10-2005 18:34]


  • _the_crow_
  • Registratie: September 2000
  • Laatst online: 26-05 09:26

_the_crow_

Rare vogel

Je bedoelt hiermee dat dit bij de GTX hetzelfde resultaat zal hebben? Want dit is de 6800Ultra 512MB. :P

Schrödingers cat: In this case there are three determinate states the cat could be in: these being Alive, Dead, and Bloody Furious.


  • Thefirstikke
  • Registratie: Juni 2000
  • Laatst online: 08:56
Misschien is deze vraag al tig keer voorbij gekomen, maar ik stel 'm toch maar, want ook met de site van ati zelf kom ik er niet meer uit. Wat is het verschil tussen de volgende versies van de X800 chips:

X800
X800 pro
X800 XT
X800 XL
X800 RX
X800 GT
X800 GTO
X800 GTO2

En wat is nu de snelste variant, en welke de langzaamste? Er even vanuit gaan dat ze allemaal 256mb onboard hebben.

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
_the_crow_ schreef op woensdag 12 oktober 2005 @ 18:34:
[...]
Je bedoelt hiermee dat dit bij de GTX hetzelfde resultaat zal hebben?
waarschijnlijk bedoeld ie dat ja....máár...een 6800ultra is niet snel genoeg om van 512mb te profiteren :|

  • _the_crow_
  • Registratie: September 2000
  • Laatst online: 26-05 09:26

_the_crow_

Rare vogel

Thefirstikke schreef op woensdag 12 oktober 2005 @ 18:35:
Misschien is deze vraag al tig keer voorbij gekomen, maar ik stel 'm toch maar, want ook met de site van ati zelf kom ik er niet meer uit. Wat is het verschil tussen de volgende versies van de X800 chips:

X800
X800 pro
X800 XT
X800 XL
X800 RX
X800 GT
X800 GTO
X800 GTO2

En wat is nu de snelste variant, en welke de langzaamste? Er even vanuit gaan dat ze allemaal 256mb onboard hebben.
Hier staat een artikel over de X800-versies en hun snelheden e.d. :)

Schrödingers cat: In this case there are three determinate states the cat could be in: these being Alive, Dead, and Bloody Furious.


Anoniem: 109887

Thefirstikke schreef op woensdag 12 oktober 2005 @ 18:35:
Misschien is deze vraag al tig keer voorbij gekomen, maar ik stel 'm toch maar, want ook met de site van ati zelf kom ik er niet meer uit. Wat is het verschil tussen de volgende versies van de X800 chips:

X800
X800 pro
X800 XT
X800 XL
X800 RX
X800 GT
X800 GTO
X800 GTO2

En wat is nu de snelste variant, en welke de langzaamste? Er even vanuit gaan dat ze allemaal 256mb onboard hebben.
Dat is een goeie ik weet het zelf bijna niet meer , In elk geval als je een kaart wilt kopen van deze dan ga voor de GTO2 en flash hem naar X850XT ( PE ) dan heb je 200 euro bespaard.

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 00:35
Anoniem: 110689 schreef op vrijdag 07 oktober 2005 @ 21:11:
Hihi, ik krijg maandag of dinsdag (afhankelijk van fed-ex' timing) een X1800 XT.
Nutteloos bericht, ja ik weet het. Maar ik moest het toch even kwijt :D
heb je die ondertussen al ?

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:44
ja ben ik ook benieuwd naar :)
en bewijs met pic's natuurlijk :+

[Voor 10% gewijzigd door Puppetmaster op 12-10-2005 19:17]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Mr. Detonator schreef op woensdag 12 oktober 2005 @ 18:42:
[...]


waarschijnlijk bedoeld ie dat ja....máár...een 6800ultra is niet snel genoeg om van 512mb te profiteren :|
Waarom een X800XL wel ? Deze heeft daar toch wel een aardig nut !

  • BlueForce
  • Registratie: Februari 2003
  • Laatst online: 24-04 14:04
Thefirstikke schreef op woensdag 12 oktober 2005 @ 18:35:
Misschien is deze vraag al tig keer voorbij gekomen, maar ik stel 'm toch maar, want ook met de site van ati zelf kom ik er niet meer uit. Wat is het verschil tussen de volgende versies van de X800 chips:

X800
X800 pro
X800 XT
X800 XL
X800 RX
X800 GT
X800 GTO
X800 GTO2

En wat is nu de snelste variant, en welke de langzaamste? Er even vanuit gaan dat ze allemaal 256mb onboard hebben.
Voor zover ik weet is de X800RX (Radeon Xtreme ofzow) gebaseerd op dezelfde structuur als de X800GT en zou deze hetzelfde presteren. Dat leid ik af uit de specs bij club3d.

Een beetje verlies heb je altijd...


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:44
Phuncz schreef op woensdag 12 oktober 2005 @ 19:50:
[...]
Waarom een X800XL wel ? Deze heeft daar toch wel een aardig nut !
maar dat was mn in COD2 (toch?) en niet 3DMark...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Phuncz schreef op woensdag 12 oktober 2005 @ 19:50:
[...]

Waarom een X800XL wel ? Deze heeft daar toch wel een aardig nut !
Ook niet alleen in bepaalde games maar in 3dmark scheelde het ook niet veel. En in andere games vaak 1% tot 3% met een aantal uischieters als CoD2 dan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 06:42

Aight!

'A toy robot...'

Was het eigenlijk te duur om een X850XT met 512MB te voorzien, dat was toch eigenlijk een betere keuze?X800XL was te langzaam, bij een X1800XT heeft het wel weer zin, maar bij een 7800GTX???

Heb ik zo ook mijn twijfels, misschien merk je het alleen op 1600x1200 SSAA 16xAF en HDR of Soft Shadows of iets dergelijks.

Anoniem: 109887

Nvidia gaat misschien 1.26NS gheugen gebruiken op hun 512MB 7800GTX

Bron : http://www.xtremesystems....p?t=76402&highlight=x1800

Dit ziet er niet al te best uit voor ATi :(

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 109887 schreef op woensdag 12 oktober 2005 @ 20:32:
Nvidia gaat misschien 1.26NS gheugen gebruiken op hun 512MB 7800GTX

Bron : http://www.xtremesystems....p?t=76402&highlight=x1800

Dit ziet er niet al te best uit voor ATi :(
Ik ben benieuwd naar de volgende zaken per 5 nov 2005:
  1. is de X1800XT direct en goed leverbaar.
  2. is de OGL driver van de X1800(XT) serie verbeterd.
  3. wat doet nVidia.
inzake punt 3 zou het mij idd niet verbazen als nVidia in ieder geval een 7800GTX 512mb zal introduceren die direct leverbaar is. Als hij niet direct te leveren zou zijn dan lijden ze imo gezichtsverlies. Bovendien zal nVidia dit hele belangrijke punt willen blijven uitmelken. Zeker nu duidelijk is dat ATI haar beloftes qua leverbaarheid vooralsnog weer niet heeft waargemaakt.

Verder verwacht ik idd ook 1.26ns geheugen op de nVidia alhoewel het mij niet duidelijk is hoeveel deze daarvan zal profiteren.

Maar ik ben ook benieuwd of nVidia nog een verrassing in petto heeft. 32 pipes ofzo ;)

[Voor 10% gewijzigd door Help!!!! op 12-10-2005 20:45]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Nja dan zullen ze hun geheugen ook wel op 1500 of 1400 mhz clocken. Zal toch wel iets of wat winst op leveren gok ik.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Fiddle
  • Registratie: Januari 2004
  • Niet online
Wanneer krijgen we dan daarvan benchmarks enzo te zien ?? Van die 7800 ultra met 512?

Asus ROG Strix X570-E Gaming, AMD Ryzen 7 5800X, NZXT Kraken X63, Zotac Gaming GeForce RTX 3080 Trinity OC, G.Skill Trident Z RGB, 2x Samsung 980 Pro 1TB, Fractal Design Define R6 USB-C, be quiet! Straight Power 11 750W


  • The Source
  • Registratie: April 2000
  • Laatst online: 26-05 14:50
Qua beschikbaarheid van de 1300 zit het wel goed, ligt van paar merken al in de winkels. 1800XL zit ook wel goed voor over weekje, helaas kleine aantallen, dus zal voor volume wel duren tot B/Nov. 850XT Crossfire master ligt volgende week ofzo in de winkels. Crossfire mainboards verwacht ik ook binnen 2 weken ofzo alhoewel ik hoorde dat iemand ze al aan het verschepen was... helaas zijn veel 'partners' erg terughoudend over het succes van Crossfire, niemand gelooft er erg in.

Anyway nVidia praat al over G80 :) nVidia bobo dag in amsterdam is altijd interessant.

Anoniem: 109887

The Source schreef op woensdag 12 oktober 2005 @ 21:45:
Qua beschikbaarheid van de 1300 zit het wel goed, ligt van paar merken al in de winkels. 1800XL zit ook wel goed voor over weekje, helaas kleine aantallen, dus zal voor volume wel duren tot B/Nov. 850XT Crossfire master ligt volgende week ofzo in de winkels. Crossfire mainboards verwacht ik ook binnen 2 weken ofzo alhoewel ik hoorde dat iemand ze al aan het verschepen was... helaas zijn veel 'partners' erg terughoudend over het succes van Crossfire, niemand gelooft er erg in.

Anyway nVidia praat al over G80 :) nVidia bobo dag in amsterdam is altijd interessant.
icomputers.nl heeft de DFI LanParty UT RDX200 Crosfire op voorraad. Maar weet je of de X1800XT ook per 5 Nov beschikbaar zal zijn, Of zal dit twee weken later worden voor Ned .

[Voor 4% gewijzigd door Anoniem: 109887 op 12-10-2005 21:53]

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee