[Algemeen] nVidia GeForce Topic! Deel 9 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 2.484 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 119772

^ feitelijke bewijzen zijn er natuurlijk niet. Maar het klinkt wel als logische marktwerking van concurrentie. De stelling doet er op zich ook niet zo toe.
Wat wel een feit is ; consument heeft in die prijsklasse aan Nvidia kant een
goede aankoop. Daar kan niemand aan tornen d8 ik zo.

....Of Ati moet de Pro plots drastisch in prijs laten dalen.....

Acties:
  • 0 Henk 'm!

Anoniem: 69333

True.

Acties:
  • 0 Henk 'm!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 16-10-2024
IceEyz schreef op 22 augustus 2004 @ 14:45:
joostve: Welke drivers heb je? Ik heb het in ieder geval niet met de 61.77
Met knipperen van beeld, bedoel je daarmee dat de monitor ff uit-/aangaat?

offtopic:
:9~
ik heb het met alle laaste drivers eigenlijk
elke keer als ik een nieuwe driver download hoop ik dat het over is maar nee

met mijn vorige windows install heb ik het ook gehad maar nu schiet me opeens tebinnen dat het misschien ook aan de video-encoders kan liggen
want het is alleen bij avi of mpeg en niet bij een wmv bijvoorbeeld

maar wat er gebeurt is dat het scherm gaat knipperen, (hetzelfde als wat er gebeurd als je van resolutie veranderd)

ik krijg het als ik zo'n bestand wil knippen/kopieren/verwijderen of het snelmenu wil opvragen.
heel vreemd allemaal
maar nu ik er zelf over zit te schijven kom ik eigenlijk tot de conclusie dat de nvidia drivers er niks mee te maken hebben.

C2D 6600, 275 GTX Windows 7


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Forceware 65.xx moet ook nog in't veld komen btw.....
Virtual Zone heeft haar benches geupdate met de 65.62 drivers.

http://www.vr-zone.com/?i=1193&s=5

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op 22 augustus 2004 @ 15:09:
[...]


Ik wil het activeren van de 16pipes op de Vivo en de normale Pro zeker geen "bijblijven" noemen zoals jij het noemt, eerder "voorbijstreven".
Je noemt het maar hoe je wil, maar het blijft gewoon een feit dat de X800Pro standaart de GT in 90% van de gevallen niet kan bijhouden. ;)
Als ik geheel onbevooroordeeld naar de algemene prestatie's kijk van een 6800GT tegenover een X800Pro@16pipesXT dan kan ik alleen maar concluderen dat de laatste de betere kaart is.
Dit is hetzelfde als het vergelijken van een X800Pro (standaart) met een 6800GT @ Ultra Extreme, oftewel een foute vergelijking. ;) Nogmaals GT is gewoon de betere kaart vergeleken met de X800Pro op standaart snelheden, en iedere kaart klokt verschillend over en met volgens jou 50% kans op een flash (wat ik behoorlijk weinig vind) weet je nooit of die overgeklokte Pro beter is dan de overgeklokte GT. ;)
Daarnaast is de koeler véél stiller en is de kaart liever voor je voeding.
Daarnaast is de kaart helemaal niet "vééél" stiller. Het ligt er maar aan welk merk je hebt. En allebij hebben een 350W voeding nodig en hebben allebij 1 molex connector (GT en Pro) en dan verbruikt hij wat meer stroom, dat neem ik graag voor lief voor betere performance in games. ;)

[ Voor 3% gewijzigd door Tyranium op 22-08-2004 18:27 ]


Acties:
  • 0 Henk 'm!

Anoniem: 69333

Ja je kunt het em ook uitgebreid even duidelijk uitleggen natuurlijk :). Mensen met Ati principe he |:(.

Acties:
  • 0 Henk 'm!

Anoniem: 94113

He is de merk Point of View goed.

Ik wil de GeForce 6800 128Mb van dat merk hallen.
Maar ik kan het nergen vinden of het nouw een goed merk is of nie.

Staat ook niet aan het begin.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Nogmaals GT is gewoon de betere kaart vergeleken met de X800Pro op standaart snelheden, en iedere kaart klokt verschillend over en met volgens jou 50% kans op een flash (wat ik behoorlijk weinig vind)
De kans op een succesvolle hardmod is 50%. Dit bij een "normale" Pro. De Pro Vivo is de kaart die enkel een biosflash nodig heeft om 16 pipes te krijgen, dit lukt 99 van de 100 keer.

[ Voor 38% gewijzigd door Anoniem: 38733 op 22-08-2004 19:18 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op 22 augustus 2004 @ 19:02:
[...]


De kans op een succesvolle hardmod is 50%. Dit bij een "normale" Pro. De Pro Vivo is de kaart die enkel een biosflash nodig heeft om 16 pipes te krijgen, dit lukt 99 van de 100 keer.
Dus je hebt ook 50% (of meer) kans dat het niet lukt.

Ik zou ook graag wat echte feiten/bewijzen willen hebben dat je zeker 50% kans hebt op een succesvolle hardmod. En daar bedoel ik die 4 kaarten die jij hebt getest niet mee, want 4 kaarten zijn nou niet echt representatief voor de overige kaarten op deze wereld. ;)

Edit: En die vivo kaarten waarmee je volgens jou 99% kans hebt op een succesvolle biosflash kosten nog altijd wel 469,-.

[ Voor 23% gewijzigd door Tyranium op 22-08-2004 19:58 ]


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 19:09
@Gemerden2: Die PoV is niks mis mee. Als ie lekker goedkoop is en je wil die kaart hebben, kopen! As je 100 euro over hebt, voor de GT gaan! :)

@Apple: 50% 20% of 80%, doet mij niks. Ook bij 80% is de kans reëel dat je niet kunt modden of dat je je kaart vernielt. Bij de GT heb je dat probleem niet, verschil tussen de GT en Ultra is een stuk kleiner dan de Pro en XT. De Pro16@XT-PE vergelijken met een GT@Ultra is dus gewoon Ultra vs. XT-PE :)

De Vivo's hebben een hogere kans om succesvol gemod te worden en als ze gemod worden, dan is die beter dan een GT. De gemiddelde consument is dat echter niet van plan en is met een GT dus beter af.

Einde discussie :P ;)

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:51

Pubbert

random gestoord

IceEyz schreef op 22 augustus 2004 @ 19:55:


De Vivo's hebben een hogere kans om succesvol gemod te worden en als ze gemod worden, dan is die beter dan een GT. De gemiddelde consument is dat echter niet van plan en is met een GT dus beter af.

Einde discussie :P ;)
De "Gemiddelde consument" koopt ook geen VGA kaart van 400+ Euro hoor ;)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

Anoniem: 101975

En een Vivo hoeft niet eens duur te zijn, er zijn van die winkels die je afzetten omdat de kaarten zelf slecht leverbaar zijn *kuch..alternate..*. Ik zelf heb mijn Club3D X800Pro Vivo gekocht voor 435Euro, geflasht naar XT PE en geen 6800GT meer die mij bijhoudt. Daarbij is de kans dat de flash lukt als je een Pro Vivo hebt met 1.6ns geheugen zo'n 90-100%.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Thund3r schreef op 22 augustus 2004 @ 20:03:
[...]


De "Gemiddelde consument" koopt ook geen VGA kaart van 400+ Euro hoor ;)
Ok...maar van die mensen die wél zo'n kaart kopen is ook maar een héél klein gedeelte wat z'n kaart daadwerkelijk gaat modden.....misschien hóóguit 5% ofzo

[ Voor 10% gewijzigd door Mr. Detonator op 22-08-2004 20:29 ]


Acties:
  • 0 Henk 'm!

Anoniem: 101975

Ik zou toch eerder denken van.... Gewone consument koopt geen grafische kaarten van 400+ euro's, letten alleen maar op mb's en dat het maar een Geforce is.
Mensen die wel kaarten kopen van 400+ euro's zullen zich eerder verdiepen in de stof, en natuurlijk kunnen ook zij lezen over het flashen.
En Nederlanders :9 , meer voor minder, natuurlijk flashen die hap _/-\o_

[ Voor 15% gewijzigd door Anoniem: 101975 op 22-08-2004 20:32 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 101975 schreef op 22 augustus 2004 @ 20:15:
Daarbij is de kans dat de flash lukt als je een Pro Vivo hebt met 1.6ns geheugen zo'n 90-100%.
Als er dan laten we zeggen 10.000 pro/vivo's in omloop zijn, wil dat dus zeggen dat er ongeveer 1000 kaarten(vivo's) niet te modden zijn !

Acties:
  • 0 Henk 'm!

Anoniem: 101975

De Vivo's met 1.6ns kaarten die niet zijn gemod komt omdat de mensen die de mod uitvoeren niet weten hoe ze het goed moeten doen, het snel opgeven.
De enige echt niet te modden Vivo's zijn die met 2 type geheugen op de kaart, er zijn enkele kaarten, Powercolor @ Xtreme, en die hebben op de ene kant 1.6ns en op de andere kant 2ns geheugen.

En alsof alle GT's 100% zeker Ultra speeds halen. 8)7

[ Voor 10% gewijzigd door Anoniem: 101975 op 22-08-2004 20:36 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 101975 schreef op 22 augustus 2004 @ 20:31:

Mensen die wel kaarten kopen van 400+ euro's zullen zich eerder verdiepen in de stof, en natuurlijk kunnen ook zij lezen over het flashen.
En Nederlanders :9 , meer voor minder, natuurlijk flashen die hap _/-\o_
dat is dus maar een klein gedeelte......high-end kaarten worden tegenwoordig ook al in complete systemen geduwd hoor !

kijk maar naar dell met z'n 9800xt's/pro's.....

je moest eens weten hoeveel mensen ik ken met een ''highend'' videokaart (toen hun 'm kochten), die hóóguit een keer tetris erop spelen ofzo :?

laat staan dat ze hun kaart gaan flashen....''flashen....wa's da ?''

[ Voor 10% gewijzigd door Mr. Detonator op 22-08-2004 20:38 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Anoniem: 119772 schreef op 22 augustus 2004 @ 14:41:
De meesten zitten nu nog op een AGP moederbord, zoals ik nu op een socket 478.

Als de tijd komt (en het geld) om te upgraden, denk ik niet dat die mensen nog voor AGP gaan. Ze gaan dan voor een complete PCI-e oplossing, en da's tegen die tijd een heel ander verhaal.

Vooralsnog is de GT voor AGP systemen een zeer prijsbewuste aankoop die over een heel breed veld aan games en toepassing uitstekend scoort. Forceware 65.xx
moet ook nog in't veld komen btw.....
Ikzelf heb een zalman 400watt, een CNPS7000ALCU en 7 casefans in mijn xaser3. Ik ga dus tagan480 kopen en die GainWard 6800Ultra Plus (barcode 6015).

Bedankt voor je uitgebreide post over je temps en ervaringen!
Nou, dan heeft GainWard toch heel goede 6800-kaarten dacht ik zo!!
Ik heb de mijne nog steeds niet :( weer uitgesteld naar volgende week!

Tegen de tijd dat PCI express de huidige standaard zal worden, is mijn computer toch al verouderd. Ik draai nu ook op een 478. Mijn volgende PC zal (als AMD nu zo door gaat) definitely een AMD worden ipv Intel. Maar ben uiterst tevreden met Intel nu, daar niet van, maar wil ook eens AMD proberen.
Mijn 2.6HT ga ik niet meer vernieuwen, heeft toch geen zin. ALS, dan ga ik meteen ook nieuw moederbord kopen.
Eerst die 6800Ultra maar afwachten.

EDIT: je had de 61.77 drivers he?? Die maken van mijn 5950Ultra een FX5200.....enorme framedrops en kan UT nog niet meer spelen op 640x480.... voor de GeForce FX-series vind ik de 56.72 toch nog de beste

[ Voor 9% gewijzigd door Deathchant op 22-08-2004 20:39 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 101975 schreef op 22 augustus 2004 @ 20:35:
En alsof alle GT's 100% zeker Ultra speeds halen. 8)7
Misschien niet 100%, maar het is wel een hoger percentage dan de x800pro vivo's die x800xt pe snelheden halen.

Acties:
  • 0 Henk 'm!

Anoniem: 101975

Maar ze doen wel allemaal 500/560 en dat is in de meeste gevallen al sneller dan een 6800GT/U. Niet in Doom3 dan :P

Acties:
  • 0 Henk 'm!

  • Kapitein Prozac
  • Registratie: September 2002
  • Laatst online: 24-01 16:43
Anoniem: 94113 schreef op 22 augustus 2004 @ 19:01:
He is de merk Point of View goed.

Ik wil de GeForce 6800 128Mb van dat merk hallen.
Maar ik kan het nergen vinden of het nouw een goed merk is of nie.

Staat ook niet aan het begin.
Ik ben een tevreden gebruiker van de PoV GF6800 128mb. Dit is mijn eerste ervaring met Point of View als merk en ik ben er best over te spreken.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

voor degene die geinteresseerd is in een V9999Gamers Edition van Asus:
http://www.computer-cash-carry.de/ccc/nl/index-ie.html

€415,-

en een Asus AX800PRO voor 422 euro:
http://www.bora-computer....rt=Grafikkarten&ansicht=0

de sapphire is 446 euro en de MSI NX6800 non ultra = 299 euro

[ Voor 45% gewijzigd door Deathchant op 22-08-2004 21:09 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Tyranium schreef op 22 augustus 2004 @ 19:52:
[...]


Ik zou ook graag wat echte feiten/bewijzen willen hebben dat je zeker 50% kans hebt op een succesvolle hardmod. En daar bedoel ik die 4 kaarten die jij hebt getest niet mee, want 4 kaarten zijn nou niet echt representatief voor de overige kaarten op deze wereld. ;)

Edit: En die vivo kaarten waarmee je volgens jou 99% kans hebt op een succesvolle biosflash kosten nog altijd wel 469,-.
Kanspercentage schatten is een kwestie van alle forums lezen. Voorbeeldje: het forum van overclockers.co.uk houdt een lijstje bij van succesvolle hardmods van de normale Pro (dus niet de Vivo).
Succesvol gehard-mod tot nu toe is 60%.

http://forums.overclocker...a0bf1eb&threadid=17230558

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 101975 schreef op 22 augustus 2004 @ 20:54:
Maar ze doen wel allemaal 500/560 en dat is in de meeste gevallen al sneller dan een 6800GT/U. Niet in Doom3 dan :P
Sneller dan een standaart GT misschien, maar klok die even over tot 450/1150 en hij gaat weer over je vivo'tje heen en is een stuk goedkoper.
En met Doom3 bedoel je zeker alle OpenGL spellen. ;)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op 22 augustus 2004 @ 21:27:
[...]


Kanspercentage schatten is een kwestie van alle forums lezen. Voorbeeldje: het forum van overclockers.co.uk houdt een lijstje bij van succesvolle hardmods van de normale Pro (dus niet de Vivo).
Succesvol gehard-mod tot nu toe is 60%.

http://forums.overclocker...a0bf1eb&threadid=17230558
Dit verschilt natuurlijk ook weer per forum en zo kan je nooit zeker zeggen dat bijv. die 50% het zeker haald. Als je alle X800Pro's die nu gemaakt zijn zou testen zou er best 20 of 70% uit kunnen komen.

Acties:
  • 0 Henk 'm!

Anoniem: 119772

Deathchant,
Je gaat dus niet voor de Extreme Ultra (6145) ? Die heeft de core stock op 450Mhz.
Noujah, de 6015 is natuurlijk ook erg goed.

Maar nogmaals, ik raad je aan bij je leverancier (al moet het telefonisch) te dubbel checken of het echt een Golden Sample kaart is van de nieuwste batch ;

* dual fans
* koperen heatsinks
* rode pcb
* 1,6ns memory

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Sneller dan een standaart GT misschien, maar klok die even over tot 450/1150 en hij gaat weer over je vivo'tje heen en is een stuk goedkoper.
In Direct3D geldt: klokspeed&pipelines=fillrate. En hoe meer hiervan hoe beter (op de hogere resolutie's met veel eye-candy). Dit is dan ook de reden waarom je de X800XT
de meeste Direct3D eye-candy benches op hoge resos ziet winnen.
Met 450mhz. kom je dus nog minimaal 50mhz. tekort om "er overheen te gaan". :)

Acties:
  • 0 Henk 'm!

Anoniem: 101975

En OpenGL, na de Humus Ati tweak loopt Doom3 al stukken beter. Ik speel het dan ook gewoon op 1600/1200 Hiqh Quality. Nu nog de nieuwe Ati OpenGL drivers en een Doom3 patch en dan eens kijken hoe het er voor staat. Nu is het alleen maar Doom3, als Ati het bij het volgende grote OpenGL spel in orde heeft zijn de rollen misschien weer omgekeerd. Doom3 is maar 1 spel, net zoals Half-Life2.

[ Voor 9% gewijzigd door Anoniem: 101975 op 23-08-2004 00:17 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Anoniem: 119772 schreef op 22 augustus 2004 @ 21:55:
Deathchant,
Je gaat dus niet voor de Extreme Ultra (6145) ? Die heeft de core stock op 450Mhz.
Noujah, de 6015 is natuurlijk ook erg goed.

Maar nogmaals, ik raad je aan bij je leverancier (al moet het telefonisch) te dubbel checken of het echt een Golden Sample kaart is van de nieuwste batch ;

* dual fans
* koperen heatsinks
* rode pcb
* 1,6ns memory
Ja, wel ultra extreme. Die is STOCK gewoon 400/1100 hoor. Alleen in enhanced mode kan ie 450/1200 aan. Zo zat het toch? Alles wordt 400/1100 geleverd en kun je met enhanced settings setten op 430/1200 of 450/1200.......

Hoe kun je in godsnaam checken of een kaart 1.6 ns heeft? Dan moet je de koeler en al eraf slopen. Vind mijn leverancier niet zo leuk.....

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Deathchant schreef op 23 augustus 2004 @ 00:17:
[...]
Alles wordt 400/1100 geleverd en kun je met enhanced settings setten op 430/1200 of 450/1200.......

.....
de XFX-ultra draait standaard op 425/1200

450/1250 trekt ie ook nog makkelijk met standaard koeling

deze week ga ik 's zo'n dubbele heatpipe monteren....kijken wat ie dan doet
ik hoop 500/1300 :*)

[ Voor 4% gewijzigd door Mr. Detonator op 23-08-2004 00:33 ]


Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Ik ben nu een beetje in de war geraakt mbt de rangorde bij de 6800 kaarten. Waar plaatst de GE van Asus zich tussen de hier veel genoemde GT en de Ultra editie? Want de mijne doet nu met de smartdoctor tool 410/1160 stabiel, en volgens mij zijn dat toch wel ultra waardes,voor Asus dan toch.

Acties:
  • 0 Henk 'm!

Anoniem: 101975

De Ge heeft 12 pipelines, de GT en Ultra 16. De laatste twee zijn dus altijd sneller.

Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Anoniem: 101975 schreef op 23 augustus 2004 @ 00:45:
De Ge heeft 12 pipelines, de GT en Ultra 16. De laatste twee zijn dus altijd sneller.
Dat word flashen dan! :(

-edit- Als ik de huidige kaart op Ultra waardes kan laten lopen zonder problemen, is het toch wel zeker dat hij met een Ultra flash ook draait? Of denk ik nu scheef :?

[ Voor 28% gewijzigd door HTT-Thalan op 23-08-2004 00:53 ]


Acties:
  • 0 Henk 'm!

Anoniem: 101975

Dan moeten die 4 pipelines wel 100% in orde zijn, kben niet zo into NV flashing maar volgens mij is het zo dat als die 4 dus niet ok zijn dat je nooit zeker weet welke je weer uit zet. En dan kun je dus eindigen met een defecte kaart. Correct me if I'm wrong.

Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Anoniem: 101975 schreef op 23 augustus 2004 @ 00:54:
Dan moeten die 4 pipelines wel 100% in orde zijn, kben niet zo into NV flashing maar volgens mij is het zo dat als die 4 dus niet ok zijn dat je nooit zeker weet welke je weer uit zet. En dan kun je dus eindigen met een defecte kaart. Correct me if I'm wrong.
Da's goed ruk dan, ik was in de veronderstelling dat de GE de eerste kaart onder de Ultra was in de Asus rangen, met als enige verschil de mhz'en.

En een manier om de flash te testen met overclock tools zonder de echte flash te flashen (wat een rotzin) is er zeker niet?

Acties:
  • 0 Henk 'm!

Anoniem: 101975

Jawel de nieuwe Rivatuner die zou aan het einde van deze maand uitkomen.

Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Anoniem: 101975 schreef op 23 augustus 2004 @ 00:59:
Jawel de nieuwe Rivatuner die zou aan het einde van deze maand uitkomen.
Goed plan. Is het alleen met de nieuwe dat ik de 6800 kan testen? Of is de "oude" rivatuner ook goed, je text impliceert dat die er namelijk wel is. En zo ja, waar kan ik die krijgen?

Acties:
  • 0 Henk 'm!

Anoniem: 101975

Rivatuner is er wel al, maar alleen de nieuwe versie die dus nog moet komen, bied de optie om het aantal actieve pipelines in te stellen. My bad.

Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Anoniem: 101975 schreef op 23 augustus 2004 @ 01:01:
Rivatuner is er wel al, maar alleen de nieuwe versie die dus nog moet komen, bied de optie om het aantal actieve pipelines in te stellen. My bad.
Dan is het geheel een stuk minder risicovol. Ik test met die rivatuner of alle pipelines goed zijn, test met de clocksoftware van Asus zelf of de snelheden goed draaien op mijn kaart, en bij een complete OK-check, flash ik de kaart naar een ultra?

Dat zou fijn zijn voor mijn 3dmark score :9

Ook al ben ik momenteel al de snelste in mijn categorie op futurmark.com 8)

Acties:
  • 0 Henk 'm!

  • HTT-Thalan
  • Registratie: Juni 2004
  • Laatst online: 21:56

HTT-Thalan

technically, I'm not pedantic.

Gepost door Vibhuti - maandag 9 augustus 2004 - 11:58 Score: 3 (Inzichtvol)
Dit is een leuke maar verkeerde veronderstelling. Ten eerste heeft de 6800gt gddr3 modules en de gewone 6800 ddr modules. De ddr modules op de 6800 (350mhzx2 dus 700mhz) krijg je bij lange na niet op de hoge snelheden van een 6800gt (1000mhz).

Wil je echt de prestaties benaderen zul je moeten volt-modden. Verder is de gt zelf erg goed over te clocken dus is die altijd sneller.

Uiteindelijk komt daar nog bij dat met zulke hoge overclocks de kaart niet genoeg stroom aangeleverd kan krijgen doordat hij in tegenstelling tot de 6800gt maar 1 mollex connector heef.
Ik heb geen GT, maar een GE van Asus, wat in combinatie met bovengeplaatste post, gequote uit de reacties onder de link die je me net gaf, vertelt dat ik dus wel degelijk een " goede "versie heb, met de GDDR3 geheugens. Of ik nu 12 of 16 pipelines heb is me een beetje onduidelijk.

Ook werd verteld dat er een "biosdump" gemaakt kan worden, om de oude bios terug te zetten na een onsuccesvolle flash, om zeker te weten dat je niet met een paar kapotte pipes blijft zitten.

Hoe moet je dat doen?

Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

Ben benieuwt naar overclock resultaten van mensen met ultra kaarten :)
Iemand ?

Ikzelf draai nu paar dagen stabiel 425/1200 @ 450/1250 .
Nu ik de cooling aan mijn systeem wat aangescherpt hebt met meer CFM`s & betere airflow
wordt het tijd om eens verder te gaan overclocken deze week .

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 20:49
Deze site meldt in een preview vd 6600GT : We are hearing reports of NVIDIA board partners to start expanding the 128-bit memory interface to 256-bit, but they are not confirmed.

Nog nooit eerder gehoord dit gerucht, maar het zou leuk zijn als het waar is.

[ Voor 18% gewijzigd door Sjah op 23-08-2004 08:46 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Sjah schreef op 23 augustus 2004 @ 08:45:
Deze site meldt in een preview vd 6600GT : We are hearing reports of NVIDIA board partners to start expanding the 128-bit memory interface to 256-bit, but they are not confirmed.

Nog nooit eerder gehoord dit gerucht, maar het zou leuk zijn als het waar is.
Ik zou zelf niet zo heel erg veel waarde hechten aan die site.
The 6600 and 6600 GT will be NVIDIA's upcoming mid-end GPUs that will compete against ATI's X600 and X600 XT cards.
Denken ze nou echt dat de 6600(GT) bedoeld is om tegen de X600-serie op te boksen? :? Een unreleased 8 pipes next generation vs een 4 pipes oude generatie?

Als ze zich een beetje in de materie hadden verdiept dan hadden ze geweten dat de 6600(GT) de RV410 als rechtstreekse opponent heeft. Maar blijkbaar zijn ze daar helemaal niet van op de hoogte.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 20:49
Nouja 't zou ook natuurlijk kunnen dat ze dat ook wel weten maar dat ze maar nVidia napraten om die te vriend te houden (het slijmgehalte onder wat minder belangrijke hardwaresites is soms best wel aanwezig). Maar het is idd geen Anand nee die site. ;)

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 19:09
Nieuwe ForceWare: 66.00 XP/2000 @ Guru3D

Support voor alle kaarten en een nieuwe 6610 XL ... ? :)

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

HTT-Thalan schreef op 23 augustus 2004 @ 01:10:
[...]


[...]


Ik heb geen GT, maar een GE van Asus, wat in combinatie met bovengeplaatste post, gequote uit de reacties onder de link die je me net gaf, vertelt dat ik dus wel degelijk een " goede "versie heb, met de GDDR3 geheugens. Of ik nu 12 of 16 pipelines heb is me een beetje onduidelijk.

Ook werd verteld dat er een "biosdump" gemaakt kan worden, om de oude bios terug te zetten na een onsuccesvolle flash, om zeker te weten dat je niet met een paar kapotte pipes blijft zitten.

Hoe moet je dat doen?
de GE heeft 12 pipelines

Acties:
  • 0 Henk 'm!

Anoniem: 82446

M55 schreef op 23 augustus 2004 @ 13:51:
[...]


de GE heeft 12 pipelines
Ik meende dat de Asus V9999 GE een normale 6800 was met DDR3 geheugen. 8 pipelines dus.

[ Voor 3% gewijzigd door Anoniem: 82446 op 23-08-2004 14:37 ]


Acties:
  • 0 Henk 'm!

Anoniem: 101975

De GE heeft 12 pipelines net zoals de 6800NU.

Acties:
  • 0 Henk 'm!

  • Huigie
  • Registratie: Januari 2001
  • Laatst online: 20:28

Huigie

Happy ASBO driver[317pk/516nm]

IceEyz schreef op 23 augustus 2004 @ 12:47:
Nieuwe ForceWare: 66.00 XP/2000
Mm mm mm, ik glij met deze drivers door Doom als een warm mes door de boter...
En in 3DMark03 scoren ze fijn: 13.768 :9 http://service.futuremark.com/compare?2k3=2992197

66.02 blijkt al bij de beta testers te draaien en die schijnt helemaal super te zijn.

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 32539

Dat is een hoge score. Welke drivers had je daarvoor? En hoeveel haalde je toen?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

Huigie schreef op 23 augustus 2004 @ 15:04:
[...]


Mm mm mm, ik glij met deze drivers door Doom als een warm mes door de boter...
En in 3DMark03 scoren ze fijn: 13.768 :9 http://service.futuremark.com/compare?2k3=2992197

66.02 blijkt al bij de beta testers te draaien en die schijnt helemaal super te zijn.
ja, met elke release gaat de performance vooruit, hopelijk komen die 66.02 snel uit. De 65.62 waren iig al een behoorlijke verbetering.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

quote: Huigie
En in 3DMark03 scoren ze fijn: 13.768
Hoeveel haalde je hiervoor ?
Die P4 @ 3.8 haalt natuurlijk heel wat in bij 3Dmark , op het eerste gezicht zou ik die hoge score daaraan danken .

Acties:
  • 0 Henk 'm!

Anoniem: 69658

Mijn MSI 5900XT overklokt denk ik heel goe :D
Mijn core is watergekoeld.
Ik heb hem al tot 540Mhz gekregen zonder stabiliteitsprobs of vervormingen.
Mijn geheugen heb ik ZONDER heatsink reeds tot 850 gekregen.
HEb ondertussen gewoon nog niet verder geklokt.
Zou het kunnen dat ik een lekker oc model op de kop heb getikt?
Vooral de core speed verbaast mij.

Ik haal nu een score van 6809 puntjes op een P4 2.8Ghz (533)
Ik vond da uitzonderlijk nice eigelijk :d

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

wordt de GainWard Ultra/Extreme nou sowieso standaard op 400/1100 afgeleverd en dat je dan zelf met de enhanced mode deze op 450/1200 moet zetten of hoe zit dat??

Want het goldensample zegt simpel: ik word standaard ULTRA- geleverd en ben getest op ULTRA EXTREME snelheden.....

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 79835

People, lees dit eens:
ATI is smug but Nvidia's the bug in the rug

Comment The future looks like Nvidia's

[...]

When the chips launched, and real people got their hands on real parts, the story changed a little. Nvidia's response was to tout the features that it had, and ATI was lacking. People pointed and laughed, editorials were written, and the collective tech world failed to grasp what was going on. Who cares about PS3.0 when there are no games for it? Who cares about PS3.0 when MS does not have a version of DX that supports it? Geometry instancing? What is that?

ATI was rather smug, and pointed to benchmarks like Quake3. Yay, 450FPS if you spend $400 on ATI, and you only get 425FPS if you spend $400 on NVidia.
[...]
I was almost ready to believe, but then cracks started to show, and they validated my beliefs, ATI missed the boat, and missed it badly. Don't believe me, how about looking at it from the ATI perspective? ATI knew it was behind, and knew there was nothing it could do for a year. What do you do in this case, spin, dodge and dance.
[..]
The funniest jig was when they told me with a straight face that there were situations that PS3.0 made programs slower than PS2.0, which ATI proudly featured. Yep, Ferarris get crappy gas mileage also, but I still would not trade one in for a 1990 vintage Yugo, turbo or not.

Why was ATI so afraid? It knew what was coming, and it was all in Nvidia's favor. On the face of it, ATI has HalfLife2 and NVidia has Doom3. Benchmarks show that Nvidia has a commanding lead in Doom3, bordering on the abusive. ATI has a noticeable lead in HL2, but from what I have seen, not as commanding as the lead Nvidia has in Doom.

Why is this so worrisome? Well, for two reasons, licensing and the future.
[...]
The thing is that the Doom3 engine will be licensed by just about everyone under the sun. The HL2 engine may be, or may not be, but people won't be clamouring for a Newell engine as rabidly as a Carmack one. While the proverbial 'people' may be wrong, they are the ones spending the money.

This leads us to the future. HL2, for all its gameplay is a last generation engine. It looks good, very good in fact, but it is a year old, and things like Far Cry and Doom have passed it by.
[...]
In the older engines, HL2, Q3, and others, ATI has a slim advantage. On the newer ones, Nvidia rocks. Which one do you think will be more prevalent in the next few months? Which one would you license if you had to lay the money down? Which one do you think will power the next generation in greater number? Yup, ATI has a problem, and it will only grow worse the further out you look. If you want real comedy, look at the requirements for Longhorn.

But it gets worse. ATI has no PS3.0 part, and never will. The problem isn't that big if you look at it from the perspective of the highest end on the market, the pimped out Ultra-Platinum-Stupidlyexpensive Edition, those cards make up a miniscule amount of the market. They cast a great shadow, but monetarily, I would be surprised if they made money directly, but they sell a lot of mid and low end cards.

Here too, ATI is sucking wind, and has been for quite a while. ATI has a crappy line up other than the high end.
[..]
ATI just rebadges the previous generation, and uses its numbering scheme to make it sound like they have something that it doesn't. It is more than enough to fool some of the consumers, but then again, there are a lot of machines sold with Celerons in them.

The point is not consumers, but OEMs. They are more than smart enough to actually look at the capabilities before they buy the chips by the hundreds of thousands. Worse yet, many of them sell to Joe Six-Pack by means of spec sheets more than performance. Nvidia could hit those checkboxes with the last generation, but ATI still can't. The current generation gets worse, the high end can't offer the features at all, and the mid and low end get worse from there.

As the games start coming out that use PS3.0, and people start looking for those checkboxes, one company will be there. OEMs know this, and buy accordingly. [b]That is where the money is, and it is where ATI isn't and won't be.[b] The last time someone missed like this badly, it took Nvidia about 2 years to recover, and 3DFx never did. I'm not intoning anything here, simply stating it, just watch and see.

[...]

Add in things that do not fall under the domain of the GPU itself, and it only gets worse. Nvidia is really good at making chipsets and platforms, and the next generation of NForce chipsets have some really nice looking features. ATI is still trying to figure out what the term South Bridge means. I am not trying to kick ATIs chipset efforts here, that would be too easy, no sport there. The crushing superiority of the Nforce platform allows Nvidia to do something that ATI can't, tune the chipset for the graphics card to get that extra bit of mileage.

While this alone would probably be enough to give Nvidia the crown, it has a secret weapon. Not a little pistol hidden in their boot, more like a tactical nuclear weapon called SLI. If you go to ATI headquarters, you can still see the confused look on their faces when they first heard the whistling of the incoming warhead.

SLI alone will be enough to make Nvidia own every benchmark under the sun by simply abusive margins. The early benchmarks indicate that it really is everything Nvidia said it would be. ATI's response? Well, nothing at first, I think it realises that HL2 benchmarks won't cut it this time.

It gets worse though. There has been no response at all since tha SLI announcement, and this is a classic sign of one side getting caught with its pants down. What we know of the R500 and NV50 is that they will be PS4.0 and DX(insert marketing term here) parts. ATI will never have a PS3.0 part. It probably won't have an SLI part in that generation either.

[...]

If you want to make OEMs more receptive to the enemy's tender advances, there is a nice way to do this, screw your partners. While ATI trumpets the number of PCI Express parts it is selling, the OEMs tell a different story, namely that ATI is selling all that it can make, just not to them. When you are competing with your partners as ATI does, and you have a shortage, as ATI does, you don't screw your friends. ATI did. Really, ask any ATI graphics card manufacturer how good their supply of PCI Express parts are, I did. The responses are uniformly not polite.

So, what do you do if you are ATI, and you are looking at a lineup of parts that missed the boat? You deflect things. The last big FUD campaign was the native vs non-native PCI Express problem. ATI was giving out T-shirts proclaiming how Nvidia didn't have a 'native' PCI Express solution. They were using an ('eww' is intoned here, preferably with a sour look on your face) bridge chip.

[...]

The problem for ATI is that it also shows the same thing for the X800 line. So much for the vast superiority of the 'native' way. It almost seems like Nvidia engineers were focused on doing things that mattered rather than marketing slogan engineering. Hard numbers can be a bitch when you are trying to spin.

Looking out, I see ATI with a minuscule advantage that it is clinging to, desperately hoping no one notices that the train left the station in early August with the release of Doom3. The future belongs to Nvidia right now, and the only hope ATI has is in the R500, but that won't be here for a long time. If it manages to catch up card for card, Nvidia still 'only' has a 2:1 advantage. I know where my money will be going, and an X800 seems like money badly spent if you don't plan on buying an new card every three months. µ
Full text: http://www.theinquirer.net/?article=18029

Acties:
  • 0 Henk 'm!

Anoniem: 90323

Deathchant schreef op 23 augustus 2004 @ 15:26:
wordt de GainWard Ultra/Extreme nou sowieso standaard op 400/1100 afgeleverd en dat je dan zelf met de enhanced mode deze op 450/1200 moet zetten of hoe zit dat??

Want het goldensample zegt simpel: ik word standaard ULTRA- geleverd en ben getest op ULTRA EXTREME snelheden.....
Beetje jammer dat het gainward forum op vakantie is wat een dorks zeg. Ik zou zeggen dat ze het geheugen en de core idd op 400 1100 lopen. 400 omdat dat het max is van de nv40 volgens nvidia en hoger door middel van klokken. 1100 omdat dit de standaard geheugensnelheid is. er bestaan volgens mij dus geen stock gpu's hoger dan 400.

check hierbij ook: http://www.evga.com/articles/public.asp?AID=192

Wat dus het geval is dat sommige producenten de gpu's die met betere materialen gemaakt zijn beter overgeklokt kunnen worden. een van deze producenten van gpu's Evga krijgt die chips van nvidia. Andere producenten, gainward test gewoon zelf of ze goed over te klokken zijn en verkopen ze dus als Golden Sample.

Het geheugen kan je checken of ie op 1200 kan door het koeblok van het pcb eraf te halen bij mij, de 6015 is er een apart koelblok voor de gpu en apart koelgrill ofzo voor de geheugenchips ff pasta wegvegen en je kan het geheugen checken op:

http://www.samsung.com/Pr...st.aspx?family_cd=GME1001

De core heb ik niet echt durven checken en was slecht te lezen. Veel pasta waarvan ik er wat af heb gehaald waardoor ie nu idle op ~53 graden zit ipv ~60
En dan draait ie op 50% capaciteit fan speed. met expertool 3.18 kan je dat zien en regelen

Acties:
  • 0 Henk 'm!

Anoniem: 69658

En dat zeg en denk ik nu al sinds de launch van de FX5800 :p
Dat vermoeden werd enkel maar bevestigd met de 6 reeks :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Dat stuk in The Inq laat maar weer eens zien hoeveel die gast weet...

Geen SM3.0 part? Zeker nog nooit gehoord van R520.
R500 = SM4.0? R500 is de X-Box2 chip, waarvan nog niets zeker isn.. misschien is het wel SM4.0+...
Doom3 engine licensed by everyone? Officieel alleen nog maar Quake4. De rest is nog niet eens officieel bevestigd. Dat is dus net zo veel als de Source Engine: Vampire The Masquerade (Bloodlines), nieuwe game van Arkane Studios (Arx Fatalis).
ATi geen SLI-achtig iets? Hij heeft zeker nog nooit gehoord van het feit dat er al zo'n 2jaar tot aan 256 R3x0 chips aan elkaar gekoppeld kunnen worden en dit ook al gebruikt wordt. Vergeet ook de Maxx tech voor het gemak maar eventjes...

Zo zitten er dus nog veel meer zwakke punten in het stuk. Maar goed, voor een nVidia fan is het natuurlijk leuk om te lezen, alhoewel ik ze toch wel intelligent genoeg in schat om niet te veel waarde te hechten aan informatie van The Inquirer.

[ Voor 11% gewijzigd door CJ op 23-08-2004 16:38 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Is wel kut dat je zelf onder de motorkap moet kijken om erachter te komen wat je gekocht hebt......
ik dacht echt dat GainWard ook zulke goeie chippies geleverd kreeg om die goldensamples te maken

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

CJ schreef op 23 augustus 2004 @ 09:48:
Denken ze nou echt dat de 6600(GT) bedoeld is om tegen de X600-serie op te boksen? :? Een unreleased 8 pipes next generation vs een 4 pipes oude generatie?
Tja, voorlopig is de X600 toch ATI's enige inzet wat betreft PCIE midrange GPUs. En verder heeft ATI het wellicht ook wel een beetje aan zichzelf te danken, met zulke misleidende typenummers. Ik zie niet echt waaraan een PCIE versie van de 9600 een complete generatiesprong naar de X-naamserie verdiend heeft. Maar goed dat was met de 8500/9200 ook al de vraag..

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Huigie
  • Registratie: Januari 2001
  • Laatst online: 20:28

Huigie

Happy ASBO driver[317pk/516nm]

Anoniem: 32539 schreef op 23 augustus 2004 @ 15:10:
Dat is een hoge score. Welke drivers had je daarvoor? En hoeveel haalde je toen?
Hiervoor draaide ik de 65.62 en die gaf een score in de 12... en daarvoor de 62.20 en die haalde in de 13...

Vanavond eens testen of die pre-render frames optie nog van invloed is op de 3Dmark03 score...

Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Biff schreef op 23 augustus 2004 @ 16:43:
[...]


Tja, voorlopig is de X600 toch ATI's enige inzet wat betreft PCIE midrange GPUs.
Tja, het is te hopen dat de GF6600GT ten tijde van de X700 launch volgende maand goed te krijgen is... Anders zie ik het nog wel gebeuren dat ATi de X700 lanceert met benchmarks waarin het vergeleken wordt met de PCX5750, want dat is op dat moment dan tenslotte nVidia's enige inzet wat betreft PCIE midrange GPUs die nu ook daadwerkelijk verkrijgbaar zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Die gozer heeft nou eens totaal gelijk! :Y) Ati pwned!
...
alhoewel ik ze toch wel intelligent genoeg in schat om niet te veel waarde te hechten aan informatie van The Inquirer.
The Inquirer heeft het de laatste tijd toch echt vaak aan het goede eind gehad met hun "geruchten", bijv. dat nvidia 16pipelines had, wat veel mensen (vooral ati-fans) nog niet geloofden en ze wisten ook al in een vroeg stadium de namen van beide gpu's.
Dit is ook geen gerucht, maar eerder een samenvatting/conclusie van wat er de afgelopen maanden is gebeurd en nog zal gebeuren. (SLI Ownage! }) )

[ Voor 58% gewijzigd door Tyranium op 23-08-2004 17:32 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Wat krijgen we nou, is het The Nvquirer geworden? :)

Dacht dat The Inq. altijd redelijk 'onpartijdig' was. :/ (wat je moet zijn als nieuws-site zijnde, tenminste, als je ooit nog serieus genomen wilt worden. Nou was dat laatste altijd al een probleem bij hen.)

[ Voor 43% gewijzigd door Anoniem: 38733 op 23-08-2004 17:27 ]


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

CJ schreef op 23 augustus 2004 @ 16:55:
[...]


Tja, het is te hopen dat de GF6600GT ten tijde van de X700 launch volgende maand goed te krijgen is... Anders zie ik het nog wel gebeuren dat ATi de X700 lanceert met benchmarks waarin het vergeleken wordt met de PCX5750, want dat is op dat moment dan tenslotte nVidia's enige inzet wat betreft PCIE midrange GPUs die nu ook daadwerkelijk verkrijgbaar zijn.
Dan verwacht ik van jou in ieder geval weer luide kritiek ;)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 79835

Anoniem: 38733 schreef op 23 augustus 2004 @ 17:26:
Wat krijgen we nou, is het The Nvquirer geworden? :)

Dacht dat The Inq. altijd redelijk 'onpartijdig' was. :/ (wat je moet zijn als nieuws-site zijnde, tenminste, als je ooit nog serieus genomen wilt worden. Nou was dat laatste altijd al een probleem bij hen.)
Als ze de waarheid zeggen en dit niet in je ATI plaatje past zijn ze ineens partijdig?

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op 23 augustus 2004 @ 17:26:
Wat krijgen we nou, is het The Nvquirer geworden? :)

Dacht dat The Inq. altijd redelijk 'onpartijdig' was. :/ (wat je moet zijn als nieuws-site zijnde, tenminste, als je ooit nog serieus genomen wilt worden. Nou was dat laatste altijd al een probleem bij hen.)
Die gozer is gewoon slim en heeft totaal onpartijdig z'n geld op een winnend paard ingezet. ;)

[ Voor 3% gewijzigd door Tyranium op 23-08-2004 17:35 ]


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:51

Pubbert

random gestoord

Anoniem: 79835 schreef op 23 augustus 2004 @ 17:33:
[...]


Als ze de waarheid zeggen en dit niet in je ATI plaatje past zijn ze ineens partijdig?
Lees CJ's post van enkele hier omhoog eens, dit is geen waarheid wat die kerel zegt hoor.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Thund3r schreef op 23 augustus 2004 @ 17:35:
[...]


Lees CJ's post van enkele hier omhoog eens, dit is geen waarheid wat die kerel zegt hoor.
En wat de "Ati-god" CJ allemaal zegt moeten we wel allemaal blindelings geloven? :X Het zou ook een verrassing zijn dat CJ iets positiefs zegt over een Artikel waarin "Nvidia wint en Ati de grond ingeboord wordt".

[ Voor 10% gewijzigd door Tyranium op 23-08-2004 17:41 ]


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 19:09
Stuk uit de Inquirer, vind ik een erg rare "read". SM3.0 wordt als het goed is, zoals onze Ati-vriend hier zegt, geïmplementeerd in de R520 en dat alles afhangt van de features-list van een kaart is niet altijd waar. Bij de vorige generatie kaarten was het zo, diegene met de beste high-end kaart in de markt, mag de mid/low-end kaarten uitdelen.

Doom3 engine zal vast wel veel gelicenced worden, maar ik vraag me af of de HL2-engine niet wat veelzijdiger is en daarom ook vaker gelicenced zal worden. Daarnaast hoeft Ati alleen maar eens ongelofelijk veel tijd in OGL te steken om daar normale snelheden neer te kunnen zetten.

SLI is een voordeel voor nVidia, is nou eenmaal een betaalbare oplossing voor een enthousiaste consument. Zorgt er ook meteen voor dat nV de beste high-end-oplossing heeft. Dat kan je niet van de Radeons zeggen.

Ook is dat moddergesmijt om de bridge-chip en de "launch" van een x600 opmerkelijk van Ati en zeker niet goed (voor niemand niet :)).

Acties:
  • 0 Henk 'm!

Anoniem: 79835

CJ schreef op 23 augustus 2004 @ 16:36:
Dat stuk in The Inq laat maar weer eens zien hoeveel die gast weet...

Geen SM3.0 part? Zeker nog nooit gehoord van R520.
R500 = SM4.0? R500 is de X-Box2 chip, waarvan nog niets zeker isn.. misschien is het wel SM4.0+...
Doom3 engine licensed by everyone? Officieel alleen nog maar Quake4. De rest is nog niet eens officieel bevestigd. Dat is dus net zo veel als de Source Engine: Vampire The Masquerade (Bloodlines), nieuwe game van Arkane Studios (Arx Fatalis).
ATi geen SLI-achtig iets? Hij heeft zeker nog nooit gehoord van het feit dat er al zo'n 2jaar tot aan 256 R3x0 chips aan elkaar gekoppeld kunnen worden en dit ook al gebruikt wordt. Vergeet ook de Maxx tech voor het gemak maar eventjes...

Zo zitten er dus nog veel meer zwakke punten in het stuk. Maar goed, voor een nVidia fan is het natuurlijk leuk om te lezen, alhoewel ik ze toch wel intelligent genoeg in schat om niet te veel waarde te hechten aan informatie van The Inquirer.
zucht...
R520 komt pas in 2005. Dan pas sm3 support? Wauw.
D3 inderdaad licensed by everyone. Kijk gewoon naar de vorige id engines en dan weet je dat veel games (en niet de minste) de d3 engine zullen gebruiken.
ATi heeft geen dual core of SLI achtige kaarten in de pipeline, maxx technologie of niet. Nvidia komt met SLI binnen 2 maanden, vanaf dan is er geen sprake meer van ATI in benchmarks. En wat doet ATI? Niks.

Er zitten veel waarheden in, over sm3, over SLI, over chipsets bouwen, over xt pe beschikbaarheid, over de bridge chip, over Longhorn, ...
en vooral:
ATI just rebadges the previous generation, and uses its numbering scheme to make it sound like they have something that it doesn't.

Acties:
  • 0 Henk 'm!

Anoniem: 101975

En jullie geloven gewoon lekker alles dat de InQ verteld :D _/-\o_
Bij ander nieuws van de InQ wordt er gezegd dat je het met een korrel zout moet nemen, en als het jullie uitkomt is alles waar :+ lekker bezig.

[ Voor 52% gewijzigd door Anoniem: 101975 op 23-08-2004 18:02 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Anoniem: 79835 schreef op 23 augustus 2004 @ 17:33:
[...]


Als ze de waarheid zeggen en dit niet in je ATI plaatje past zijn ze ineens partijdig?
Ik dacht dat we de discussie's omtrent SM3.0 etc. al lang gehad hadden. Als ik die jongen z'n commentaar lees lijkt het net of hij gisteren onder een steen vandaan kwam en verwonderlijk aanschouwde dat Nv wél en Ati géén SM3.0 doet. Daarnaast wordt Half-Life2 de grond in geboord als zijnde "verouderd" en doet ie voorkomen alsof de hele wereld enkel nog maar met de Doom3 engine zal spelen in de toekomst. Over een mogelijke OpenGL performance verbetering die Ati ongetwijfeld te werk zal stelligen wordt niet gerept. (wat imho nu al niet slecht is. Hij mag gerust komen kijken hoe Doom3 loopt bij mij thuis :) )
Nee sorry, het verhaal is geschreven met een pen waarvan de inkt groener schrijft als gras, niet echt bewonderenswaardig voor een "nieuws-site".

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op 23 augustus 2004 @ 18:11:
[...]


Ik dacht dat we de discussie's omtrent SM3.0 etc. al lang gehad hadden. Als ik die jongen z'n commentaar lees lijkt het net of hij gisteren onder een steen vandaan kwam en verwonderlijk aanschouwde dat Nv wél en Ati géén SM3.0 doet.
Nee die jongen heeft gewoon de afgelopen tijd goed opgelet.
Over een mogelijke OpenGL performance verbetering die Ati ongetwijfeld te werk zal stelligen wordt niet gerept. (wat imho nu al niet slecht is. Hij mag gerust komen kijken hoe Doom3 loopt bij mij thuis :) )
OpenGl performance is inderdaad niet zo verschrikkelijk slecht, maar wel een heel stuk slechter dan bij nvidia en hierdoor wint Nvidia nog wel met een heel groot verschil in Doom3. (GT wint het van de XT PE, 6800NU wint het van de Pro...) ;)

Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

quote: CJ
Geen SM3.0 part? Zeker nog nooit gehoord van R520.
R500 = SM4.0? R500 is de X-Box2 chip, waarvan nog niets zeker isn.. misschien is het wel SM4.0+...
Doom3 engine licensed by everyone? Officieel alleen nog maar Quake4. De rest is nog niet eens officieel bevestigd. Dat is dus net zo veel als de Source Engine: Vampire The Masquerade (Bloodlines), nieuwe game van Arkane Studios (Arx Fatalis).
ATi geen SLI-achtig iets? Hij heeft zeker nog nooit gehoord van het feit dat er al zo'n 2jaar tot aan 256 R3x0 chips aan elkaar gekoppeld kunnen worden en dit ook al gebruikt wordt. Vergeet ook de Maxx tech voor het gemak maar eventjes...
O.Khier ben ik het er niet zo mee eens .
Ten eerste de R520 komt pas volgend jaar Q4 uit ! Weliswaar met PS3.0 maar .. dan pas ?
Ja dan pas .
Verder meer is het zo dat de R520 met PS3 uitkomt nieteens confirmed ! ( ik heb er net zelf ook op gegoogled @ ATI .com staat er iig niks over )
Maar realistish gezien moet de kaart wel PS3.0 + hebben als ATI nog wilt concureren dus daar ga ik ook van uit maar ik vindt het wel humor dat je opeens met kreten als " niks bevestigt " e.d komt zeggen over de licenties m.b.t Doom3 engine , dan lijkt het je wel te schelen of iets confirmed is of niet .
Maargoed genoeg over dat .

Over de Doom3 engine vs HL2 engine .
Wat er in de inquirer staat :
quote: Inquirer
" The HL2 engine may be, or may not be, but people won't be clamouring for a Newell engine as rabidly as a Carmack one. While the proverbial 'people' may be wrong, they are the ones spending the money."
Dit is gewoon zo .
ID software hun engines zijn gewoon razend stabiel zelfs uit alpha builds !
Wie herrinert zich de vroege Quake 3 alpha nog van niezo erg lang geleden ?
Dat draaide net zo goed als de full retail versie !
Ze zullen zeker alleen wat tweaks gedaan hebben om hem full retail te krijgen .
hmmkay kijk eens naar HL2 .. ja ok hij is wat ingewikkelder als Q3 engine toen was maar punt is en blijft , ook Q3 was een nieuwe engine toen - en geen probs mee , HL2 is ook een nieuwe engine maar hoeveel bugs daar nu wel niet inzitten ?
Doom 3 alpha , hup had ik persoonelijk geen problemen mee @ een GF4 TI 4200 @ 4600 clocks draaide best goed ook nog , HL2 alpha ? vergeet het maar :X
ID software hun engine reputatie gaat niet alleen terug naar Q3 maar verder , Q2 engine is zelfs zo hard gemod dat het veel foefjes kon doen die er niet inzaten kijk maar naar SOF2

" Soldier of Fortune is a hard-core action first-person shooter, based on a heavily modified Quake II engine, featuring Raven’s own state-of-the-art GHOUL rendering system. "

Waar ik heen wil ?
ID engines zijn robuust , betrouwbaar en ze hebben zichzelf vaak bewezen , en wat opgelost moet worden - wordt ook meteen opgepikt dit is alom bekend bij ID fanboys (waarvan ik er overigens geen van ben )
En ik denk dat de game industry gewoon liever voor de D3 engine zal gaan mede hierom en het feit dat .. zeg nou zelf , die engine is gewoon klaar en die game ligt in de winkel :P

Over ATI MAXX tech heb ik eerlijk gezegd nooit van gehoort omdat ik me nooit bezig heb gehouden met ATI , het was alleen matrox -> nvidia voor mij .
Maar vrees niet we hebben google .
quote: ATI website
RAGE FURY MAXX is ATI's first multiple chip parallel processing board based on two ATI RAGE 128 PRO GL processors for maximum 3D gaming.
Ook dus gewoon 2 GPU`s op 1 bord ?
Nou , ik denk dat je dit kan vergeten met tegenwoordige GPU`s
Hoeveel transistor count we nu al niet hebben met bleeding edge GPU`s van NV en ATI? + hitte , dan 2 van die krengen op 1 plankje ?
Uhm , nee .
Leuk geprobeert door hoe heten die mensen ook alweer met 2 GPU`s on 1 board ?
Naam kwijt .. maar dat was aardig geflopt .
Dus dit is geen SLI achtig iets , 256 CHIPS is wat anders dan 256 kaarten .
Meerdere chips doet me denken aan die uber grote voodoo`s meteen :P

Note : Ik weet verder alleen wat er daar dus in die ATI FAQ staat aangezien het een discontineud product is dus correct me if i`m wrong .

Om dit nou Versus SLI te doen is buiten kwestie.
ALS ze zo`n kaart wisten te maken met meerdere GPU`s met 1 of andere oplossing , dan zou hij verschrikkelijk duur kosten .

Tenzij als je NV zijn SLI gebruikt , je bijvoorbeeld nu een 6800 GT koopt , en over anderhalf jaar wanneer je wat meer power wilt , is die 6800 GT aardig goedkoop geworden ! En je zo voor een prikke 95 % meer power erbij hebt , dit is de kracht van SLI . dan offset je de koopvan een dan next gen kaart nog wel hoor .

Als laast nog over de inquirer commentaar van iedereen .
Ja ze hebben geen goede reputatie , ze hebben weleens gelijk ( 16 pipes anyone ? ) maar dit is zeker geen roddel - dit is gewoon iemand zijn commentaar over hoe het staat tussen ATI en NVIDIA , je kan het er mee eens zijn of niet maar schijf dit niet af met " Ach tis de inquirer GELOOF HET NIEEE ! tis toch maar een roddel " Dan scheep ik dat meteen zo af van ach die hefet het nieteens gelezen laat staan begrepen dat het om comentaar ging .

My big two cents :P

Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

Goh , wat draaien die top ATI tech demo`s toch zo geod @ een 6800 U :)

Net de moeite gedaan er een paar te grijpen bij de ATI website )

Acties:
  • 0 Henk 'm!

Anoniem: 54786

Stukje van The Inquirer is toch wel behoorlijk anti Ati .
Wel leuk om te zien dat personen die wel de hele dag bezig lijken te zijn om te speuren naar " bewijzen " dat hun merk kaart beter is als de andere gelijk op de kast zitten .
Ikzelf koop een kaart om games mee te spelen , als er dan een andere kaart is die soms wel en dan weer niet sneller is , lekker boeie , over twee jaar is de hele shit toch weer verouderd >:)
Nvidia fan of ATI fan , waar gaat dit in godsnaam over , voetbal teams ?

[ Voor 11% gewijzigd door Anoniem: 54786 op 23-08-2004 18:50 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

OpenGl performance is inderdaad niet zo verschrikkelijk slecht, maar wel een heel stuk slechter dan bij nvidia en hierdoor wint Nvidia nog wel met een heel groot verschil in Doom3.
Lees Edward2's (eigenaar van een 6800U + X800XT PE) onlangs geschreven commentaar over Doom3 eens:

"Verder is met de Humus Doom3fix en cat4.9b de X800XT gewoon bijna even snel als m'n 6800U, alleen met veel smoke dipt hij ietsjes verder dan de 6800U, maar met de X800XT kan ik weer met vsync spelen ivm triple buffering.

In de timedemo van Doom3 haal ik zelfs iets meer fps met de X800XT dan met m'n 6800U! 71 vs 74. Maar ingame was de 6800U toch in de meeste gevallen sneller/constanter kwa fps."


Zo slecht is die X800XT in Doom3 nou ook weer niet hoor. ;) :)

[ Voor 6% gewijzigd door Anoniem: 38733 op 23-08-2004 19:07 ]


Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

@ Casey

Het gaat mij zozeer niet om te bewijzen dat X kaart beter is dan de andere .
Maar dat sommige mensen X beweringen maken die gewoon nie 100 % zijn is dan iets waar je natuurlijk in een discussie probeert recht te zetten , en dit is uiteraard een "discussie forum" dus discusieren is toch wel de orde van de dag .

Ikzelf doe moment opnamen , ik heb ook de 9800 en de X800 overweegt , zelfs een parhelia overwogen omdat ik toch naar perfectie m.b.t 2D / Multi desktop ( triple head ! ) zocht maar de 6800 U kwam er gewoon beter uit all round (games/destkop) dat ik voor dat gekozen hebt .
Uiteraard sluit ik me bij aan dat voor D3 NV beter is en voor HL2 en FC nou eenmaal ATI die feiten ga ik gewoon niet omheen .

[ Voor 18% gewijzigd door lithiumangel op 23-08-2004 19:10 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Tja, blijkbaar zitten hier ook nog al wat mensen die de afgelopen tijd onder een rots hebben geleefd. R520 pas in Q4? Haha tuurlijk. Blijf maar mooi geloven wat je wilt geloven. ;) En SM3.0 is niet de heilige graal, wat nV ons maar al te graag wil doen geloven, net zo min als DX9.0+ in de FX reeks zo veel beter was dan "plain DX9" in de R3x0 reeks. Maar goed, ik zou elk argument kunnen ontkrachten, maar het is hier natuurlijk praten tegen dovemans oren, dus laat ik het hier maar bij. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hully
  • Registratie: Maart 2004
  • Laatst online: 07-05 22:28
ik haalde met 61.77 forceware een score in CounterStrike Source beta videostresstest van: 117

nu met 66.00 forceware beta haal ik : 119

(1024 x 768 alles op 'high' + AA 4x + AF 16x)

niet echt shocking dus...

(athlon 64 3200 @ 2100 mhz + 6800gt @ ultra 410/1100)

[ Voor 30% gewijzigd door hully op 23-08-2004 19:27 ]


Acties:
  • 0 Henk 'm!

  • lithiumangel
  • Registratie: Augustus 2004
  • Laatst online: 21:26

lithiumangel

Tuurlijk !

CJ , zoals ik zei ik weet niks van ATI en zoals ik ook zei mag je me prima verbeteren :P
Maar volgens waar google mee uitkomt = R520 gewoon Q4 .
Als je nou sources had gepost die otherwise zeggen had ik dit natuurlijk niet in twijfel genomen maar ik had immers geen keuze dan wat die paar hits die google me gaven , mja wat dat betreft heb ik tenminste het 1 en ander geprobeert uit te zoeken i.p.v de standaard NV fanboy die meteen dingen neer prakt .

PS3.0 is daadwerkelijk nu nog niets bijzonders geen twijfel mogelijk, FC bugged er zelfs mee >_> en ATI hun alternatief op PS3 in FC trekt die performance wel weer gelijk .
Ik w8 eerder nog tot de andere PS3 games (LOTR/STALKER) voor hier pas echte conclusies kunnen worden getrokken , wij zijn geen van allen PS3.0 programeurs dus wie weet wat er uit te halen valt .

Acties:
  • 0 Henk 'm!

Anoniem: 79835

Anoniem: 101975 schreef op 23 augustus 2004 @ 18:01:
En jullie geloven gewoon lekker alles dat de InQ verteld :D _/-\o_
Bij ander nieuws van de InQ wordt er gezegd dat je het met een korrel zout moet nemen, en als het jullie uitkomt is alles waar :+ lekker bezig.
Dit is geen nieuws, dit is een comment van een editor. Leer lezen. De editor doe een voorspelling op basis van feiten die vandaag gekend zijn.
Feiten moet je nie met een korrel zout nemen, die zijn zo of ze zijn niet zo.

Acties:
  • 0 Henk 'm!

Anoniem: 79835

Anoniem: 38733 schreef op 23 augustus 2004 @ 19:05:
[...]


Lees Edward2's (eigenaar van een 6800U + X800XT PE) onlangs geschreven commentaar over Doom3 eens:

"Verder is met de Humus Doom3fix en cat4.9b de X800XT gewoon bijna even snel als m'n 6800U, alleen met veel smoke dipt hij ietsjes verder dan de 6800U, maar met de X800XT kan ik weer met vsync spelen ivm triple buffering.

In de timedemo van Doom3 haal ik zelfs iets meer fps met de X800XT dan met m'n 6800U! 71 vs 74. Maar ingame was de 6800U toch in de meeste gevallen sneller/constanter kwa fps."


Zo slecht is die X800XT in Doom3 nou ook weer niet hoor. ;) :)
Voor de duizendste keer: De humus fix is een cheat die de IQ aanpast zodat deze verschilt van wat id voor ogen had. Bovendien kan je dan niet meer multiplayen.
En wtf is edward2? Ik kan ook benchmarks verzinnen. Laat hem zijn xt maar eens volledig trinlineair filteren, dat wordt pas lachen.

Acties:
  • 0 Henk 'm!

Anoniem: 79835

lithiumangel schreef op 23 augustus 2004 @ 19:46:
CJ , zoals ik zei ik weet niks van ATI en zoals ik ook zei mag je me prima verbeteren :P
Maar volgens waar google mee uitkomt = R520 gewoon Q4 .
Als je nou sources had gepost die otherwise zeggen had ik dit natuurlijk niet in twijfel genomen maar ik had immers geen keuze dan wat die paar hits die google me gaven , mja wat dat betreft heb ik tenminste het 1 en ander geprobeert uit te zoeken i.p.v de standaard NV fanboy die meteen dingen neer prakt .

PS3.0 is daadwerkelijk nu nog niets bijzonders geen twijfel mogelijk, FC bugged er zelfs mee >_> en ATI hun alternatief op PS3 in FC trekt die performance wel weer gelijk .
Ik w8 eerder nog tot de andere PS3 games (LOTR/STALKER) voor hier pas echte conclusies kunnen worden getrokken , wij zijn geen van allen PS3.0 programeurs dus wie weet wat er uit te halen valt .
amen

Acties:
  • 0 Henk 'm!

Anoniem: 99825

Ook even de 66.00 drivers geinstalleerd, maar nergens heb ik iets van performance winst kunnen ontdekken. Sterker nog, in de meeste games/benchmarks lever ik snelheid in. Het is altijd hetzelfde verhaaltje, nieuwe driver, iedereen (zover ik hier en daar lees) gaat er 5 tot 10% op vooruit, terwijl ik altijd inlever bij nieuwe drivers. Versie 61.22 is voor mij nog de snelste driver.

3DMark03, 61.22/66.00 -- 11.179/10989
3DMark01, 61.22/66.00 -- 17.444/16.792
Aquamark3, 61.22/66.00 -- 59,759/57,121
Doom3 1280x1024 High, 61.22/66..00 -- 66fps/59fps

Driver Cleaner, schone installatie?? Ik heb het allemaal al zo vaak geprobeerd, maar het blijft beroerd.

Ligt het nu aan mij of is m'n 3DMark2001 score gewoon slecht? Met m'n 9800Pro in het zelfde systeem haalde ik 19.142 (8>

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 79835 schreef op 23 augustus 2004 @ 19:52:
[...]


Voor de duizendste keer: De humus fix is een cheat die de IQ aanpast zodat deze verschilt van wat id voor ogen had. Bovendien kan je dan niet meer multiplayen.
Inderdaad. Je moet met de standaard game+eventuele patches en de nieuwste videokaart drivers de videokaarten vergelijken, dus zonder een fix van 1 of andere homo(s) (a.k.a. humus). :D

[ Voor 15% gewijzigd door Tyranium op 23-08-2004 20:15 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 08-05 18:10

epo

Tyranium schreef op 23 augustus 2004 @ 20:12:
[...]


Inderdaad. Je moet met de standaard game+eventuele patches en de nieuwste videokaart drivers de videokaarten vergelijken, dus zonder een fix van 1 of andere homo(s) (a.k.a. humus). :D
lol idd, totaal met je eens ! :*)

[ Voor 4% gewijzigd door epo op 23-08-2004 20:15 ]


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:51

Pubbert

random gestoord

Anoniem: 79835 schreef op 23 augustus 2004 @ 19:52:
[...]


Voor de duizendste keer: De humus fix is een cheat die de IQ aanpast zodat deze verschilt van wat id voor ogen had. Bovendien kan je dan niet meer multiplayen.
En wtf is edward2? Ik kan ook benchmarks verzinnen. Laat hem zijn xt maar eens volledig trinlineair filteren, dat wordt pas lachen.
Waarom is het nu inneens een cheat? Ik heb me er niet echt in verdiept, maar ik zie geen achteruitgang in de IQ, en het is gemaakt door een medewerker van ATi die ook erg handig is in het maken van bijv. 3Dc en andere D3D/OpenGL demo's, dus hij weet echt wel wat hij doet.
Humus heeft het zelfs netjes bij John Carmack gemeld, en wie weet zit de "cheat" volgens jou, gewoon in de 1ste Doom3 patch, maar dat is gewoon afwachten dus.

Hier een post van Apple uit het vorige ATi Topic met wat screens, mag jij vertellen of je duidelijk verschil ziet of niet.

Apple zei

Ok, bij deze post ik wat Doom3 screenshots die genomen zijn mét en zonder de "Humus fix". Moest ik me voorheen beperken tot 2xAA/16xAF/1280x1024 op mijn X800Pro@XT, dankzij de Humusfix is 4xAA in deze setting perfect speelbaar geworden dankzij een gemiddeld 10fps hogere framerate. Dit is een vrij spectaculaire verbetering voor slechts 2 regels aan een shadercode toevoegen. :)


Screenshots zijn genomen in de volgende settings:

1280x1024, Ultra Q., 4xAA, 16xAF (forced in CP). FPS wordt links bovenin de screenshot weergegeven. Plaatjes zijn klikbaar naar volledig scherm. Screens zijn in jpg met weinig compressie, dus van goede kwaliteit. (Adobe's 8x)

Ik onthoud me verder even van commentaar over de verschillen tussen de Humusfix en het origineel, dat mogen jullie doen. :)


Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder1small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met1small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder2small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met2small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder3small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met3small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder4small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met4small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder5small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met5small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder6small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met6small.jpg

Origineel:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/zonder7small.jpg

Humusfix:
Afbeeldingslocatie: http://members.chello.nl/h.appel1/d3/met7small.jpg

/Apple

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Frietsaus
  • Registratie: Augustus 2003
  • Niet online
CJ schreef op 23 augustus 2004 @ 19:24:
dus laat ik het hier maar bij. :7
Mooizo, dankje. Kan ik op mijn gemak het topic weer lezen, zonder mij te ergeren.

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:51

Pubbert

random gestoord

Nokko schreef op 23 augustus 2004 @ 20:23:
[...]

Mooizo, dankje. Kan ik op mijn gemak het topic weer lezen, zonder mij te ergeren.
Je stelt je aan, jij (en meesten hier in dit topic) zou eens een voorbeeld moeten nemen aan de uitgebreide en goed onderbouwde posts van CJ in dit topic.

Maar ik wil me er verder ook niet bemoeien, als je TheInq willen geloven :) Be my guest.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Frietsaus
  • Registratie: Augustus 2003
  • Niet online
Thund3r schreef op 23 augustus 2004 @ 20:28:
[...]
Maar ik wil me er verder ook niet bemoeien, als je TheInq willen geloven :) Be my guest.
Ik zal het eerst even rustig doorlezen.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Dat is het hem nou. Je kan nog beter een Nvidia pr-medewerker geloven die zegt dat de fx5800Ultra 2x de performance van de 9700pro heeft dan de zogenaamde "niet pro-Ati houding" van Apple. (en dat geld trouwens ook voor CJ)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Thund3r schreef op 23 augustus 2004 @ 20:28:

Maar ik wil me er verder ook niet bemoeien, als je TheInq willen geloven :) Be my guest.
Het is niet alleen The Inq geloven, die heeft gewoon een paar dingen samengevat die wij allemaal (behalve mensen met een rode bril op) zien gebeuren. :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 79835 schreef op 23 augustus 2004 @ 19:52:
[...]


Voor de duizendste keer: De humus fix is een cheat die de IQ aanpast zodat deze verschilt van wat id voor ogen had. Bovendien kan je dan niet meer multiplayen.
En wtf is edward2? Ik kan ook benchmarks verzinnen. Laat hem zijn xt maar eens volledig trinlineair filteren, dat wordt pas lachen.
wtf is edward2? Jij komt hier zeker ook nog maar net kijken in vidkaart-land. :/

En de humus-fix een cheat? Waarom is er dan geen IQ verschil meer te merken sinds de laatste fix? En goh, blijkbaar zijn we ineens vergeten dat Carmack heeft aangegeven dat wanneer hij kleine aanpassingen maakte in z'n D3 engine, de performance gigantisch achteruit vloog op nV kaarten.... ATi heeft daar echter geen problemen mee met dat soort wijzigingen. Can you say "shaderreplacement"? Maar daar kraait niemand meer over. Dus als nVidia in de drivers shaders mag gaan vervangen dan mag ATi dat toch zeker ook wel...
Nokko schreef op 23 augustus 2004 @ 20:23:
[...]

Mooizo, dankje. Kan ik op mijn gemak het topic weer lezen, zonder mij te ergeren.
Tja, als je niets zinnigs te melden hebt, zeg dan niets. :|

[ Voor 13% gewijzigd door CJ op 23-08-2004 20:42 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Frietsaus
  • Registratie: Augustus 2003
  • Niet online
CJ schreef op 23 augustus 2004 @ 20:39:
Tja, als je niets zinnigs te melden hebt, zeg dan niets. :|
Jo, jij ook bedankt he. :Y)

Ik heb gewoon geen zin meer om dit topic te lezen, maar ik interesseer me wel voor nVidia. Dat is het, punt uit.

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:51

Pubbert

random gestoord

Tyranium schreef op 23 augustus 2004 @ 20:30:
[...]

Dat is het hem nou. Je kan nog beter een Nvidia pr-medewerker geloven die zegt dat de fx5800Ultra 2x de performance van de 9700pro heeft dan de zogenaamde "niet pro-Ati houding" van Apple. (en dat geld trouwens ook voor CJ)
*Zucht* Apple zegt toch dat je juist zelf de screenshots moet bekijken en zelf moet oordelen, en je ziet het toch (tenminste ik, jij met je groene bril op misschien niet) Zelfde Beeldkwaliteit, maar meer FPS. En ik zie Apple niet er voor aan om ff de fps op de screenshots aan te passen, en ik merk zelf ook vooruitgang in fps (zonder IQ verlies) met de humus-fix :)

[ Voor 9% gewijzigd door Pubbert op 23-08-2004 20:50 ]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Thund3r schreef op 23 augustus 2004 @ 20:49:
[...]


*Zucht* Apple zegt toch dat je juist zelf de screenshots moet bekijken en zelf moet oordelen, en je ziet het toch (tenminste ik, jij met je groene bril op misschien niet) Zelfde Beeldkwaliteit, maar meer FPS. En ik zie Apple niet er voor aan om ff de fps op de screenshots aan te passen, en ik merk zelf ook vooruitgang in fps (zonder IQ verlies) met de humus-fix :)
Okeey dan is er met totaal geen beeldkwaliteit verlies opeens 10+ fps extra, Leuk voor het hele kleine percentage mensen in Nederland die dit weten. Het veel grotere overige deel gamers speelt zonder fix en daarom moet je ook de game zonder 1 of andere vage fix testen om een eerlijke vergelijking te krijgen.
Ik denk wel dat er waarschijnlijk ook dit soort fixes voor HL2 voor Nvidia komen, want gabe heeft denk ik echt niet de volle 100% uit de NV40 hardware gehaald. ;)

Acties:
  • 0 Henk 'm!

  • Pollewob
  • Registratie: December 2000
  • Niet online
Mensen laat dit niet te veel uitlopen op een ATI vs nVidia discussie. Dit topic is in basis niet bedoelt voor 'welke is beter' gevechten :)
Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.