It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Frank_Knopers schreef op 20 april 2004 @ 21:29:
Maar er zijn toch wel nadelen aan die nieuwe grafische kaart, het is een luie kaart die veel stroom verbruikt. Volgens tomshardware belast een Divx'je draaien met de Nvidea 6800 Ultra je CPU voor 36%!!, tegenover 22/23% bij de Nvidea FX5950 en de ATi9800XT.
Deze Nvidea 6800 Ultra stuurt veel van zijn codeerwerk naar de processor (de smiecht...). Mede daardoor kan hij hoog presteren. Ook vreet hij veel stroom, wel net zoveel als mijn GigaWorks subwoofer in stressed situatie (210 watts
). Dat betekent veel warmteproductie en een dure voeding... En dat hoeft van mij niet.
![]()
Bij nader inzien, toch dik tevreden met mijn Asus V9980, die ik over een weekje kan aanschouwen in mijn glazen Chieftec kast.

Kortom: je probeert goed te praten dat je net een andere videokaart hebt gekocht. Doe dat svp niet met verkeerde argumenten. De 5950 is een prima videokaart en waarschijnlijk ook een flink stuk goedkoper dan de 6800 als die uitkomt. Dat neemt niet weg dat (als geld geen probleem is) je veel beter even had kunnen wachten omdat de prijzen van de 5950 zullen dalen en de 6800 beschikbaar komt.
Ik zit hier idd met dezelfde gedachte. farcry is echt niet meer te spelen met mijn ti4200. De performance verwachting van de 6800 en x800 is toch net te hoog om nu maar voor een 9800 pro te gaan (bijna verdubbeling 3dmarks). Painkiller is overigens nog wel aardig te spelen met een dx8 kaart.Naluh! schreef op 20 april 2004 @ 23:53:
Is er eigenlijk al een indicatie wat die dingen moeten gaan kosten? Mijn 4200 ti is met Far Cry wel zo'n beetje aan het eind van zijn economische levensduur gekomen...
De fx versie was toch niet echt een waardige opvolger van de gf4 bij nvidia. behalve de hoogst opgeschaalde versie mischien, die toch altijd vrij duur is gebleven.
Hopelijk valt de 6800 wat zuiniger uit bij de uiteindelijke stepping, 480 watt voeding hebben toch niet veel mensen. Retail zal hij dan niet echt aanslaan denk ik. (omdat bijna iedereen een andere voeding erbij moet kopen)
Bij de nv40 kan het wel, de 16 pipes kan je prima 8 van maken, dus ik denk dat in de rond 200 euro prijsklasse zo een kaart zal komen. Ik hoef niet uit te leggen dat die een stuk inferieurder is dan een 16 pipes op lagere clockspeeds zou zijn geweest. De non-ultra en 800pro hebben 12 pipes, die maken ook al gebruik van dit principe.
Vroeger was het zo voor veel meer geld kreeg je klein beetje extra (en mocht je jezelf de King noemen). Nu is het zo dat je voor 2x zoveel geld ook bijna 2x zoveel prestatie krijgt. Blij ben ik er ook niet mee, want 500 pleuro voor een kaart is eigenlijk idioot.
Dus kans op 4200 variant kan je vergeten. Je hebt wel kans dat er een laag geklokte 12 pipes komt die ze 6800XT noemen(althans dat zou ik doen als ik nVidia was). En wie weet komt Ati ook wel met een interessante x800non-pro.
[ Voor 16% gewijzigd door Sjah op 21-04-2004 12:02 ]
Frank_Knopers schreef op 20 april 2004 @ 21:29:
En net nu mijn Asus V9980 (met 5950 Ultra chipset) bij het automatiseringsbedrijf ligt, klaar om in mijn high-end Intel P4 systeem gebouwd te worden...
zou jij me de bios van je Asus V9980Ultra kunnen sturen? Ik heb deze ook, maar mijn tv out werkt niet. Misschien met jou bios wel.
Zou toch ook onzin zijn trouwens, als de 6800Ultra 2 dedicated voedingslijnen nodig heeft. Dat kan nVidia niet maken.....toch? Wie heeft er nu 2 dedicated lijnen vrij en daarbij ook nog eens minimaal 400 watt?
Ik zou bij god niet weten hoe ik met mijn zalman 400wat 2 lijnen vrij krijg.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
Lees het topic nou eens, daar is al tig keer uitgelegd dat de kaart helemaal niet 400 watt voeding nodig heeft, maar dat het een veilige grens is voor Nvidia. Voor de 9800 pro van Ati had men hetzelfde kunnen roepen qua voeding.Deathchant schreef op 21 april 2004 @ 11:43:
[...]
offtopic:
zou jij me de bios van je Asus V9980Ultra kunnen sturen? Ik heb deze ook, maar mijn tv out werkt niet. Misschien met jou bios wel.
Zou toch ook onzin zijn trouwens, als de 6800Ultra 2 dedicated voedingslijnen nodig heeft. Dat kan nVidia niet maken.....toch? Wie heeft er nu 2 dedicated lijnen vrij en daarbij ook nog eens minimaal 400 watt?
Ik zou bij god niet weten hoe ik met mijn zalman 400wat 2 lijnen vrij krijg.
En die molex, lekker belangrijk, t splitsing ertussen en klaar.. Als je een videokaart van ettelijke honderden euros aanschaft kan die t splitsing er ook nog wel vanaf niet?..
[ Voor 7% gewijzigd door Verwijderd op 21-04-2004 12:01 ]
ja het ligt ook niet altijd aan de hoeveelheid watts, ook een goed merk is heel belangrijk.Verwijderd schreef op 21 april 2004 @ 12:00:
[...]
Lees het topic nou eens, daar is al tig keer uitgelegd dat de kaart helemaal niet 400 watt voeding nodig heeft, maar dat het een veilige grens is voor Nvidia. Voor de 9800 pro van Ati had men hetzelfde kunnen roepen qua voeding.
En die molex, lekker belangrijk, t splitsing ertussen en klaar.. Als je een videokaart van ettelijke honderden euros aanschaft kan die t splitsing er ook nog wel vanaf niet?..
ik draai nu al jaren lang op een 300 watt voeding en ik heb nooit problemen
terwijl ik volgens mij veel meer nodig heb.
C2D 6600, 275 GTX Windows 7
De splitsing is het punt niet. De molexen die op dezelfde kabelboom zitten als de molex die in molex 1 van je nv40u gaat mogen niet meer voor andere "zware" devices gebruikt worden van nVidia. Een fannetje gaat wel maar een HD mag niet.Verwijderd schreef op 21 april 2004 @ 12:00:
[...]
En die molex, lekker belangrijk, t splitsing ertussen en klaar.. Als je een videokaart van ettelijke honderden euros aanschaft kan die t splitsing er ook nog wel vanaf niet?..
Hetzelfde geldt voor de kabelboom waarop de molex zit die in molex 2 van je nv40u gaat.
Zelf denk ik dat het wel mee valt en je kunt gewoon bijvoorbeeld een cd of dvd rom erop aansluiten. Die gebruik je toch niet als je heftig zit te gamen.
Als op 1 kabelboom 3 molexen zitten en 1 voor de nv40U gebruikt wordt zou ik de andere 2 idd niet voor een RAID 0 array gebruiken. Dat zou wel weer ns net teveel van het goede kunnen zijn.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Maar zie het wel als ik em kan kopen
(anders kunnen ze net zo goed videokaart met voedingen gaan bundelen
Veel betere voedingen dan de jouwe zijn er niet eens. Gaat echt wel werken bij jou. Denk dat dat dedicated verhaal m.n. voor de zwakkere voedingen van toepassing is.roodhoedje schreef op 21 april 2004 @ 14:03:
Neem aan dat dat wel kan want anders hebben veel mensen een probleem omdat je dan gewoon te weinig kabels hebt. Mijn antec 550 eps heeft dacht ik 4 of 5 , met totaal 7 stekkertjes voor 3 hd's 2x dvd + 1x dvd fikker dus tsja zit ik ook niet goed.
Maar zie het wel als ik em kan kopendan probeer ik het gewoon check me voltage lijnen wel in me bios. Ga niet gelijk een nieuwe voeding halen is gewoon onzin. Eerst kijken of het werkt.
(anders kunnen ze net zo goed videokaart met voedingen gaan bundelen.)
Een beetje een freak (tweaker) koopt er gewoon een tweede antec 550 bij. Dan moet het zeker werken. De ene nv40u molex naar Voeding 1 en de tweede nv40u molex naar Voeding 2.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dan kan je niet lezen want een 6800 gebruikt ongeveer 20 watt meer dan een 9800XT, dat komt neer op 120 watt. De 2 voedings lijnen zijn alleen voor het verdelen van de stroom over 2 punten wat een stabielerer voltage zal opleveren om de kaart zelf.Frank_Knopers schreef op 20 april 2004 @ 21:29:
Deze Nvidea 6800 Ultra stuurt veel van zijn codeerwerk naar de processor (de smiecht...). Mede daardoor kan hij hoog presteren. Ook vreet hij veel stroom, wel net zoveel als mijn GigaWorks subwoofer in stressed situatie (210 watts
). Dat betekent veel warmteproductie en een dure voeding... En dat hoeft van mij niet.
Niet te spelen wil ik nou ook weer niet zeggen, maar als je wat eye-candy wilt wordt het lastig... Painkiller loopt idd nog redelijk, al heb ik daar ook het een en ander terug moeten schroeven.smokey schreef op 21 april 2004 @ 01:21:
[...]
Ik zit hier idd met dezelfde gedachte. farcry is echt niet meer te spelen met mijn ti4200. De performance verwachting van de 6800 en x800 is toch net te hoog om nu maar voor een 9800 pro te gaan (bijna verdubbeling 3dmarks). Painkiller is overigens nog wel aardig te spelen met een dx8 kaart.
Ik ben ook nooit een fan geweest van de FX, maar de GF4 was idd een goede serie, ik mag echt niet klagen over mijn 4200 ti, hij heeft het eigenlijk veel langer volgehouden dan ik dacht en toen ik hem kocht was ie geloof ik nog geen 200 EuroDe fx versie was toch niet echt een waardige opvolger van de gf4 bij nvidia. behalve de hoogst opgeschaalde versie mischien, die toch altijd vrij duur is gebleven.
Maar goed, ik zit eigeniljk al een hele tijd te wachten op de nieuwe generatie kaarten van Nvidia en ATI, dan gaan we eens kijken wat we aan gaan schaffen.
@Deathchant: Ik wacht nog steeds tot het automatiseringsbedrijf klaar is met het assembleren van mijn systeem.. En zodra dat gebeurd is zal ik je de drivers /bios proberen te sturen
[ Voor 3% gewijzigd door frankknopers op 21-04-2004 16:46 ]
Goud is geen geld
Ja, de Ti reeks was idd een "doorbraak". De eerste FX was dan ook de FX5800Ultra, die op zich heel goed was.
- Ten eerste maakte ie gebruik van het (toen nog) nieuwste ddr2 geheugen
en en tweede had deze kaart heel goeie prestaties toen hoor.
Wat alleen zo klote is, is het geluid. En het feit dat deze stofzuiger later uitkwam dan de 9700PRO maar niet beter was.
De FX5900 heeft dit behoorlijk goed gemaakt dacht ik zo. Ik ben zeer tevreden met mijn 5900Ultra.
Aan de ene kant snap ik waarom nvidia bij de 6800Ultra de FX weggelaten heeft. Aan de andere kant kunnen ze het ook zo bekijken: de FX5900 was heel goed.
Bovendien vind ikzelf GeForce FX6800Ultra mooier klinken
Maar aan de andere kant kun je ook zeggen dat FX weggelaten moet worden, omdat het zo'n groot verschil is met de FX reeks. Nieuwe generatie (PCI express, 16 pipelines GDDR3 geheugen), nieuwe naam.
Maar goed. Trouwens, volgens mij zit je echt wel goed als je een Antec 550 hebt hoor. Komt als beste uit de test als het gaat om pure wattages. Als 2e komt de zalman 400 watt, die ikzelf heb en erg tevreden mee ben.
Als ik ga voor de 6800Ultra moet ik wel uitzoeken hoe ik alles moet aansluiten.
@frank: als je dat zou willen, heel graag!
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ik ben zwaar onder de indruk van de brute kracht van de NV40, die de term CPU limited nieuw leven heeft ingeblazen
Niet op voorraad.
De TI reeks was gewoon een zeer goede reeks, als je kijkt naar hoe lang die kaarten het volgehouden hebben. Dat zie ik de FX nog niet doen. Ik heb met mijn 4200Ti (de langzaamste uit de serie) pas bij Far Cry problemen gekregen met mijn FPS, kijken hoe de fx 5600 het over 2 jaar doetDeathchant schreef op 21 april 2004 @ 16:57:
Ik kan niet zeggen dat de FX reeks in verhouding "slechter" was dan de Ti reeks.
Ja, de Ti reeks was idd een "doorbraak". De eerste FX was dan ook de FX5800Ultra, die op zich heel goed was.
[/offtopic]

watvoor project ga je ervan maken ?
mischien moet je ff inbreken bij zon gast die em al hep ofzo =]
waarom komt ati nou niet met benchmarks?
er komt een chiller op , in een compleet nieuw systeem , heb hem gewoon nodigXyS schreef op 21 april 2004 @ 18:09:
bioblade kan nie meer w88
watvoor project ga je ervan maken ?![]()
mischien moet je ff inbreken bij zon gast die em al hep ofzo =]
waarom komt ati nou niet met benchmarks?
ow man ik kan ni w88
wat zal ik kopen als die nieuwe dingen uitzijn (max 250 !!!)
een 9800pro of ehm zon x600xt ofzo
of zon 6800xt
=]
schiet op tijd
Verwijderd
als de x serie van ati uitkomt is denk ik alleen nog de r9800xt verkrijgbaar. Ik zou voor die gaan.XyS schreef op 21 april 2004 @ 19:04:
shit heb je geld teveel ofzo
ow man ik kan ni w88
wat zal ik kopen als die nieuwe dingen uitzijn (max 250 !!!)
een 9800pro of ehm zon x600xt ofzo
of zon 6800xt
=]
schiet op tijd
Ik zou zeggen, snij de stierenstront en UITBRENGEN DIE HAP !
Ik verheug me om dit beest in de praktijk te zien.....
[ Voor 7% gewijzigd door Deathchant op 21-04-2004 19:42 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar

[ Voor 4% gewijzigd door LyP0 op 21-04-2004 19:43 ]
ik voel me lekkaah !!!
Ik niet. Maar over een jaar is er weer iets nieuws, kortom: je holt altijd achter de feiten aan en moet ééns de knoop doorhakken
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
http://www.xbitlabs.com/n...splay/20040421011854.html

en jah ik wil wel een jaartje geld sparen en dus een jaar 6800 power missen als ik daarna een 6950 ultra kan kope . mja denk niet dat ik 500 euri mag uitgeve voor een kaart van me ouders ; ben je gek , nee dat ding koop jij niet

[ Voor 27% gewijzigd door LyP0 op 21-04-2004 19:59 ]
ik voel me lekkaah !!!
we w8ten het wel af, eerst maares met een 6800ultra spelen
joa , eerst es de 6800 ultra flink tot zn eind jagen he .

weet iemand eigenlijk welk geheugen men gebruikt ? welk ns ? aangezien ze nu 2.8 ( wat ik heb ) of 2.2 gebruiken en t geheugen loopt nu op max 1 ghz . en het geheugen van de 6800 hebbe ze al op 1250 gekregen . oja en de core hebbe ze ook al met lucht op 460 gekregen en dit was de a1 versie , nu kijke wat de a2 doet
ik voel me lekkaah !!!
neem daar een kijkje ,
ik denk dat er 2ns mem op zit , of gewoon 2.5ns ddr3
Eagles may soar, but weasels don't get sucked into jet engines
Officieel eind mei.Erw schreef op 21 april 2004 @ 21:33:
wanneer mogen we deze kaarten in de winkel verwachten???
Albatron heeft al tegen verschillende sites gezegd dat ze een verkeerd beeld hebben gegeven van hun 6800U. De Albatron 6800UV loopt gewoon op 400Mhz core en 550Mhz GDDR3. Waarschijnlijk is het 2ns geheugen die een rating heeft van 500Mhz (oftewel 1000 Mhz effectief) wat ook op de site wordt genoemd.LyP0 schreef op 21 april 2004 @ 19:42:
blijve julie maar dromen over de 6800 ultra , ik wacht mooi op de 6950 ultra![]()
. als deze komt
ik weet niet of het al bekend is maar 400 mhz is niet de werkelijke snelheid van de 6800 ultra , volgens albatron hebbe zij de " echte " A2 ultra . dit is de nieuwe uitvoering , deze zou op 600 mhz core lopen , geheugen blijft het zelfde . lekker overklokke icm een voltmodje , geil hoor
De non-ultra loopt op 375Mhz core en 350 Mhz DDR. En daar zien we weer die 350 Mhz terug komen in de vorm van 700Mhz effectief.
http://www.clubic.com/n/n12402.html
Op GDC werd ook een 475Mhz A2 revisie gebruikt, maar die scheen nogal te artifacten...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die speeds van de NU neem ik helemaal met een korrel zout, denk niet dat nVidia die nou al uitgelekt wil zien naar Ati toe. Komt bij dat 700 Mhz geheugenspeed beetje erg langzaam is.
Verwijderd
Ma da kunne w we telken blijve wachte, e wie zeg da die kaar nog betaalbaar blij? .. *lastig he zo lezenLyP0 schreef op 21 april 2004 @ 19:55:
yea , thats my boy . 2 ghz werkgeheugen . why the fuck krijge ze ddr2 dan niet op 667 mhz terwijl ze dit al op 2 krijge . als ze dit geheuge nu es als ddr gebruike . mja goed . linkje http://www.theinquirer.net/?article=15406 . lees ma es . ze houde dus beide wat achter . mja kijk es naar de bron. jahahaha , natuurlijk the inquirer . zou t waar zijn ? hoop t
![]()
en jah ik wil wel een jaartje geld sparen en dus een jaar 6800 power missen als ik daarna een 6950 ultra kan kope . mja denk niet dat ik 500 euri mag uitgeve voor een kaart van me ouders ; ben je gek , nee dat ding koop jij niet. ik zie wel wat ik doe
Verwijderd
ik vond trouwens wel van de x800 diek totnutoe gezien heb

Verwijderd
Ik zou ten eerste willen opmerken dat ik mij geweldig stoor aan de manier waarop jij de Nederlandse taal verkracht. Nu ben jij niet de enige, die Lypo is misschien nog een beter voorbeeld, maar er moet toch een keer wat van gezegd worden. De meeste mensen maken taalfouten, daar val ik niet over. Sommige mensen doen moedwillig niet aan zinsopbouw en gebruiken ongepast leestekens en chattaal. Ik vraag mij af waarom moderators daar niets aandoen?Verwijderd schreef op 22 april 2004 @ 16:52:
mmm alles leuk en aardig van nvidia en jah die presentatie was ook aardig indrukwekkend ''voor een nvidia kaart''maar we moeten niet vergeten dat van de ati x800 serie er waarschijnlijk een of andere nvidia beater is ->x800xt pci express?
ik vond trouwens wel van de x800 diek totnutoe gezien heb(was zonder koelblok erop) hahaha maarja ik heb zelf een ati 9800 pro en ik moet zegge ATI OWND! dus hopelijk fixen ze een mooi koelblokje en maken ze het ding 32 buizen
hahahah dan ben ik weer tevreden voor t komende jaar
Over de inhoud. Dit voegt ook al niets toe aan dit topic. Je gedraagt je als een fanboy en meldt alleen maar dat "ATI owns". Wat je vergeet te vermelden is dat ATI ten eerste zijn kaart nog niet heeft uitgegeven. Wellicht daar ATI produktieproblemen heeft en zodoende eerst met een afgeslankte versie uitkomt waarbij slechts 12 van de 16 pilelines werken. Persoonlijk denk ik dat Nvidia deze slag gaat winnen, maar mocht dat niet zo zijn dan is de 6800 nog steeds een geweldig goed produkt. Laten we zelfs maar hopen dat beide kaarten aan elkaar gewaagd zijn. Dat levert betere produkten voor een lagere prijs op.
inderdaad ati ownde, het is NIET cker dat ati dat nu weer doet!!! het heeft naar ik meen geen ps3 om even wat te noemenVerwijderd schreef op 22 april 2004 @ 16:52:
mmm alles leuk en aardig van nvidia en jah die presentatie was ook aardig indrukwekkend ''voor een nvidia kaart''maar we moeten niet vergeten dat van de ati x800 serie er waarschijnlijk een of andere nvidia beater is ->x800xt pci express?
ik vond trouwens wel van de x800 diek totnutoe gezien heb(was zonder koelblok erop) hahaha maarja ik heb zelf een ati 9800 pro en ik moet zegge ATI OWND! dus hopelijk fixen ze een mooi koelblokje en maken ze het ding 32 buizen
hahahah dan ben ik weer tevreden voor t komende jaar
Verwijderd
nou nou wat zijn we weer zieligVerwijderd schreef op 22 april 2004 @ 16:52:
mmm alles leuk en aardig van nvidia en jah die presentatie was ook aardig indrukwekkend ''voor een nvidia kaart''maar we moeten niet vergeten dat van de ati x800 serie er waarschijnlijk een of andere nvidia beater is ->x800xt pci express?
ik vond trouwens wel van de x800 diek totnutoe gezien heb(was zonder koelblok erop) hahaha maarja ik heb zelf een ati 9800 pro en ik moet zegge ATI OWND! dus hopelijk fixen ze een mooi koelblokje en maken ze het ding 32 buizen
hahahah dan ben ik weer tevreden voor t komende jaar

Verwijderd
Als ik 50 euro meer moet uitgeven voor een kaart die net 5fps meer geeft, .. dikke snikkel, dan kies ik de goedkopere
En hoewel de meeste mensen luidkeels schreeuwen, dat ze kaarten gaan kopen, en dat ze 400 euro eventjes neerleggen voor een videokaart is het toch grappig om te zien dat het toch altijd weer op prijs/prestatie uitdraait.
Verwijderd
nieuws: 'Radeon X800 XT pas in juni, meer pipelines dan X800 Pro'
[ Voor 9% gewijzigd door Verwijderd op 22-04-2004 22:22 ]
als deze foto op de Aopen site klopt zal die kaart van hun Dual DVI hebben en volgen ze gewoon letterlijk het reference design.
had ook niks anders verwacht van hun.
moeten hem ook nog met 2 man dragen
zal wel erg zware koeling zijn
Is toch mooi
Nee hij is gewoon GROOTBigbot schreef op 22 april 2004 @ 23:21:
[total niet grappig modus]
moeten hem ook nog met 2 man dragen
zal wel erg zware koeling zijn
[ Voor 34% gewijzigd door nero355 op 22-04-2004 23:23 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
ehh?? wat is het dan ? een zwarte omgedraaide ondersteboven gedraaide ponyWeAreLegion schreef op 23 april 2004 @ 01:28:
Uh ok call me stupidomaar dat is geen doos of het moest als sarcasme gezegd worden dan heb ik niks gezegd
ik zit te wachten op de 6800 Ultra
Een kartonnen plaat met het design van de doosThaKiller schreef op 23 april 2004 @ 07:47:
[...]
ehh?? wat is het dan ? een zwarte omgedraaide ondersteboven gedraaide pony
[ Voor 7% gewijzigd door shuogg op 23-04-2004 07:53 ]
http://www.driverheaven.net/articles/driverIQ/
Het is een doos, het shirtje van de linker dude reflecteert in de zijkant van de doos. Dat is nou wat je noemt pixelshader
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
hjs schreef op 23 april 2004 @ 08:31:
hebben jullie deze al gelezen?
http://www.driverheaven.net/articles/driverIQ/
The final issue is why have Futuremark stated that these drivers should be considered as approved? Its very clear to me that the 6800Ultra is not rendering the reference image as desired by 3Dmark, regardless of any performance impact and therefore isnt comparable to any other card. This in result is no different to the optimisations in previous drivers which Futuremark have frowned upon
Verwijderd
In het kort belazerd Nvidia dus weer de boel
Verwijderd
kijk daar gaat weer een ati noob bleren.Verwijderd schreef op 23 april 2004 @ 13:06:
[...]
In het kort belazerd Nvidia dus weer de boelOf iig, komen de benchmarks niet overeen met de praktijk.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar

Verwijderd
Dit slaat weer nergens op, neem even je pilletje en een glas water, en lees ook even het artikel dat heb ik wel gedaan.
Ze geven gewoon duidelijk aan in zowel het artikel als de eindconclusie dat de punten die ze hebben ontdekt net zo erg zijn als optimalizaties tov specifieke games of benchmarks. Van een kaart van 400 euro verwacht hij op high quality ook high quality en niet minder om de boel te optimalizeren.
Verwijderd
Ligt eraan hoe je het opvat. Er zijn bepaalde eisen verbonden aan de tests, en de reference van 3dmark is daar één van, en zoals ze duidelijk laten zien komen die niet overeen en daarmee kloppen in het kort ook de resultaten voor geen meter.J0J0 schreef op 23 april 2004 @ 13:22:
bwaaaaah waar het op neer komt is dat de kaart niet helemaal dezelfde frame rendert maar betekent zeker nog geen cheaten....
Ik heb natuurlijk ook liever dat het wel precies overeenkomt. Echter, Futuremark heeft zelf de drivers gereviewed dus wellicht valt het gewoon binnen aanvaardbare marges en dan is het dus geen cheaten.Verwijderd schreef op 23 april 2004 @ 13:26:
[...]
Ligt eraan hoe je het opvat. Er zijn bepaalde eisen verbonden aan de tests, en de reference van 3dmark is daar één van, en zoals ze duidelijk laten zien komen die niet overeen en daarmee kloppen in het kort ook de resultaten voor geen meter.
Natuurlijk is het wel interessant om te weten en maakt het onderdeel uit van de aankoopbeslissing.
Het meest interessante is echter of het in waarneembare beeldkwaliteit ook echt uitmaakt en of deze manier van renderen overal en altijd gekozen wordt door nVidia of dat dit speciaal gedaan wordt voor deze benchmarks om een hogere framerate te halen.
Ook vraag ik me af of de nVidiakaart technisch wel in staat is om op de juiste manier te renderen en wat dan het verschil is in framerate en kwaliteit. Dat zouden ze ook ns moeten checken.
Voorlopig ben ik erg benieuwd naar de reacties van nVidia en Futurmark.
Het klinkt vooralsnog niet echt lekker allemaal. Ik had gehoopt dat nVidia dit keer verschoond bleef van driveroptimalisaties waar je vraagtekens bij kunt stellen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Ik het geen voorkeur voor merk maar vind persoonlijk de kwaliteit van Nvidia op het gebied van drivers telkens wel weer te wensen overlaten. De ene keer is het kwaliteit van AA, de andere keer Fog, die keer weet zus, andere keer weer zo.Help!!!! schreef op 23 april 2004 @ 14:00:
[...]
Het klinkt vooralsnog niet echt lekker allemaal. Ik had gehoopt dat nVidia dit keer verschoond bleef van driveroptimalisaties waar je vraagtekens bij kunt stellen.
Telkens weer merken meerdere mensen bij elke release van een driver op dat zaken niet werken zoals ze horen te werken en dat de beeldkwaliteit negatief is aangepast bij een nieuwe versie.
Als er een bedrijf is wat met hun drivers het optimale uit hun kaart weet te halen en in staat is om drivers te maken die altijd goed / stabiel werken, dan lijkt dat me overduidelijk nVidia en zeker geen atiVerwijderd schreef op 23 april 2004 @ 14:05:
[...]
Ik het geen voorkeur voor merk maar vind persoonlijk de kwaliteit van Nvidia op het gebied van drivers telkens wel weer te wensen overlaten. De ene keer is het kwaliteit van AA, de andere keer Fog, die keer weet zus, andere keer weer zo.
Telkens weer merken meerdere mensen bij elke release van een driver op dat zaken niet werken zoals ze horen te werken en dat de beeldkwaliteit negatief is aangepast bij een nieuwe versie.
Daar komt nog is bij kijken dat de kaart nog niet eens in de winkel legt en de drivers net nieuw, dus wat een gemiep om niks!
GreetZz
[ Voor 26% gewijzigd door Fr0zenFlame op 23-04-2004 14:19 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Ik weet niet hoe het met jou zit, maar als een bedrijf beweert de snelste kaart te hebben, je betaald daarvoor 500 pleuro en dan blijkt de kaart de helft niet te renderen zodat 'ie zo de snelste wordt, dan noem je dat gewoon diefstal.
Ik hoop kaarten voor de grafische toeters en bellen, niet voor de FPS, anders had ik zelf wel de low-quality opties aangezet.
Indien die kaart beter kan maar ivm verkoopcijfers goede sier kan maken door de kwaliteit omlaag te gooien, praat je gewoon over leugens, bedrog en diefstal.
De praktijk zal waarschijnlijk straks zijn dat de X800 evensnel is maar veel betere details laat zien. Mijn praktijk is dat ik niets met oplichtbedrijven te maken wil hebben.
Voor een bedrijf dat zulke superieure drivers zou hebben, vraag ik me af waarom ze elke keer gezeik hebben of 'premature versies' hebben. Alsof alleen de vrijdagmiddagmodellen prima werken....
[ Voor 11% gewijzigd door Delerium op 23-04-2004 14:36 ]
Vreemd toch?
[ Voor 3% gewijzigd door CJ op 23-04-2004 14:39 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik neem aan dat je door compressie toch ook niet meer het zelfde plaatje krijgt als het orgineel ?? (maar dat is meer voor in de ati draad
En ik weet ook niet hoe het met jou zit , maar als je al op stilstaande frames de 7 verschillen moet gaan zoeken tegenover de reference beeldjes van Futuremark , dan zou ik er mij voor dergelijke minimale verschillen toch niet druk over maken en liever het dubbele aantal fps hebben. Sorry , maar Far Cry bijvoorbeeld is op geen enkele kaart deftig te spelen , wel, en dan spreek ik zuiver voor mezelf ,ik lees nu de reviews van Tomshardware , Anandtech enz , die zijn allemaal veel positiever nu over de beeldkwaliteit van de GeForce 6800 Ultra. Sorry , maar als ik nu in Far Cry dubbele fps kan halen tegenover mijn fx5950 , dan ga ik echt niet zitten zeuren over deze minimale beelkwaliteitsverschillen tov Ati , want tov mijn fx5950 scoort hij duidelijk beter kwa kwaliteit , en hij is nog eens dubbel zo snel ook.Ecteinascidin schreef op 23 april 2004 @ 14:34:
[...]
Ik weet niet hoe het met jou zit, maar als een bedrijf beweert de snelste kaart te hebben, je betaald daarvoor 500 pleuro en dan blijkt de kaart de helft niet te renderen zodat 'ie zo de snelste wordt, dan noem je dat gewoon diefstal.
Ik hoop kaarten voor de grafische toeters en bellen, niet voor de FPS, anders had ik zelf wel de low-quality opties aangezet.
Indien die kaart beter kan maar ivm verkoopcijfers goede sier kan maken door de kwaliteit omlaag te gooien, praat je gewoon over leugens, bedrog en diefstal.
De praktijk zal waarschijnlijk straks zijn dat de X800 evensnel is maar veel betere details laat zien. Mijn praktijk is dat ik niets met oplichtbedrijven te maken wil hebben.
Voor een bedrijf dat zulke superieure drivers zou hebben, vraag ik me af waarom ze elke keer gezeik hebben of 'premature versies' hebben. Alsof alleen de vrijdagmiddagmodellen prima werken....
Verwijderd
GeForce 6800 Ultra:

ATI Radeon 9800XT

Ik sluit me bij Ecteinascidin aan, als ik zeg dat dit toch enigzins misleidend is voor de prestaties van een kaart. Het is alsof je een formule 1 wedstrijd rijd waarbij team 1 op slicks rijd en team 2 meer profiel heeft.
[ Voor 5% gewijzigd door Verwijderd op 23-04-2004 15:08 ]
of deze verschillen in beeldkwaliteit...
Verwijderd
Dat is de hele discussie niet, de hele discussie is of de benchmarks wel correct zijn als je dit vergelijkt met de kwaliteit die wordt gerenderd. Ik denk niet dat jij zo happy wordt van een kaart die nu met brakke drivers blaast, en met goede drivers factor x trager wordt.
Het is dus belangrijk dat op de te verwachten beeldkwaliteit ook de tests worden uitgevoerd, en dat de mensen daarvan op de hoogte zijn. Nu Futuremark de drivers heeft goedgekeurd nemen mensen automatisch aan dat het allemaal wel ok is, maar dat is het dus schijnbaar niet, aangezien andere partijen met duidelijke bewijzen komen dat de benchmarks door een veel lagere beeldkwaliteit ook veel hoger zijn uitgevallen en dat de scores wel is totaal anders kunnen zijn op een hoge kwaliteit.
En indirect betekend dit dus ook voor jou weer snelheid. Nu zie je in de grafieken stafdiagrammen die je doen verbazen, maar zijn deze wel correct gekeken naar de kwaliteit van het beeld?
Het gaat er hier niet om dat je de verschillen nauwelijks ziet, maar dat de verschillen er uberhaupt zijn.
Een kaart hoort te renderen wat er voorgeschreven staat, gebeurt dit niet dan klopt er iets niet. Als ze optimaliseringen invoeren, dan hoort de hardware uiteindelijk gewoon een identieke output te leveren als het referentiemodel.
Als het referentiemodel bijvoorbeeld uitkomst 2 heeft, dan ga je er van uit dat de output bij anderen ook 2 is of er zo dicht mogelijk op zit. En of ze nu bij 2 komen door 1+5-2-2 = 2, of (4*4)-(2*7) = 2, dat maakt niet uit. Maar bij nVidia is het antwoord in dit geval niet 2, maar 2.1, terwijl dat bij ATi 2.0000001 is en daar nog wel FP24 gebruikt wordt.
In games zal je hier weinig van merken. Dat klopt. Maar het gaat hier gewoon om het principe dat nV laatst nog een statement heeft gemaakt dat ze niets af zullen doen aan IQ, en dat ze er naar streven om dezelfde output te geven zoals de developer dat bedoeld heeft. En dat gebeurt hier gewoonweg niet.
Ik geef ze vooralsnog het voordeel van de twijfel en ga er van uit dat wanneer de kaart echt te koop is, alles gewoon gerenderd wordt zoals het bedoeld is. Driverbugs komen nu eenmaal voor, zeker bij nieuwe producten. En GF6800U heeft genoeg pure kracht om ook zonder dit soort vreemde optimalisaties 2 tot 3x sneller te zijn dan FX5950U.
[ Voor 1% gewijzigd door CJ op 23-04-2004 15:15 . Reden: taalvout ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hoe lang is de 9800XT er al en hoe oud is de 6800?
de 6800 is nog niet eens in de winkel en je kunt niet weten of die problemen tegen de tijd dat hij wel in de winkel ligt opgelost zijn door nieuwe drivers of niet.
en lees dit stuk op de FP maar eens:
Hoewel de auteur van het artikel op Driverheaven deze optimalisatie bestempeld als cheaten is het de vraag in hoeverre dit waar is. Er wordt immers nergens voorgeschreven welke kwaliteit mipmap levels moeten hebben bij een bepaalde instelling in de drivers. De enige conclusie die getrokken kan worden is dat ATi op de "high quality"-instelling textures van een hogere kwaliteit tekent dan nVidia op zijn "high quality"-instelling.
dus omdat ze een lagere kwaliteit dan ATi gebruiken is het cheaten?
dus volgens jouw redenatie zou als het anders om zou zijn en de kwaliteit van de 9800xt lager zou zijn dan de 6800, ATI aan het cheaten zijn?
beide is complete onzin want er zijn geen regels over de kwaliteit van mipmap levels.
Verwijderd
Maargoed net als de rest geef ik ze het voordeel van de twijfel en hoop ik dat het er uiteindelijk allemaal wel goed uit komt te zien.
ik kan me herinneren dat ik ook die vage textures heb gezien met mijn fx5900 ultraVerwijderd schreef op 23 april 2004 @ 16:25:
nee maar er is natuurlijk wel een niveau tot iets wel of niet acceptable is. Als je naar die 2 plaatjes met dat vliegtuig kijkt dan is dat niet acceptabel voor een kaart waar je 500+ euro voor moet betalen want dat valt zeker wel op in games.
Maargoed net als de rest geef ik ze het voordeel van de twijfel en hoop ik dat het er uiteindelijk allemaal wel goed uit komt te zien.
het valt echt op, vind dat ze dit niet kunnen maken.
C2D 6600, 275 GTX Windows 7
Dit is al veel eerder in opspraak gekomen en er is ook al lang duidelijk dat dit een driver bug is dus dit is geen argument.Verwijderd schreef op 23 april 2004 @ 15:08:
Mag ik deze 2 afbeeldingen nogmaals laten zien? .. en jij vind een dergelijk verschil acceptabel voor een kaart van 500 euro?
GeForce 6800 Ultra:
[afbeelding]
ATI Radeon 9800XT
[afbeelding]
Ik sluit me bij Ecteinascidin aan, als ik zeg dat dit toch enigzins misleidend is voor de prestaties van een kaart. Het is alsof je een formule 1 wedstrijd rijd waarbij team 1 op slicks rijd en team 2 meer profiel heeft.
Dit is een reactie van jvo op het frontpage artikel.Mipmaps hebben volgens mij met name het doel om 'knipperde' textures te voorkomen. Als je namelijk ver van een texture afstaat zou elke pixel op je scherm bijvoorbeeld moeten komen uit 64 pixels op een texture. Gezien het niet haalbaar is om alle 64 pixels te gebruiken, zijn ze al voorgemengd in een mipmap. Op een bepaald niveau bijvoorbeeld in 4 groepen van 16 pixels. Nu kan je gaan interpoleren met deze 4 groepen. Als je dit niet zou doen, dan zouden er vrij willekeurig 4 pixels uit de 64 gekozen moeten worden, waardoor de texture sterk kan veranderen bij kleine veranderingen in het camerastandpunt.
Je moet het eigenlijk gewoon zien om te zien wat er gebeurt.
Het te kiezen mipmapniveau hangt af van de afstand, de hoek, de filtermethode en, heel belangrijk, de texture. Het daarom niet eenvoudig te bepalen wat het juiste niveau is. En zoals mwvdlee al zegt is een hoger niveau niet beter. Als dat zo was, waren mipmaps niet nodig geweest en kon je altijd de originele texture gebruiken.
Hieruit valt te concluderen dat de review van driverheaven niets waard is als de uiteindelijke beeldkwaliteit (wat dus op je scherm komt als je de benchmark draait) niet in de test wordt meegenomen. Om verder dan ook te kunnen bepalen of nvidia goed bezig is zijn meer tests nodig.
Dat voorbeeld met die FlightSim is echter way to much, en lijkt me geen cheat, want een cheat wordt echt wel wat subtieler verpakt
Ik hoop echter wel dat met nieuwe drivers dit nou eindelijk eens gaat verdwijnen, want het moge duidelijk dat IQ veel belangrijker is dan een paar % meer framerate, ze kunnen het echt niet maken en er is nu performance genoeg.
Ik ben benieuwd of het met nieuwe drivers opgelost wordt.
[ Voor 6% gewijzigd door edward2 op 23-04-2004 16:38 ]
Niet op voorraad.
Farcry is prima speelbaar hoor, zet alles maar op low en zie hoe hard het loopt op je 9600/9800 /5700/59xx kaartje. Maar dat willen we niet, toch ? Nee we willen AA en AF en andere mooie 3D truukjes. Waarom? Om het mooier te maken, nietdan ?
Dan zeggen dat het toch nie boeit want je merkt het niet enzo gaat er bij mij niet in. Ook sommige features die je aanzet moet je onder de loep nemen om de verschillen te zien (bij wijze van) zoals 6x AF of 8xAF. Maar als die ene kaart maar 6x AF doet, wel zeuren. Zie je de tegenstrijdigheid ?
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Zit wat in, als je teveel LOD gebruikt (op afstand), krijg je aliasing of pixelpopping, vooral aan de randen van textures valt dat op.-db- schreef op 23 april 2004 @ 16:34:
[...]
Dit is een reactie van jvo op het frontpage artikel.
Hieruit valt te concluderen dat de review van driverheaven niets waard is als de uiteindelijke beeldkwaliteit (wat dus op je scherm komt als je de benchmark draait) niet in de test wordt meegenomen. Om verder dan ook te kunnen bepalen of nvidia goed bezig is zijn meer tests nodig.
Maar voor een goede head to head vergelijking in benchmarking is een zelfde rendering toch wel handiger
[ Voor 9% gewijzigd door edward2 op 23-04-2004 17:38 ]
Niet op voorraad.
Ik wil dat nog wel is zien als ie uit komt
GreetZz
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Bij alternate alleen de duitse variant (www4.alternate.de)
gainward U2400 nvidia 6800 399 euro
Verder nog geen info over, levertijd staat mei dus lekker vaag maargoed komt er dus aan
Ik wil niet lullig doen maar als een kaart gewoon op 1152x864 of 1280x1024 normale fps eruit kan persen dan heb je geen AA en AS nodig vind ikMadrox schreef op 23 april 2004 @ 16:45:
Nee we willen AA en AF en andere mooie 3D truukjes. Waarom? Om het mooier te maken, nietdan ?
Heb het dan nog nooit gebruikt met alle kaarten die ik tot nu toe heb gehad ......... gewoon hoge resolutie en ik ben tevreden
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Dat is zowiezo een foute resolutie en dan liggen de pixels ook anders zeg maarVerwijderd schreef op 23 april 2004 @ 17:54:
nah daar ben ik het niet met je eens, ik speel vaak bf 1942 op 1280x960, het verschil met of zonder aa&af is enorm !
Waarom 1280x960 eigenlijk ?? Ik doe dus meestal 1152x864 en heeeeeeeel soms 1280x1024
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Smaken verschillen, AF is a must have voor mij, zonder AA kan ik leven.
Lodbias zet ik ook altijd wat hoger in sommige games, bv in Unrealengines (det. mipmap).
Niet op voorraad.
Ik keek net eff op alternate.de, maar als de prijs in die richting loopt kunnen ze mn rug op, damn
6800u 849 Euro
6800 399 Euro
CoolFX U2600
http://www4.alternate.de/cgi-bin/frameset.pm?js=1
[ Voor 17% gewijzigd door Fr0zenFlame op 23-04-2004 18:00 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Die dure is een watercoolingsuitvoering.Fr0zenFlame schreef op 23 april 2004 @ 17:59:
Uhmm,
Ik keek net eff op alternate.de, maar als de prijs in die richting loopt kunnen ze mn rug op, damn
6800u 849 Euro
6800 399 Euro
CoolFX U2600
http://www4.alternate.de/cgi-bin/frameset.pm?js=1
De prijs voor de "gewone" 6800U zie ik nog niet.
Niet op voorraad.
Tis te hopen dat ie niet meer als 550 gaat kostenedward2 schreef op 23 april 2004 @ 18:03:
[...]
Die dure is een watercoolingsuitvoering.
De prijs voor de "gewone" 6800U zie ik nog niet.
Krijg namelijk 528terug van TPG voor mn FX5950 & moet zelf ff 4 modules 512 Corsair mem bestellen.
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Op de Nlse Alternate spreken ze al van "binnekort leverbaar" maar eind mei zal het toch wel worden op z'n vroegst.
[ Voor 26% gewijzigd door edward2 op 23-04-2004 18:13 ]
Niet op voorraad.
Yep, denkt ook... Mja tegen die tijd maar is kijken, hopen dat ze elkaar eff onder de grond gaan concurerenedward2 schreef op 23 april 2004 @ 18:11:
Ik denk dat je met 550 een eind komt, ik verwacht toch wel dat hij niet meer dan 600 eur gaat kosten en zo tussen de 500 en 600, misschien in het begin een enkeling iets meer.
Op de Nlse Alternate spreken ze al van "binnekort leverbaar" maar eind mei zal het toch wel worden op z'n vroegst.
GreetZz
( "onder de grond concureren" -->Neem het niet te letterlijk
[ Voor 4% gewijzigd door Fr0zenFlame op 23-04-2004 18:19 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
http://www.gamers-depot.com/interviews/dx9b/001.htm
offtopic:nero355 schreef op 23 april 2004 @ 17:58:
[...]
Dat is zowiezo een foute resolutie en dan liggen de pixels ook anders zeg maar
Waarom 1280x960 eigenlijk ?? Ik doe dus meestal 1152x864 en heeeeeeeel soms 1280x1024(Dan zit mijn scherm op 65 Hz is best ruk en op 1152x864 op 75 Hz en dat is dus ook mijn Desktop resolutie enz.....)
Als iets een foute resolutie is, dan is het wel 1280x1024. dan kloppen de beeldverhoudingen niet meer slimmerik. degene die deze resolutie heeft uitgevonden moeten ze aan de hoogste boom opknopen
1280x960 daarentegen is een volledig kloppende resolutie.
ontopic:
En wat een ophef over goedgekeurde beta-drivers van Nvidia.
Omdat het er naar uitziet dat ATI drivers een hogere kwaliteit MIP mapping dan die Nvidia klopt er gelijk niets meer van de Nvidia implementatie.
Fact: Futuremark heeft de Forceware 60.72 goedgekeurd omdat Nvidias implementatie blijkbaar binnen de marge valt.
OffTopic :D3ton4tor schreef op 23 april 2004 @ 21:51:
[...]
offtopic:
Als iets een foute resolutie is, dan is het wel 1280x1024. dan kloppen de beeldverhoudingen niet meer slimmerik. degene die deze resolutie heeft uitgevonden moeten ze aan de hoogste boom opknopen
1280x960 daarentegen is een volledig kloppende resolutie.
ontopic:
En wat een ophef over goedgekeurde beta-drivers van Nvidia.
Omdat het er naar uitziet dat ATI drivers een hogere kwaliteit MIP mapping dan die Nvidia klopt er gelijk niets meer van de Nvidia implementatie.
Fact: Futuremark heeft de Forceware 60.72 goedgekeurd omdat Nvidias implementatie blijkbaar binnen de marge valt.
Die resolutie van 960 heeft wel raarder beeld dan 1024
OnTopic :
Ja joh laten we slechte drivers gebruiken om meer FPS te krijgen.......... je lijkt wel die gast van DNA Drivers voor ATI's die heeft ongeveer dezelfde theorie

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
niks fout aan, dat is een native resolutie van Battlefield. Ook als ik hetzlefde spel op 1600x1200 zet zie je duidelijk het verschil.nero355 schreef op 23 april 2004 @ 17:58:
[...]
Dat is zowiezo een foute resolutie en dan liggen de pixels ook anders zeg maar
Waarom 1280x960 eigenlijk ?? Ik doe dus meestal 1152x864 en heeeeeeeel soms 1280x1024(Dan zit mijn scherm op 65 Hz is best ruk en op 1152x864 op 75 Hz en dat is dus ook mijn Desktop resolutie enz.....)
559euro voor de Leadtek 6800U!!! Dat is net om'e nocht
lager si natuurlijk leuker maar ikzelf had meer iets in de richting van 599 als richting prijs gedacht.
en die hoge prijs voor de coolFX is normal de watergekoelde 5950 van gainward koste ook ongeveer zoveel toen hij net uit was.
Verwijderd
duitsland is wel altijd iets goedkoper, dus misschien zit hier in nederland er wel een prijs in van rond de €600Bigbot schreef op 24 april 2004 @ 16:45:
559 euro vind ik een erg leuke prijs.
lager si natuurlijk leuker maar ikzelf had meer iets in de richting van 599 als richting prijs gedacht.
en die hoge prijs voor de coolFX is normal de watergekoelde 5950 van gainward koste ook ongeveer zoveel toen hij net uit was.
559 euro voor een leadtek is wel een goede prijs nu ze nog niet leverbaar zijn dat daald wel nadat er een paar maanden verstreken zijn, verder vind ik het dan wel verdacht dat de 5950 U van leadtek de goedkoopste is die ik kan vinden
En tsja club3d blijft natuurlijk wel weer een van de goedkopere al dan niet het goedkoopste merk. Dus op de uitkijk voor club3d kaarten
Jammer dat die waterkoeling zo ongelovelijk duur is scheeld 200 a 300 euro, en dat voor een paar blokjes, beetje jammer. Denk dat 650 euro ofzo best wel goed te doen is voor een water gekoelde videokaart maarja hopen dat die ooit in de prijsklasse komt. Anders wordt het zelf met koper knutselen
Dit topic is gesloten.