Turn it off and on again.
'k zag het ook net.SmokeyTheBandit schreef op 28 juni 2004 @ 08:15:
nVidia heeft nu ook de SLI standaard weer terug gebracht uit het gouden ouwe 3dfx voodoo 2 tijdperk![]()
![]()
http://www.hardwareanalysis.com/content/article/1728/
[afbeelding]
In de review van Anandtech is goed te zien dat hun NV45 ook zo'n inham heeft.

Dit is GROOOOOOOOOOOT nieuws ...
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
"First off you'll need a workstation motherboard featuring two PCI-E-x16 slots which will also use the more expensive Intel Xeon processors. Secondly you'll need two identical, same brand and type, PCI-E GeForce 6800 graphics cards."Thund3r schreef op 28 juni 2004 @ 08:24:
Dan moet je dus wel 2 AGP of 2 PCI-E 16x poorten langs elkaar hebben, en die vind je denk ik nog niet. Misschien PCI-E over een tijdje, of 1 PCI-E 16x en 1 AGP, maar kan het me nog niet echt voorstellen.
Nieuwe dets: Forceware v61.71 [url=http://www.3dchips-fr.com/download/sendfile.php?DownloadID=1893]link[/rul]
In de beschrijving van de nieuwere detonators staat onderaan een paar maal "NVIDIA_BR02.DEV" met daarachter vrijwel altijd een PCI-E kaart. Zou dit betrekking kunnen hebben tot SLI?
[ Voor 28% gewijzigd door silentsnow op 28-06-2004 08:41 ]
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
Waarom ik een X800 zou nemen en geen 6800:
- Geen vertrouwen in Nvidia dankzij de vele cheats (meer snelheid, kwallitiet minder) desondanks dat ATi ook "cheat", maar naar mijn mening veel minder/niet.
- ATi Catalyst drivers vind ik persoonlijk veel beter opgebouwd en betere ondersteuning bij games bieden.
- Minder stroom vretend, vooral wanneer je gaat overclocken;
- Dus ook minder warmte.
- TemporalAA van ATi, effectief word 2xAA dan 4xAA terwijl er geen/nauwelijks snelheidsverlies optreed, waardoor Anti Aliasing op een X800
(bijna altijd) beter draait op een X800 dan 6800(U).
- 2d Kwalliteit/AntiAliasing kwalliteit vind ik persoonlijk van ATi mooier (Nvidia is er wel enorm op vooruit gegaan sinds de vorige Geforce reeks)
- Persoonlijk gevoel over Nvidia dat ze ATi niet bij kunnen houden, en daarom een kaart uitbrengen die eigelijk nog helemaal niet klaar is voor productie (net zoals het fout was gegaan met de Geforce FX5700).
Redenen om voor Nvidia te gaan?
- Omdat jij juist de nvidia detonator drivers beter vind.
- Omdat jij de 2d/3d kwalliteit van Nvidia beter vind.
- Omdat wanneer er weinig van de kaart gevraagd word (geen AA etc) Nvidia meestal sneller is.
- Omdat jij het altijd koud hebt in je kamer en je pc als kachel wilt gebruiken
- Enz...
Dit is totaal niet als flame bedoelt, maar ik ben beniewd naar argumenten waarom tweakers juist voor de 6800 zouden gaan en niet voor de X800.
57696520646974206c65657374206973206e657264
Ok kwa hitte begin je al fout. Alle reviewers die de hitte testen komen tot de colclusie dat nvida rond de 46 komt en ati rond de 66 dus beter geen x800 op dat vlak. (66 is van de pro dus de xt ligt nog hoger)Sluuut schreef op 28 juni 2004 @ 11:40:
!! NOFI !!
Waarom ik een X800 zou nemen en geen 6800:
- Geen vertrouwen in Nvidia dankzij de vele cheats (meer snelheid, kwallitiet minder) desondanks dat ATi ook "cheat", maar naar mijn mening veel minder/niet.
- ATi Catalyst drivers vind ik persoonlijk veel beter opgebouwd en betere ondersteuning bij games bieden.
- Minder stroom vretend, vooral wanneer je gaat overclocken;
- Dus ook minder warmte.
- TemporalAA van ATi, effectief word 2xAA dan 4xAA terwijl er geen/nauwelijks snelheidsverlies optreed, waardoor Anti Aliasing op een X800
(bijna altijd) beter draait op een X800 dan 6800(U).
- 2d Kwalliteit/AntiAliasing kwalliteit vind ik persoonlijk van ATi mooier (Nvidia is er wel enorm op vooruit gegaan sinds de vorige Geforce reeks)
- Persoonlijk gevoel over Nvidia dat ze ATi niet bij kunnen houden, en daarom een kaart uitbrengen die eigelijk nog helemaal niet klaar is voor productie (net zoals het fout was gegaan met de Geforce FX5700).
Redenen om voor Nvidia te gaan?
- Omdat jij juist de nvidia detonator drivers beter vind.
- Omdat jij de 2d/3d kwalliteit van Nvidia beter vind.
- Omdat wanneer er weinig van de kaart gevraagd word (geen AA etc) Nvidia meestal sneller is.
- Omdat jij het altijd koud hebt in je kamer en je pc als kachel wilt gebruiken
- Enz...
Dit is totaal niet als flame bedoelt, maar ik ben beniewd naar argumenten waarom tweakers juist voor de 6800 zouden gaan en niet voor de X800.
Drivers ondersteuning is momenteel ietsje beter bij ati maar kijk eens terug door alle jaren heen dan wint nvidia het met een grote voorsprong, dus kun je beter kiezen voor de nvidia.
Temporal AA is alleen nuttig bij hoge fps (100+) en heeft alleen effect op CRT schermen die niet lang meer op de markt blijven aangezien tft bijna even goed is en in prijs daalt.
Kwa stroom is het makkelijk, je 3d kaart verbruikt niet altijd de volle mep zelfs niet onder 3d dus je moet wel 24/7 gamen wil je dit ook maar iets gaan merken op je rekening. En de hitte is bij ati hoger op een lager verbruik maar dat staat hierboven al duidelijk.
Beeldkwaliteit van ati is enkel nog een stukje beter met AF en is te verwaarlozen.
2D is er geen verschil meer te zien ( dit is wel afhankelijk van het merk sommige zijn beter als de ander)
Ati heeft nu ook cheats en heeft dit ok eerder gedaan en aangezien nvidia dit nu bijna niet meer doet en soms zelfs betere beeldkwaliteit levert is dit geen argument meer om ati boven nvidia te kiezen.
Nvidia heeft standaard sli op het bord dus is een reden om die te kiezen.
Ik snap jouw punten eigenlijk niet, weet je eigenlijk wel hoe het er momenteel voor staat, "detonator" is trouwens tegenwoordig "Forceware" en bij het bijhouden van ati slaat ook nergens op aangezien ati nu lichtjes aan het cheaten is om de fps hoger te houden en de XT iets sneller gelanceerd heeft als dat origineel de bedoeling was.(dit laatste is mijn speculatie)
!! NOFI !! back
[ Voor 4% gewijzigd door sjekneck op 28-06-2004 12:06 ]
Sluuut schreef op 28 juni 2004 @ 11:40:
!! NOFI !!
Waarom ik een X800 zou nemen en geen 6800:
- Geen vertrouwen in Nvidia dankzij de vele cheats (meer snelheid, kwallitiet minder) desondanks dat ATi ook "cheat", maar naar mijn mening veel minder/niet.Optimalisaties/cheats, weet ik het mijne nog niet helemaal van, vind het alleen zielig van nvidia dat zei Futuremark de schuld gaven (na hun "3dmurk03.exe cheat")
- ATi Catalyst drivers vind ik persoonlijk veel beter opgebouwd en betere ondersteuning bij games bieden.Dit vind ik zelf ook, werk nog met beide driver setjes, en vind toch echt de Catalyst een verrijking
- Minder stroom vretend, vooral wanneer je gaat overclocken;[b]Welke meer stroom nodig heeft is niet echt duidelijk, nvidia raadt iig een zwaardere voeding aan, en hun kaart heeft ook een grotere cooler. Qua dit punt zit de X800 wel wat beter in elkaar.
- Dus ook minder warmte. Zag een review van X800 vs 6800, met een X800 van 60c, en een 6800 van 44c, nou word mijn kaart (X800 Pro, Powercolor) maar 44c idle, en 49c stressed. Weet niet wat een 6800 in mijn systeem zou worden. Moment opnames dus, vergeet ook niet dat de 6800U een dual slot cooler heeft.
- TemporalAA van ATi, effectief word 2xAA dan 4xAA terwijl er geen/nauwelijks snelheidsverlies optreed, waardoor Anti Aliasing op een X800TempAA zit nog in een betafase, en ik moet het nog maar eens zien of het voor iedereen bruikbaar word, dus niet alleen CRT's met zo'n refreshrate, maar áls het goed werkt, dan moet nvidia wel heeel erg hard hun best gaan doen, als ATi dan betere AA en AF heeft.
(bijna altijd) beter draait op een X800 dan 6800(U).
- 2d Kwalliteit/AntiAliasing kwalliteit vind ik persoonlijk van ATi mooier (Nvidia is er wel enorm op vooruit gegaan sinds de vorige Geforce reeks)Dit vind ik zelf ook, maar er is imho heeel erg weinig verschil meer,ik ben er bijv. niet meer op voorruit gegaan met 9700-9800-X800, de beeldkwaliteit was gewoon al top, en als ik mn GeForce4 MX vergelijk met een Ti4200 zie ik al een verbetering (kan nog steeds niet tippen aan de Radeon)
- Persoonlijk gevoel over Nvidia dat ze ATi niet bij kunnen houden, en daarom een kaart uitbrengen die eigelijk nog helemaal niet klaar is voor productie (net zoals het fout was gegaan met de Geforce FX5700). Je bedoeld 5800? En het "niet klaar voor productie" daarmee doel je op IBM's productieprobleem? Misschien een fout van beide (overschatting?) dat ze persé SM3.0 erin wilden hebben = veel transistors = slechte yieldrate, en daarom de trage opkomst van de kaarten. Maar de X800XT is ook nog niet leverbaar, terwijl ATi aangeeft wél een goede yieldrate te halen.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
39
Alsof ATi niet cheat. Of ben je dat geintje met de eerste X800 reviews alweer vergeten? ("zet alle optimalisaties uit voor de 6800 in de Detonator drivers, zodat onze kaart beter lijkt terwijl wij wél optimalisaties gebruiken" qua trilinear filtering)Sluuut schreef op 28 juni 2004 @ 11:40:
!! NOFI !!
Waarom ik een X800 zou nemen en geen 6800:
- Geen vertrouwen in Nvidia dankzij de vele cheats (meer snelheid, kwallitiet minder) desondanks dat ATi ook "cheat", maar naar mijn mening veel minder/niet.
Oh? Ik wordt anders niet echt blij als ik die lange lijst in de release notes zie... fix voor <game x>, fix voor <game y>, fix voor <demo z>, ...- ATi Catalyst drivers vind ik persoonlijk veel beter opgebouwd en betere ondersteuning bij games bieden.
6800 gebruikt standaard 1 molex, net zoals een Radeon kaart. Dat je die 2e nodig hebt als je stevig gaat overclocken omdat de kaart anders instabiel wordt tja...- Minder stroom vretend, vooral wanneer je gaat overclocken;
Ik meen gelezen te hebben dat de X800 een stuk warmer is/wordt dan de 6800- Dus ook minder warmte.
Qua AA loopt ATi inderdaad voorop.- TemporalAA van ATi, effectief word 2xAA dan 4xAA terwijl er geen/nauwelijks snelheidsverlies optreed, waardoor Anti Aliasing op een X800
(bijna altijd) beter draait op een X800 dan 6800(U).
Nvidia heeft inderdaad een historie betreffende ietwat brakke video filters. Maar ze worden inderdaad ook elke generatie een stuk beter. (ik merk trouwens niets van brakke beeldkwaliteit als ik met standaard Windows apps bezig ben op mijn huidige GF2 maar dat kan ook aan mij liggen ;-) )- 2d Kwalliteit/AntiAliasing kwalliteit vind ik persoonlijk van ATi mooier (Nvidia is er wel enorm op vooruit gegaan sinds de vorige Geforce reeks)
Pardon?- Persoonlijk gevoel over Nvidia dat ze ATi niet bij kunnen houden, en daarom een kaart uitbrengen die eigelijk nog helemaal niet klaar is voor productie (net zoals het fout was gegaan met de Geforce FX5700).
1: 3 words: Pixel Shaders v3.0. 'nuff said.
2: Wat betreffende PCI Express ('Maar ATi ondersteund wél mooi native PCI Express!'): Het lijkt erop dat de huidige generatie ATI PCI-E kaarten ook gebruik maken van een AGP<->PCI-E bridge chip dus ook wat dat betreft lopen ze niet voorop ;-)
3: SLI Support
4: En eerlijk is eerlijk: De X800 is qua architectuur eigenlijk niets meer of minder dan een R9800 met een hogere kloksnelheid en meer pipelines... Nvidia daarentegen heeft met de NV40 een volledig nieuwe GPU ontworpen die wél als basis de NV30/NV35 heeft maar óók een aantal nieuwe features introduceerd zoals een volledig programmeerbare video codec en de eerder genoemde support voor PS3.0 en SLI
Sure. Je post klinkt anders wel alsof een gemiddelde ATI zealot die in elkaar getikt heeft.Dit is totaal niet als flame bedoelt
[ Voor 5% gewijzigd door mindcrash op 28-06-2004 12:30 ]
"The people who are crazy enough to think they could change the world, are the ones who do." -- Steve Jobs (1955-2011) , Aaron Swartz (1986-2013)
Verwijderd
Ja logisch zeg, je zegt dat ATi nu beter is maar omdat Nv vroeger beter was vind jij toch dat je beter voor Nv kan kiezen, logisch hoor...Drivers ondersteuning is momenteel ietsje beter bij ati maar kijk eens terug door alle jaren heen dan wint nvidia het met een grote voorsprong, dus kun je beter kiezen voor de nvidia.

Conclusie: drivers zijn bij beide ruim in orde, goede ordersteuning en fixes.
Ja dat klopt, erg jammer is dat, ut klinkt zeer veelbelovend maarja kheb zelf een TFT jammer...Temporal AA is alleen nuttig bij hoge fps (100+) en heeft alleen effect op CRT schermen die niet lang meer op de markt blijven aangezien tft bijna even goed is en in prijs daalt.
Hij bedoeld het piekgebruik, dus bij zwaar gamen. In een testje ofzo op Anand destijds was gemeten dat de Nv meer watt gebruikt (maar niet extreem meer ofzo). Volgens mij is dit geen big issue ofzo hoor...?Kwa stroom is het makkelijk, je 3d kaart verbruikt niet altijd de volle mep zelfs niet onder 3d dus je moet wel 24/7 gamen wil je dit ook maar iets gaan merken op je rekening. En de hitte is bij ati hoger op een lager verbruik maar dat staat hierboven al duidelijk.
LOL maar das geen misdaad hoor...en de XT iets sneller gelanceerd heeft als dat origineel de bedoeling was
Persoonlijk vind ik het wel moeilijk eigenlijk om te kiezen, ik neig naar ATi normaalgesproken, maar Nv heb nu toch wel een erg mooikaartje neergezet. Dus ik ga lekker passen ahah scheelt weer grijze haren.

Het was wel te verwachten dat nVidia ook een graantje mee zou willen pikken en Alienware niet alle winst zou willen laten opstrijken met hun dual oplossing. Ik ben zeer benieuwd of ze de performance winst van 90% ook waar kunnen maken.
Het kost overigens wel een leuke duit als je èn 2 NV45's èn een workstationmobo met 2 PCI-E-x16 slots wilt kopen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit heeft niets met ATi te maken, maar omdat de gamedeveloppers ten tijde dat ze met het ontwerpen van de game begonnen keken naar marktleider in de échte 3d-wereld (nee niet Intel) en dus werden veel spellen op nvidia's gebaseerd, en dan moet Catalyst team maar ff aan de gang om het ook goed werken op Radeons te krijgen. Gelukkig merk je daar nu al steeds minder van. En terecht ook, zeker omdat ATi nu boven nvidia staat in de marktpositie van videokaarten.mindcrash schreef op 28 juni 2004 @ 12:16:
[...]
Oh? Ik wordt anders niet echt blij als ik die lange lijst in de release notes zie... fix voor <game x>, fix voor <game y>, fix voor <demo z>, ...
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Tuurlijk is dat mooi maar hij kwam aan dat nvidia het niet kon bijhouden mijn reactie daarop was puur om te laten zien dat dat wel meevalt.Verwijderd schreef op 28 juni 2004 @ 12:19:
LOL maar das geen misdaad hoor...Dat is juist heel mooi toch.
Hoe meer kaarten hoe beter zeg ik altijd maar weer, lekker volpompen die markt, goed voor ons allen.
De nForce 4 (ja 4) van nVidia zal 2 PCE-E x16 sloten ondersteunen voor gewone desktop mobo'sCJ schreef op 28 juni 2004 @ 12:22:
Het kost overigens wel een leuke duit als je èn 2 NV45's èn een workstationmobo met 2 PCI-E-x16 slots wilt kopen.Hopelijk doen ze dit ook bij de wat lager geprijste PCI-E kaartjes, want dat zou toch wat interessanter zijn, denk ik.
http://www.theinquirer.net/?article=16874
[ Voor 7% gewijzigd door XWB op 28-06-2004 13:24 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Komop je haalt alles weer terug om weer een discusie te veroorzaken, dit is al lang en breet besproken allemaal.. Nvidia & Ati hebben beiden hun min & plus punten.Sluuut schreef op 28 juni 2004 @ 11:40:
!! NOFI !!
Waarom ik een X800 zou nemen en geen 6800:
- Geen vertrouwen in Nvidia dankzij de vele cheats (meer snelheid, kwallitiet minder) desondanks dat ATi ook "cheat", maar naar mijn mening veel minder/niet.
- ATi Catalyst drivers vind ik persoonlijk veel beter opgebouwd en betere ondersteuning bij games bieden.
- Minder stroom vretend, vooral wanneer je gaat overclocken;
- Dus ook minder warmte.
- TemporalAA van ATi, effectief word 2xAA dan 4xAA terwijl er geen/nauwelijks snelheidsverlies optreed, waardoor Anti Aliasing op een X800
(bijna altijd) beter draait op een X800 dan 6800(U).
- 2d Kwalliteit/AntiAliasing kwalliteit vind ik persoonlijk van ATi mooier (Nvidia is er wel enorm op vooruit gegaan sinds de vorige Geforce reeks)
- Persoonlijk gevoel over Nvidia dat ze ATi niet bij kunnen houden, en daarom een kaart uitbrengen die eigelijk nog helemaal niet klaar is voor productie (net zoals het fout was gegaan met de Geforce FX5700).
Redenen om voor Nvidia te gaan?
- Omdat jij juist de nvidia detonator drivers beter vind.
- Omdat jij de 2d/3d kwalliteit van Nvidia beter vind.
- Omdat wanneer er weinig van de kaart gevraagd word (geen AA etc) Nvidia meestal sneller is.
- Omdat jij het altijd koud hebt in je kamer en je pc als kachel wilt gebruiken
- Enz...
Dit is totaal niet als flame bedoelt, maar ik ben beniewd naar argumenten waarom tweakers juist voor de 6800 zouden gaan en niet voor de X800.
Als je kijkt naar die beshmarks van laatst zie je dat de hele X800 serie het al moeilijk heeft met de 6800GT
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Verwijderd
punt 1 is al fout, als er op de ati ook een koelblok van een kilo koper zou zitten zou die ook een stuk koeler zijn.sjek schreef op 28 juni 2004 @ 12:03:
[...]
Ok kwa hitte begin je al fout. Alle reviewers die de hitte testen komen tot de colclusie dat nvida rond de 46 komt en ati rond de 66 dus beter geen x800 op dat vlak. (66 is van de pro dus de xt ligt nog hoger)
Temporal AA is alleen nuttig bij hoge fps (100+) en heeft alleen effect op CRT schermen die niet lang meer op de markt blijven aangezien tft bijna even goed is en in prijs daalt.
Ati heeft nu ook cheats en heeft dit ok eerder gedaan en aangezien nvidia dit nu bijna niet meer doet en soms zelfs betere beeldkwaliteit levert is dit geen argument meer om ati boven nvidia te kiezen.
Nvidia heeft standaard sli op het bord dus is een reden om die te kiezen.
Ik snap jouw punten eigenlijk niet, weet je eigenlijk wel hoe het er momenteel voor staat, "detonator" is trouwens tegenwoordig "Forceware" en bij het bijhouden van ati slaat ook nergens op aangezien ati nu lichtjes aan het cheaten is om de fps hoger te houden en de XT iets sneller gelanceerd heeft als dat origineel de bedoeling was.(dit laatste is mijn speculatie)
!! NOFI !! back
punt2: Volgens is temporal aa nuttig bij 60+ frames en niet 100+ frames (op mijn 9600xt merk ik iig niks vreemds als het aanstaat onder de 100 frames want die haal ik toch bijna nergens met mijn kaart).
punt3: ze ''cheaten'' allebei, zolang het niet zichtbaar is zal het mij een zorg zijn.
punt4: heel leuk dat sli maar hoeveel mensen zullen dat kunnen/willen betalen? misschien 5 op de hele planeet ofzo? Ik zie dat niet als voordeel maar als leuk extratje voor de mensen die geld teveel hebben.
Ik persoonlijk zou nu voor een GT ipv pro gaan omdat die sneller lijkt atm al gaat de prijs en degeene die het snelste is in hl2 de doorslag geven voor mij.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Bullshit, DirectX en OpenGL zorgen er juist voor dat de hardware architectuur op je videokaart volledig losgekoppeld is van je applicatie/game. Eigenlijk komt het er dus domweg op neer dat de implementatie van het omzetten van bepaalde DirectX/OpenGL instructies richting GPU instructies (dus de uiteindelijke implementatie van beide API's in de driverset) bij ATI hier en daar blijkbaar nog wat te wensen overlaat met BSOD's, spontane vastlopers en uiteindelijk dus een waslijst aan fixes tot gevolg. Daar lijkt het wel op tenminste.Thund3r schreef op 28 juni 2004 @ 12:36:
[...]
Dit heeft niets met ATi te maken, maar omdat de gamedeveloppers ten tijde dat ze met het ontwerpen van de game begonnen keken naar marktleider in de échte 3d-wereld (nee niet Intel) en dus werden veel spellen op nvidia's gebaseerd, en dan moet Catalyst team maar ff aan de gang om het ook goed werken op Radeons te krijgen.
Anyway, nog even verder borduren op Nvidia's plannen met "SLI" op de 6800:
Overigens gaan er geruchten dat Nvidia's CK8 (Nforce 4) chipset in de herfst wereldwijd gelanceerd gaat worden... dat wordt dus een mooi najaar voor AMD gebruikers!
T zou nog mooier zijn als de PCI-E uitvoering van de 6800 tegen die tijd ook al een poosje in de winkel ligt zodat ie wat betaalbaarder wordt... dan heb je echt een stoere basis voor dé ultieme game rig
[ Voor 25% gewijzigd door mindcrash op 28-06-2004 14:28 ]
"The people who are crazy enough to think they could change the world, are the ones who do." -- Steve Jobs (1955-2011) , Aaron Swartz (1986-2013)
Maargoed dat de 6800 ultra aluminium gebruikt en de x800 koper (de reference van beiden)Verwijderd schreef op 28 juni 2004 @ 14:14:
[...]
punt 1 is al fout, als er op de ati ook een koelblok van een kilo koper zou zitten zou die ook een stuk koeler zijn.
Het is met de standaard koeling echt zo dat ati heter is als nvidia. Ze zouden elkaars koelers eens moeten testen en kijken wat de uitslag dan is (ik ben benieuwd)
Enne die 60 fps merk je het wel degelijk je oog kan tot ongeveer 80 a 90 fps waarnemen daarboven merk je niks. Daaronder zal bij temporal AA het beeld gaan flikkeren nou zal dat met 65 a 70 fps wel meevallen maar daaronder is het echt irritant en lijkt me niet prettig meer gamen.
[ Voor 23% gewijzigd door sjekneck op 28-06-2004 14:28 ]
Niet op voorraad.
Verwijderd
neem gewoon de kaart die het best presteert
[ Voor 3% gewijzigd door BlowFish op 28-06-2004 14:45 ]
de Nforce4 gaat 2 PCI Expres 16x sloten ondersteunen, of er ook Moederbord fabrikanten zijn die er 2 op het plankje zetten is een andere zaak.
link: http://www.theinquirer.net/?article=16874
En ook nog iets nuttigs: De nieuwe ForceWare 61.36 WHQL bij Guru3D
(Neem XGI, met hun dubbele 12 pipeline core op één PCB)
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niet op voorraad.

Maar goed, die is natuurlijk niet voor de gewone consumentenmarkt bedoelt. Het zou me echter niets verbazen als ze dit nu ook richting de gewone markt gaan duwen nu nVidia SLI nieuw leven in blaast.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Als dit waar is zou je dan niet elke willekeurige PCI-Express kaart in de nForce4 mobo's moeten kunnen proppen mits de drivers dit maar goed kunnen aansturen?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
en dat is volgens mij precies wat alienware doet met hun 'SLI'CJ schreef op 28 juni 2004 @ 16:23:
zou je dan niet elke willekeurige PCI-Express kaart in de nForce4 mobo's moeten kunnen proppen mits de drivers dit maar goed kunnen aansturen?
Verwijderd
firingsquad
hardwareanalysis
hardocp
sudhian
tomshardware

[ Voor 7% gewijzigd door danplo op 28-06-2004 19:02 ]
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Tuurlijk waarom niet. Het is niet meer zo dat het rekenwerk afhankelijk is van de cpu zoals in de tijd van de voodoo2 ofzo.Sjah schreef op 28 juni 2004 @ 17:58:
Op de frontpage staat de nforce4 die eraan komt krijgt 2 pcie 16x sloten (tenminste mobofabrikanten kunnen ervoor kiezen dat op te nemen op hun duurdere mobos). Vraag ik me af wat voor zin dat heeft, heeft SLI wel zin met een 1-CPU oplossing?
De lengte van dat ding daar moet je al een lange case voor hebben.
ok de Nvidias zullen 4 plaatsen in beslag nemen.
maarja 1 of 2 das je eigen keus dus je word niet gedwongen om die 2e te nemen.
de Gts zullen ook al 3 plaatsen in beslag nemen.
maar wat ik me nu afvraag si toch echt hoe die 1e kaart zijn lucht krijgt?
Hij zit erg dicht op de 2e dit geld ook voor die ATI de 1e zit erg dicht op de 2.
krijgt de koeler zo wel genoeg lucht?
Bestaan er trouwens ook nog specs en/of benches van dat beestje?
2 CPU's lijkt me trouwens wel handig, ik ken geen spel die nog GPU-limited is met 32 pipes, 70GB/s bandwith en een fillrate van meer dan 10.000.000.000 pixels per seconde.
Verwijderd
De XFX is lichtelijk overgeklokt, dus de uiteindelijke prestaties zullen tussen de GT en Ultra in zweven.
Okey, dit moet ik gewoon ff kwijt in deze post:
Ik las op fok.nl dat het zesde zintuig "bestaat". Ik kijk toevallig ff in mijn profiel, blijkt dat ik precies twee jaar op GoT besta en ook 365 posts heb. Da's dus mooi 0,5 posts per dag
[ Voor 44% gewijzigd door IceEyz op 28-06-2004 22:35 ]
Verwijderd
En lees de review van Tweakers, komen ook XFX's in voor. Die kwam er niet zo best uit want hij was nogal luidruchtig (wel snel maar hij draait ook hoger). De Leadtek kwam er erg goed uit door zijn goede cooling en overklok.IceEyz schreef op 28 juni 2004 @ 21:57:
Van de 6800GT zijn genoeg reviews te [u]vinden[/u].
De XFX is lichtelijk overgeklokt, dus de uiteindelijke prestaties zullen tussen de GT en Ultra in zweven.
nVidia's SLI is schaalbaar tot 8 (acht) GPU's. Dat zie ik ATi niet nadoen met zo'n multicore videokaartCJ schreef op 28 juni 2004 @ 15:04:
ATi's multicore solution die al een jaar of twee uit is, is toch wat smaller dan de SLI van nVidia, alleen wel weer een stuk langer
[afbeelding]
Maar goed, die is natuurlijk niet voor de gewone consumentenmarkt bedoelt. Het zou me echter niets verbazen als ze dit nu ook richting de gewone markt gaan duwen nu nVidia SLI nieuw leven in blaast.
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
Die bestaan dus wel volgens mij, worden gebruikt in flight simulators van de luchtmacht heb ik wel eens gelezen.silentsnow schreef op 29 juni 2004 @ 04:49:
[...]
nVidia's SLI is schaalbaar tot 8 (acht) GPU's. Dat zie ik ATi niet nadoen met zo'n multicore videokaart
Kep nog liggen bellen en emailen, maar nog steeds hetzelfde resultaat als een week geleden.
EN Edward2: weet je al wie de 2 gelukkige zijn met die 6800Ultra ??
Kun je natuurlijk zelf doen heLefty_38 schreef op 27 juni 2004 @ 22:54:
Jah maar het oog wil ook wat... En die 2 voedingen hebben geen blauw light erin, vind ik toch wel super staan...
[ Voor 32% gewijzigd door Deathchant op 29-06-2004 09:19 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Lol! Jouw post komt juist nogal flamend over.. maargoed, waar ik dus beniewd naar was, zijn meningen van andere, waarom de GeForce 6800 beter zou zijn dan de ATi X800.Sure. Je post klinkt anders wel alsof een gemiddelde ATI zealot die in elkaar getikt heeft.
Dus iedereen die daarop met goede argumenten heeft gereageerd, bedankt!
Wat sommige over TemporalAA zeggen, dat dit niet effectief is op een TFT en wel op CRT pas vanaf 100Hz, dat begrijp ik niet. Ik heb de ins en outs van TemporalAA zeker 3x gelezen en zie dat het effectief is vanaf 60Hz met VSync aan op een TFT, met minimaal 60 frames per sec. Nou heb ik zelf een 19"TFT op 75HZ, met VSync always on. En ik moet zeggen dat ik het in elke game zeer goed zie, voor mijn ogen ziet 2xAA + 2xTemporalAA er hetzelfde uit als 4x normaal AA. Kan natuurlijk aan mij liggen, maar ik heb wel goeie ogen en geen bril ofzo
Dat ATi cheat met trilinieare filtering vind ik ook zeer kwalijk. Want in mijn ogen is dat wel zichtbaar. Ik bedoel, maak dan maar een extra tabblad "Optimalisations" en stop daar dit soort 'cheats' in.
Ik was/ben niet op zoek naar een flame-discussie, maar gewoon argumenten van personen die dat goed kunnen onderbouwen, want ik ben geen ATi/Nvidia fanboy, maar was gewoon nieuwschierig waarom iemand de 6800 zou kopen in plaats van de X800.Komop je haalt alles weer terug om weer een discusie te veroorzaken, dit is al lang en breet besproken allemaal.. Nvidia & Ati hebben beiden hun min & plus punten.
Als je kijkt naar die beshmarks van laatst zie je dat de hele X800 serie het al moeilijk heeft met de 6800GT
Dus jij kijkt niet naar prijs/prestatie verhoudingen.. Als jij UT2004 speelt en stel daar werkt de ATi X800 véél beter op, maar de GeForce 6800 wint het in alle andere games, dan neem jij dus alsnog de GeForce.. lekker danneem gewoon de kaart die het best presteert en als je voor jezelf niet kan beslissen dan is dat jouw probleem
57696520646974206c65657374206973206e657264
Uhm, das toch logischSluuut schreef op 29 juni 2004 @ 10:16:
[...]
Dus jij kijkt niet naar prijs/prestatie verhoudingen.. Als jij UT2004 speelt en stel daar werkt de ATi X800 véél beter op, maar de GeForce 6800 wint het in alle andere games, dan neem jij dus alsnog de GeForce.. lekker dan
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
En al speelde ik het wel, dan nog. Dan komt er echt wel snel genoeg een driverupdate voor die de problemen fixed. Met een grote game zal er nooit een merk zwaar blijven onderpresteren. Zou dat merk veel te veel geld kosten.
[ Voor 78% gewijzigd door shuogg op 29-06-2004 11:15 ]
zo lees ik het en ik vind het dan vervolgens dom dat je een videokaart koopt puur vanwege het feit dat hij maar in 1 game goed is.........
ik zou een videokaart kopen die in de meeste spellen goed is en als toevallig 2004 niet zo goed is daarop, tja, dat neem ik dan voor lief.
Thund3r, vergeef me als ik verkeerd gelezen heb
Trouwens, UT geeft op beide kaarten genoeg frames dat het speelbaar blijft en ook bij beide kaarten goeie beeldkwaliteit.
Het verschil tussen 89 en 95 frames zie je toch niet, dus mij persoonlijk boeit dat niet veel
Ik vraag me eigenlijk af hoe jij denkt over de feiten tussen de 6800GT en X800PRO....en wat zou jij kiezen ? (je hebt al een X800PRO he?) maar stel je had niks, zou je dan toch weer voor de X800PRO gaan?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Je leest het klein beetje verkeerd, ik keur de reply van Sluuut af.Deathchant schreef op 29 juni 2004 @ 11:21:
als ik het goed begrijp vind hij het dom als je een 6800 koopt als alléén bij UT2004 de X800 beter is..........
zo lees ik het en ik vind het dan vervolgens dom dat je een videokaart koopt puur vanwege het feit dat hij maar in 1 game goed is.........
ik zou een videokaart kopen die in de meeste spellen goed is en als toevallig 2004 niet zo goed is daarop, tja, dat neem ik dan voor lief.
Thund3r, vergeef me als ik verkeerd gelezen heb
Trouwens, UT geeft op beide kaarten genoeg frames dat het speelbaar blijft en ook bij beide kaarten goeie beeldkwaliteit.
Het verschil tussen 89 en 95 frames zie je toch niet, dus mij persoonlijk boeit dat niet veel
offtopic:
Ik vraag me eigenlijk af hoe jij denkt over de feiten tussen de 6800GT en X800PRO....en wat zou jij kiezen ? (je hebt al een X800PRO he?) maar stel je had niks, zou je dan toch weer voor de X800PRO gaan?
Als mijn X800 Pro alleen in bijvoorbeeld Far Cry goed gepresteerd had (dus de concurrentie presteerd in de rest van de Games vééél beter) had ik hem niet gekocht.
Dan had ik nog geen nvidia gekocht
Vanaf toen overgestapt op ATi, en geen enkel vergelijkbaar probleem gehad.
6800 is een leuke GPUreeks, maar mijn ervaringen met het bedrijf nvidia en de bedrijfsstructuur en aanpak staan me helaas niet aan (ik noem rare driverbenaming, het verbieden van omega's, gamename.exe cheat implementatie etc.)
En de X800 Pro en 6800GT zijn gewoon aan elkaar gewaagd, en bieden beiden nog verbetering qua drivers. De X800 Pro is in AF/AA meestal iets sneller, en de 6800GT zonder en in oude games. Ik speel zowieso al altijd met AF/AA (sinds mn Radeon8500 al, AF dan) dus dat was ook een doorslaggevende factor.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
nou das of ontzettende pech hebben of gewoon niet goed omgaan met je videokaart.Thund3r schreef op 29 juni 2004 @ 11:37:
[...]
Dan had ik nog geen nvidia gekocht, vanwege mijn slechte ervaringen met GeForce's.(GeForce256 -> eerst de FAN kapot, en na tijdje 1 geheugenblokje kapot, GeForce256 DDR -> Brakke VGA connector, GeForce2 Ti -> DOA, Nieuwe GeForce2 Ti -> Ging na enkele weken dood, GeForce3 Ti200 -> ontzettend slechte 2D, in 800x600 kon ik nog net wat zien, nieuwe GeForce3 Ti200 -> heel vaak artifacts in games/windows, zonder OC. Nee, geen nvidia meer in mijn PC.
.
ik heb altijd al Nvidia gehad en nooit problemen gehad, maar dan ook echt nooit
alleen vind ik de 5900 ultra die ik nu heb iets tegenvallen. maar mijn volgende kaart wordt echt zonder twijfel een 6800 ultra
C2D 6600, 275 GTX Windows 7
However heb ik net als Joost ook geen enkele problemen gehad met de GeForces.
En Joost, of het alleen maar ligt aan hoe je met het ding omgaat betwijfel ik dus. Hij zei: DOA, brakke vga connector......dat zijn dingen daar kun je weinig zelf aan doen.
Ik heb dus ook deze gedachte over de winkel Alternate, die mij op zijn lichtst uitgedrukt nogal bezeikt hebben. Andere mensen hebben hele goeie ervaringen ermee.....dus..........
En ik vraag me af Joost, wat er mis is met je 5900Ultra.........kep er zelf ook een en ben er uitermate tevreden mee........vertel eens in welk opzicht je hem tegen vindt vallen en t.o.v. welke kaart?
@Thund3r: op je website www.thund3r.nl kun je toch navigeren in het linker gedeelte? bij elke link wordt dezelfde pagina (specs.php) geopend. Just for the record
[ Voor 17% gewijzigd door Deathchant op 29-06-2004 11:56 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ben denk ik zelfs 1 van de weinig GoT'er die thuis nog een beetje veilig werkt met zn hardware, altijd bandje om mn enkel die aan de randaarde zit, om zo statische elektriciteit te voorkomen. En heb met Radeon's nooit problemen gehadjoostve schreef op 29 juni 2004 @ 11:44:
[...]
nou das of ontzettende pech hebben of gewoon niet goed omgaan met je videokaart.
ik heb altijd al Nvidia gehad en nooit problemen gehad, maar dan ook echt nooit
alleen vind ik de 5900 ultra die ik nu heb iets tegenvallen. maar mijn volgende kaart wordt echt zonder twijfel een 6800 ultra
/off
Ja DeathChant, heb al maanden niets meer aan huidige site gedaan, ben al hele tijd met nieuwe bezig, code is iig bijna af
[ Voor 13% gewijzigd door Pubbert op 29-06-2004 12:52 . Reden: Er stond ergens een heeel erg foute typo :D ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
Wat ik bedoel, is, koop hardware waar je het voor wilt gebruiken. Als je muziek maakt, dan koop je ook geen Fortissimo 3 7.1 omdat je er 7.1 setje op kan aansluiten en dit zo geweldig klinkt met films en games. Dan koop je een Terratec kaartje met 2 goede boxen.Thund3r schreef op 29 juni 2004 @ 11:37:
[...]
Je leest het klein beetje verkeerd, ik keur de reply van Sluuut af.
Als mijn X800 Pro alleen in bijvoorbeeld Far Cry goed gepresteerd had (dus de concurrentie presteerd in de rest van de Games vééél beter) had ik hem niet gekocht.
Dan had ik nog geen nvidia gekocht, vanwege mijn slechte ervaringen met GeForce's.(GeForce256 -> eerst de FAN kapot, en na tijdje 1 geheugenblokje kapot, GeForce256 DDR -> Brakke VGA connector, GeForce2 Ti -> DOA, Nieuwe GeForce2 Ti -> Ging na enkele weken dood, GeForce3 Ti200 -> ontzettend slechte 2D, in 800x600 kon ik nog net wat zien, nieuwe GeForce3 Ti200 -> heel vaak artifacts in games/windows, zonder OC. Nee, geen nvidia meer in mijn PC.
Vanaf toen overgestapt op ATi, en geen enkel vergelijkbaar probleem gehad.
6800 is een leuke GPUreeks, maar mijn ervaringen met het bedrijf nvidia en de bedrijfsstructuur en aanpak staan me helaas niet aan (ik noem rare driverbenaming, het verbieden van omega's, gamename.exe cheat implementatie etc.)
En de X800 Pro en 6800GT zijn gewoon aan elkaar gewaagd, en bieden beiden nog verbetering qua drivers. De X800 Pro is in AF/AA meestal iets sneller, en de 6800GT zonder en in oude games. Ik speel zowieso al altijd met AF/AA (sinds mn Radeon8500 al, AF dan) dus dat was ook een doorslaggevende factor.
Misschien een beetje verkeerd uitgelegt in de vorige post
57696520646974206c65657374206973206e657264
Kep beide kaarten kunnen vergelijken. Ikzelf vond niet echt verschil. Het enige verschil wat ik vond is dat bij de 5900Ultra de 8xAF beter uitzag dan 8xAF op de R9800PRO bij Splintercell.Verwijderd schreef op 29 juni 2004 @ 11:58:
ik denk dat hij de readon 9800 pro bedoeld of de xt versie maar die is bedoeld tegen de 5950 kaart
In 3DMark2003 was de 5900Ultra beter, maar als we alle cheats weghalen zullen deze 2 kaarten gelijk presteren ongeveer.
Edit: ik speel meestal op de 1280x1024 reso (soms 1600x1200) en in beide reso's zonder AF en FSAA zie ik heel weinig verschil met de 1024x768 MET FSAA en AF.....
[ Voor 14% gewijzigd door Deathchant op 29-06-2004 12:09 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ik heb nog maar eens een mailtje naar Alternate gestuurd, of ze al wat meer weten over de levertijd.Deathchant schreef op 29 juni 2004 @ 09:14:
FF wat anders.....heeft iemand al een verwachting wanneer de 6800 serie eindelijk in de winkel verkrijgbaar zijn?
Kep nog liggen bellen en emailen, maar nog steeds hetzelfde resultaat als een week geleden.
EN Edward2: weet je al wie de 2 gelukkige zijn met die 6800Ultra ??
Wat de vraag betreft, nee, alleen dat ik het niet ben
Niet op voorraad.
Ik heb alweer eens gelijk. Ik zei namelijk in vorige posts dat ik dacht dat de kaarten de 30e (net nog Juni) misschien eens verspreid worden. Indien dat zo is kunnen we nog zeker 2 weken wachten. Godverdomme, frustraties lopen hoog op....
Trouwens nog ff een (misschien stom) vraagje.
Het is een feit dat overclocken de levensduur van je kaart vermindert en dat het niet goed is om te doen.
Waarom doet een fabrikant een videokaart overclocken en dan de overgeclockte verkopen? Of is een fabrieksovergeclockte kaart beter dan een handmatig overgeclockte kaart. Zo ja wat is het verschil dan
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
nou me broertje heeft dus een 9800 pro en als we dan spellen vergelijken vind ik dat het bij hem beter draaid, maar misschien is dat maar voorbeelding hoor.joostve schreef op 29 juni 2004 @ 11:44:
[...]
nou das of ontzettende pech hebben of gewoon niet goed omgaan met je videokaart.
ik heb altijd al Nvidia gehad en nooit problemen gehad, maar dan ook echt nooit
alleen vind ik de 5900 ultra die ik nu heb iets tegenvallen. maar mijn volgende kaart wordt echt zonder twijfel een 6800 ultra
en dan heeft hij nog maar een xp 2400.
maarja nu bedenk ik me ook dat hij soms hetzelfde heeft
dan komt hij bij mij kijken en dan zegt hij zo bij jou draaid het stukken beter
C2D 6600, 275 GTX Windows 7
Met de rest van jouw systeem zou het ook niet zo gek moeten zijn dat het bij jou beter draaitjoostve schreef op 29 juni 2004 @ 13:58:
[...]
nou me broertje heeft dus een 9800 pro en als we dan spellen vergelijken vind ik dat het bij hem beter draaid, maar misschien is dat maar voorbeelding hoor.
en dan heeft hij nog maar een xp 2400.
maarja nu bedenk ik me ook dat hij soms hetzelfde heeft
dan komt hij bij mij kijken en dan zegt hij zo bij jou draaid het stukken beter
silentsnow schreef op 29 juni 2004 @ 04:49:
[...]
nVidia's SLI is schaalbaar tot 8 (acht) GPU's. Dat zie ik ATi niet nadoen met zo'n multicore videokaart
Hehe. Er zijn ook al 2x 32 R350 cores aaneengeschakeld en verkocht. Deze worden geloof ik ook al gebruikt door het Amerikaanse leger (weet het niet zeker meer). En vanaf de R3x0 reeks kunnen er 256 VPUs aan elkaar gekoppeld worden. Dus wat nVidia kan wat betreft schaalbaarheid, kan ATi ook wel alleen wat beter.
Ik zal eens op zoek gaan naar de instantie die die 2x 32 R350 opstellinge gebruikt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Hier wil ik nog even op reageren, aangezien ATi hier al een oplossing voor heeft.sjek schreef op 28 juni 2004 @ 14:24:
[...]
Enne die 60 fps merk je het wel degelijk je oog kan tot ongeveer 80 a 90 fps waarnemen daarboven merk je niks. Daaronder zal bij temporal AA het beeld gaan flikkeren nou zal dat met 65 a 70 fps wel meevallen maar daaronder is het echt irritant en lijkt me niet prettig meer gamen.
Als de framerates onder 60 duiken, dan schakelen de drivers de AA-mode automatisch op 'normaal' 4x of 2x. Wanneer de framerates weer hoog genoeg zijn, dan wordt temporal AA weer ingeschakeld. De irritatiefactor wordt hiermee toch wel flink kleiner.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Begrijpelijk dat zeker. Maar ik heb dus hetzelfde gehad met ati. 5 ati kaarten allemaal dood gegaan. Oude rage nogiets liet continu me systeem hangen en gaf opeens geen beeld meer. Ati 7000 (erger als dit kan gewoon niet) zeer slechte performance en artifacts. Toen ati 9500 pro dood uit de doos (vervanger was ook dood bleek foute lading te zijn). Ati 9700 pro kreeg ik toen voor al het gezeik en dat begon met drivers probs en toen die het eenmaal deed brande de core na een week door.Thund3r schreef op 29 juni 2004 @ 11:37:
[...]
Je leest het klein beetje verkeerd, ik keur de reply van Sluuut af.
Als mijn X800 Pro alleen in bijvoorbeeld Far Cry goed gepresteerd had (dus de concurrentie presteerd in de rest van de Games vééél beter) had ik hem niet gekocht.
Dan had ik nog geen nvidia gekocht, vanwege mijn slechte ervaringen met GeForce's.(GeForce256 -> eerst de FAN kapot, en na tijdje 1 geheugenblokje kapot, GeForce256 DDR -> Brakke VGA connector, GeForce2 Ti -> DOA, Nieuwe GeForce2 Ti -> Ging na enkele weken dood, GeForce3 Ti200 -> ontzettend slechte 2D, in 800x600 kon ik nog net wat zien, nieuwe GeForce3 Ti200 -> heel vaak artifacts in games/windows, zonder OC. Nee, geen nvidia meer in mijn PC.
Alle geforcejes deden het zonder probs
Hey die geforce 3 waar je niets kon zien, was dat niet je monitor die brak was, er zijn namelijk richtlijnen waar ze zich aan moeten houden anders komt ie niet in de winkel terecht. En niet leesbaar op 800x600 lijkt me haast onmogelijk zeker aangezien mij gf2 mx perfect plaatje gaf op 1280x1024 op een redelijk slechte monitor.
CJ schreef op 29 juni 2004 @ 14:47:
[...]
offtopic:
Hehe. Er zijn ook al 2x 32 R350 cores aaneengeschakeld en verkocht. Deze worden geloof ik ook al gebruikt door het Amerikaanse leger (weet het niet zeker meer). En vanaf de R3x0 reeks kunnen er 256 VPUs aan elkaar gekoppeld worden. Dus wat nVidia kan wat betreft schaalbaarheid, kan ATi ook wel alleen wat beter.
Ik zal eens op zoek gaan naar de instantie die die 2x 32 R350 opstellinge gebruikt.
Ok maar we hebben het hier over een consumenten product zeg. Niet over een complete fabriekshal vol gpu'tjes of een nvidia kaart op mars
Mmmh meerdere mensen grote problemen met de 6800 serie, lijkt me iets met de drivers. Wat denken jullie?
Ik zit iig dankzij o.a. die draad te twijfelen of het wel zo slim is een 6800GT te halen en het misschien niet beter is toch maar voor een X800XT te gaan.
Ach zodra de officiele driver uitkomnt die de 6800 ondersteunt zullen de grootste problemen bijna weg zijn.shuogg schreef op 29 juni 2004 @ 15:05:
http://forums.guru3d.com/...745ec82c23&threadid=94043
Mmmh meerdere mensen grote problemen met de 6800 serie, lijkt me iets met de drivers. Wat denken jullie?
Ik zit iig dankzij o.a. die draad te twijfelen of het wel zo slim is een 6800GT te halen en het misschien niet beter is toch maar voor een X800XT te gaan.
Neej, was op meerdere monitoren, op mijn 19" CRT kon ik op 800x600 of 640x480 nog een beetje lezen, daarboven was alles veels te wazig, en op een 15" CRT was het totaal niet te lezen, ook op lagere reso's niet. Was gewoon een brakke k*t kaart.sjek schreef op 29 juni 2004 @ 14:54:
[...]
Hey die geforce 3 waar je niets kon zien, was dat niet je monitor die brak was, er zijn namelijk richtlijnen waar ze zich aan moeten houden anders komt ie niet in de winkel terecht. En niet leesbaar op 800x600 lijkt me haast onmogelijk zeker aangezien mij gf2 mx perfect plaatje gaf op 1280x1024 op een redelijk slechte monitor.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Hoop je.....sjek schreef op 29 juni 2004 @ 15:25:
[...]
Ach zodra de officiele driver uitkomnt die de 6800 ondersteunt zullen de grootste problemen bijna weg zijn.
Ik wacht iig nog maar even, heb geen zin om gelijk m'n kaart te moeten RMA'en.
Tuurlijk logisch. Zowiezo handig de eerste ladingen over te slaan van beide chips. Is altijd nog een soort van testfase waar ze uit de rma's de fouten eruit pikken.shuogg schreef op 29 juni 2004 @ 15:35:
[...]
Hoop je.....
Ik wacht iig nog maar even, heb geen zin om gelijk m'n kaart te moeten RMA'en.
Dan had je hem moeten retourneren naar de winkel waar je hem gekocht had. Sorry maar niet te lezen op 800x600 op een 19" is niet normaal. De gemoiddelde gf(1,2,3,4,5,6) zit daar al 10 keer boven. Er is een keurmerk waar alle klaarten doorheen moeten en ze moeten conform aan een aantal punten zijn waarvan dit er 1 is. Kapotte filter perhapsThund3r schreef op 29 juni 2004 @ 15:29:
[...]
Neej, was op meerdere monitoren, op mijn 19" CRT kon ik op 800x600 of 640x480 nog een beetje lezen, daarboven was alles veels te wazig, en op een 15" CRT was het totaal niet te lezen, ook op lagere reso's niet. Was gewoon een brakke k*t kaart.
Weten jullie ergens reviews te vinden?
Ryzen 5800X3D / RTX3070Ti nvidia / Be quiet Dark base 700
Ook meteen gedaan, hij wilde me een GeForce3 classic meegeven, maar toen na na mn 6de kapotte/brakke GeForce in 1 jaar eens voor de Radeon8500 gegaan, wat een verrijking was datsjek schreef op 29 juni 2004 @ 15:45:
[...]
Dan had je hem moeten retourneren naar de winkel waar je hem gekocht had. Sorry maar niet te lezen op 800x600 op een 19" is niet normaal. De gemoiddelde gf(1,2,3,4,5,6) zit daar al 10 keer boven. Er is een keurmerk waar alle klaarten doorheen moeten en ze moeten conform aan een aantal punten zijn waarvan dit er 1 is. Kapotte filter perhaps
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
http://www.tbreak.com/rev...=grfx&id=318&pagenumber=1noltha schreef op 29 juni 2004 @ 15:52:
Ik ben eigenlijk benieuwd naar de reviews van NON ultra's dus de 6800 128mb versie. Die past namelijk nog in mijn prijsklasse ,
Weten jullie ergens reviews te vinden?
en
http://www.firingsquad.co..._overclocking/default.asp
[ Voor 15% gewijzigd door Verwijderd op 29-06-2004 21:09 ]
Powermac G5 casemod. Mijn PV live output. | Ioniq 6 Style 77kWh Ultimate Metallic Red 18" RWD
Afaik worden de memchips al mee gekoeld.zonoskar schreef op 29 juni 2004 @ 23:56:
Heeft iemand al een idee over hoe de koeler van de 6800GT er van onderen uitziet? Ik wil nl. graag weten of de memchips echt mee gekoeld moeten worden, want anders heb ik weer een ander waterblokje nodig.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
wat betekent AFAIK?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
as far as i know
geduld is een schone zaak zeggen ze dan.
moet ik zaterdag maar zonder 6800 GT naar de LAN-party.
thx voor de uitleg AFAIK! En wat betekent IMHO dan? In my humble opinion of zo?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Deathchant schreef op 30 juni 2004 @ 10:49:
offtopic:
thx voor de uitleg AFAIK! En wat betekent IMHO dan? In my humble opinion of zo?
bingo
Heb eindelijk besloten wat te doen qua videokaarten
Bij nieuwe PC houd ik gewoon de 9700 pro en deze PC prop ik een 9200SE in voordat ie naar m'n zus gaat
En dan houd ik het wel een jaartje uit tot de nieuwe generaties (dus niet de refresh)
[ Voor 44% gewijzigd door shuogg op 30-06-2004 10:56 ]
Edit: wel een kutkaart he die 9200SE
Edit2: nieuwe generaties? Dan moet je wachten op PS4.0, VS4.0, DirectX9d ofzo (zal wel DX10 zijn dan) 0.11 of 0.09 micron GPU core, GDDR4, Half life 3 en Doom 4
Edit3: rollercoaster tycoon = vet
[ Voor 47% gewijzigd door Deathchant op 30-06-2004 10:59 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Kutkaart, niet in de games die m'n zus speeltDeathchant schreef op 30 juni 2004 @ 10:55:
in één keer goed. Ik word af en toe niet goed van die afkortingen allemaal.....zou je niet in deze PC wereldIk weet nog net wat asap is..........aangezien ik nvidia binnenkort met deze afkorting ga lastig vallen
Edit: wel een kutkaart he die 9200SE
Rollercoaster Tycoon werkt er vast prima op, die heeft echt geen DX9 effecten of een half miljoen polygonen in beeld
ach de 9200SE, waar hij voor bedoeld is doet hij het goedDeathchant schreef op 30 juni 2004 @ 10:55:
Edit: wel een kutkaart he die 9200SE
Edit2: nieuwe generaties? Dan moet je wachten op PS4.0, VS4.0, DirectX9d ofzo (zal wel DX10 zijn dan) 0.11 of 0.09 micron GPU core, GDDR4, Half life 3 en Doom 4
Qua "nieuwe generatie" gaat het toch helemaal anders, dan praten we over de unified shader architecture. Zodat we dus niet meer spreken over architecturen met een bepaalde X pipelines en Y TMUs. Meer uitleg in de startpost van [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 7[/rml]. Weet niet wat nvidia van plan is hiertegen.
Maar iig krijgen we nog SM3.0+, GDDR3 kan nog wel ff voorruit, en 0.11 kaarten komen deze maand al
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
De GF6800 schijnt naast 4 uitgeschakelde pipelines ook een uitgeschakelde vertex-shader te hebben. Dus de GF6800 heeft er 5 vertexshaders ipv 6, zoals dit wel het geval is bij de GT en Ultra.
Of dit gedaan is omdat de kaart dan beter gebalanceerd is, is niet bekend. Het zou ook kunnen dat er 1 vertexshader uitgeschakeld moet worden per dedeactiveerde quad. Dus een 8 pipes NV40 zou het dan moeten doen met 4 vertexshaders (en dus technisch op gelijke hoogte zou komen te staan met de R3x0 serie die ook 8/4 heeft).
Het gevolg is dat-ie dus minder vertices per seconde kan verwerken en dus iets langzamer is dan verwacht, maar of dat heel erg merkbaar is in games, is nog maar de vraag.
http://www.beyond3d.com/forum/viewtopic.php?t=13644
http://www.nvnews.net/vbulletin/showthread.php?t=30939
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En ik neem aan dat dit budgetkaarten zijn, gezien de nummering?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
vraag me af wanneer Nvidia hun budget and mid range op de markt gooit.
Nou nog een gf6800Uquick brain dump from the Nvidia dev conference in London on Monday/Tuesday (nothing under NDA...)
Both VS3 and PS3 paths have been added to Fry Cry.
In general, gains from using Geometry Instancing usually between 0 and 10%, though up to 40% in worst (best!) case.
Devs wanted to use PS3 to loop through dynamic number of lights in a single pass but PS3 has limitations (in specs) which prevent this from being implementable. So use static branching for up to 4 lights per pass. This created more instructions than ps2 could handle so need ps3.
Gains are good - in game fps went from 20 to 30 in demo.
HDR - Did not require PS3 but requires 16bit blending and filtering. Devs replaced 'hacks' ( glare/flare etc) with HDR. No AA when using HDR. on 6800U playable (40-50fps) @1024x768.
Very Nice effect
Other Stuff
Nice demo of soft shadows (penumbra's) with PS3.0. Basically do a a small number of shadow sampler tests. If all 0 then you'r out of shadow, if all 1 your in shadow otherwise you are in the penumbra so do 64 samples to get your shadow level.
Works well because the expensive sampling needed is only done if youre initial small sample set is not wholly in or wholly out of shadow. 2xfaster than equivalent PS2 shader (not shown).



Naderhand gaat Humus nog verder over dynamic branching waar hij mogelijk een work arround voor gevonden heeft voor bv een de X800. Interesting stuff allemaal.
[ Voor 9% gewijzigd door edward2 op 30-06-2004 13:37 ]
Niet op voorraad.
Als ze nog niet eens in massaproductie zijn in de VS, dan kunnen wij nog lang wachten.
Zeer offtopic, maar kan iemand mij misschien zeggen wat het verschil is tussen frames en Struts Tiles? Kep geen zin om een aparte topic te openen en vervolgens van de moderator te horen krijgen dat het te mager topic is of dat ik niet gezocht heb.....
[ Voor 30% gewijzigd door Deathchant op 30-06-2004 13:48 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Een P4 2,8Ghz wordt met een X800XT en 6800U tegenover een Athlon 64 3800+ gezet. Resultaten zijn interessant. De X800XT wordt sneller dan de 6800U bij betere CPU's.
Mijn conclusie: Bij nVidia kunnen ze de kaart sneller maken met nieuwe drivers, bij Ati kunnen ze de CPU sneller maken met nieuwe drivers (vooral OpenGL).
HardOCP had trouwens laatst ook een CPU-scaling-test.
Ik heb ook ergens gelezen dat de heatsink er wel overheen hangt, maar dat de memchips geen contact maken met de heatsink. Bovendien zou GDDR3 koeler zijn dan andere memstandaarden. Tis afwachten dus....Thund3r schreef op 30 juni 2004 @ 08:54:
Afaik worden de memchips al mee gekoeld.
Powermac G5 casemod. Mijn PV live output. | Ioniq 6 Style 77kWh Ultimate Metallic Red 18" RWD
Misschien stom maar kun je dat wat beter uitleggen, ik snap het niet. Jij zegt dat nvidia de 6800U sneller kan maken door drivers.IceEyz schreef op 30 juni 2004 @ 14:14:
Guru3D heeft een GPU tegen CPU shootout. Een wát? Ja, idd...
Een P4 2,8Ghz wordt met een X800XT en 6800U tegenover een Athlon 64 3800+ gezet. Resultaten zijn interessant. De X800XT wordt sneller dan de 6800U bij betere CPU's.
Mijn conclusie: Bij nVidia kunnen ze de kaart sneller maken met nieuwe drivers, bij Ati kunnen ze de CPU sneller maken met nieuwe drivers (vooral OpenGL).
HardOCP had trouwens laatst ook een CPU-scaling-test.
Hoe kan ATi een CPU sneller maken? Ik neem aan dat je bedoelt GPU. Indien je dit ook bedoelt, zeg je hetzelfde over ATi als over nVidia: ze kunnen hun kaarten sneller maken door nieuwe drivers.....
help aub
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Maar, het zou ook gewoon kunnen dat de X800Xt zo snel is dat deze langer CPU limited is
Niet op voorraad.
De x800 serie is cpu hongeriger dan een 6800 wat dus wil zeggen dat de x800 net ietsje meer werk aan de cpu overlaat.On a somewhat slower system (I refuse to call a 1 gig, 2.8 Ghz system mid-end) the results however are way closer to each other and definitely in favor of the GeForce 6800 series. The x800 XT is hungry for a faster processor that's for sure.
Met een ietwat oudere cpu heb je dus een hogere fps met de gf6800 Gt/ultra dan met een x800 pro/xt.
/e/
Lol ik heb net het hele artikel doorgelezen dus een beetje een late reply.
[ Voor 9% gewijzigd door peke op 30-06-2004 15:36 ]
geldt voor de X800: hoe beter de CPU hoe beter de X800.
En bij nvidia geldt dat niet? Is wel een leuke bijkomstigheid vind ik
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Dat klopt. En dan gaat het met name om de X800XT PE, en in mindere mate om de X800Pro.Deathchant schreef op 30 juni 2004 @ 16:35:
de meeste hebben toch wel een goeie CPU. Dus als ik het goed begrijp
geldt voor de X800: hoe beter de CPU hoe beter de X800.
En bij nvidia geldt dat niet? Is wel een leuke bijkomstigheid vind ik
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het viel mij ook op dat bij een snellere CPU bij zowel nVidia als Ati de FPS een flink stuk omhoog gingen. Bij Ati blijft het bij OpenGL echter nog steeds een stuk lager. Zelfs als het plafond in zicht komt (RTCW: 1600x1200, 4xAA, 8xAF), blijft Ati een stuk lager dan nVidia. Wordt dus echt tijd voor die nieuwe OpenGL drivers, want ik voel het woord "Doom" in mij opkomen...
Je kan denk ik beter zeggen: Hoe beter de CPU, hoe beter de videokaart presteerd en bij de X800 is dat vaak nog meer/beter.Deathchant schreef op 30 juni 2004 @ 16:35:
de meeste hebben toch wel een goeie CPU. Dus als ik het goed begrijp
geldt voor de X800: hoe beter de CPU hoe beter de X800.
En bij nvidia geldt dat niet? Is wel een leuke bijkomstigheid vind ik
want een 6800Ultra/GT presteerd natuurlijk ook beter op een Athlon64 3800+ dan op een AthlonXP 2500+, maar bij de X800XT is de verhoging in fps nog iets hoger....
Verwijderd
Dit topic is gesloten.