The first casualty in war is always the truth...
Ik denk dat we nog eff af moeten wachten dat er benshes verschijnen waarin ook de 6800Ultra Extreme (op mogelijk 600Mhz) is op genomen en waarin beide bedrijfen bug vrije en optimale drivers kunnen leveren... als het verschil dan nog zo groot is dan koop ik een Ati... Misschien is het dan wel om gedraaidAlpha-xp schreef op 05 mei 2004 @ 02:01:
Als nvidia nog een beetje kans wil maken dan moeten ze de prijs van de Ultra echt rond de x800pro prijzen..ik bedoel de x800pro is soms sneller dan de ultra...en de xt beats the shit out of it. Het zou gewoon niet slim zijn om voor een langzamere kaart evenveel te vragen als een snellere kaart.
GreetZz
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
The first casualty in war is always the truth...
Hahaha mischien kunnen we met meerdere forumers een grote groep inkopen tegen korting... "Logische de snelste natuurlijk"Alpha-xp schreef op 05 mei 2004 @ 02:24:
Jup, ik wacht ook nog een maandje of 2 af ^__^ begint tijd te worden dat ik men ti4200 vervang.
GreetZ
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Tegen die tijd zijn we alweer druk aan het speculeren wat NV45 voor nieuws zal brengen, die moet namelijk als alles goed gaat over een maandje of 5 gereleased worden.Alpha-xp schreef op 05 mei 2004 @ 02:24:
Jup, ik wacht ook nog een maandje of 2 af ^__^ begint tijd te worden dat ik men ti4200 vervang.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
erg lekker
benches met de 6800GT en natuurlijk de andere Nvidia en ATI kaarten.
op 1e pagina pic van de 6800GT jammer genoeg geen dual DVI, maar wel 1 molex en dezelfde koeling als de Ultra maar bij de GT is dit een 1 slot design.
Kan aardig bij blijven.
vind eigenlijk wel de afstand tussen de X800Pro en X800XT klein als je de verschillende specs ziet, minder pipes en lagere clock en dan toch maar een klein verschil.
tijd geleden stond op de FP ergens dat de X800Pro en 6800Ultra dezelfde prijs zouden hebben bij launch zijnde 499dollar ik vind dat deze 2 ook aan elkaar gewaagd zijn.
ps:
de volgende sterkere kaart van nvidia zou de Nv45 moeten zijn, komt er ook een sterkere kaart van ATI?
[ Voor 9% gewijzigd door Deadsy op 05-05-2004 03:26 ]
Maar ze hebben het ook al over de R500 aan het einde van het jaar. Dus waar ze dan die R480 moeten proppen ?? (september en dan de R500 februari volgend jaar??)
dit is toevallig het plaatje waar X800XT er het beste uit komtr00n187 schreef op 05 mei 2004 @ 01:55:
Niet om het één of het ander, maare...
[afbeelding]
Men moet toch toegeven dat deze cijfers gewoon ziek zijn..
Ik bedoel, dit is zo'n beetje het zwaarste spel out there wat ze op 1600x1200 met 4xAA en 16xAF draaien..
En nee, ik zit niet in het verkeerde topic, de 6800U staat er ook tussen..
Hoe dan ook, onthoud één ding:
hu·mor (de ~ (m.))
1 situatie of uitspraak die vrolijke verbazing en gelach opwekt
maar als je deze eens bekijkt

maar ik moet toegeven dat ati goed scoort met 4x aa, 16x asf
alleen vraag ik me dan af hoe de kwaliteit van de textures er dan uit ziet.
C2D 6600, 275 GTX Windows 7
check bv firingsquad: http://www.firingsquad.co...ati_radeon_x800/page8.asp
zoals deze ?:Fr0zenFlame schreef op 05 mei 2004 @ 02:08:
[...]
Ik denk dat we nog eff af moeten wachten dat er benshes verschijnen waarin ook de 6800Ultra Extreme (op mogelijk 600Mhz) is op genomen en waarin beide bedrijfen bug vrije en optimale drivers kunnen leveren... als het verschil dan nog zo groot is dan koop ik een Ati... Misschien is het dan wel om gedraaid
GreetZz
http://www.firingsquad.co...force_6800_ultra_extreme/
Geen drivers met bugs? Daar kan je eeuwig op wachten :-)conclusie:
Where NVIDIA’s GeForce 6800 Ultra architecture already takes the performance crown over ATI X800 XT Platinum Edition, the advantage only increases with the 6800 Ultra Extreme board. And when NVIDIA falls behind the RADEON X800 XT Platinum Edition, the end result doesn’t change any: the NVIDIA board still loses to the ATI high-end card, only the margins are a little narrower. Is this really worth the time and expense of developing an entirely new limited-edition SKU?
Er bestaat natuurlijk nog zo iets als de kostprijs om het te maken. De prijs van de 800XT en de 6800U zal vergelijkbaar zijn, maar de XT is inderdaad sneller . Enter marketingAlpha-xp schreef op 05 mei 2004 @ 02:01:
Als nvidia nog een beetje kans wil maken dan moeten ze de prijs van de Ultra echt rond de x800pro prijzen..ik bedoel de x800pro is soms sneller dan de ultra...en de xt beats the shit out of it. Het zou gewoon niet slim zijn om voor een langzamere kaart evenveel te vragen als een snellere kaart.
http://translate.google.c...-8&prev=%2Flanguage_tools
If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the dissolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 pictures per second (!).
Zou nvidia het weer durven nu dat ze weer dreigen achter te geraken op ATI?
Oh Oooh... als dit waar is... laten we hopen voor nvidia dat het niet waar is, of dat het te maken heeft me detectie in de drivers ofzo....waarschijnlijk is het weer een "optimalisatie" daartegen.k995 schreef op 05 mei 2004 @ 11:34:
Hopelijk is dit maar een fout van de schrijver :
http://translate.google.c...-8&prev=%2Flanguage_tools
If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the dissolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 pictures per second (!).
Zou nvidia het weer durven nu dat ze weer dreigen achter te geraken op ATI?
[ Voor 7% gewijzigd door swampy op 05-05-2004 11:58 ]
There is no place like ::1
Maar serieus, als nvidia weer gaat zitten cheaten dan vallen ze dus echt voorgoed snoeihard op hun bek en hebben ze echt een wonder nodig om er weer positief ui te zien. 1x cheaten kan opzich nog als je er maar van leert en het cheaten weer ongedaan maakt. Maar dit is natuurlijk niet normaal meer.
Ik hoop dus dat hier een goede reden voor is (de performance drop).
Want het zou ook kunnen zijn dat het een legale optimalisatie is omdat Farcry problemen heeft met de Nv40 omdat hij hem als NV3X herkent en daardoor problemen met slechtere (lagere) PS heeft.
Dus als oplossing voor deze. dus om te kijken of het een illegale optimalisatie is of legale moet men eerst kijken wat de beeld kwaliteit is tussen beide.
ik vind bv dat de FPS drop bij de nvidias tussen no AA en AF en max AA en AF minder groot is dan het verschil in FPS bij de ATi tussen no AA en AF en AA en AF op max.
ps. nadta ik de pics van firingsquad gezien heb (waarin men de kwaliteit van AA bekijkt bij de 6800ultra en X800XT platinum) vind ik de screenshot van de nvidia mooier.
ik vind de ATI iets hoekiger en de Nvidia iets ronder, dit zou kunnen komen door de een of andere blur van nvidia.
maar uiteindelijk vind ik de screenshot van Nvidia op 4xAA toch mooier en in he totale plaatje ook mooier.
Vind wel de rook van de vliegtuigen mooier bij ATI.
[ Voor 47% gewijzigd door Deadsy op 05-05-2004 12:39 ]
Het komt allemaal uit dezelfde voeding, al die 12 volt 5 worden in de voeding in hetzelfde circuit opgewekt, volgens mij hebben de meeste voeding geen apart transformator circuit voor ieder snoertje dat uit dat ding komt. Misschien dat de +100 euro voedingen dit wel hebben maar de simpele china dingen van 30 euro en 400 watt doen dat toch niet? Ergo ik denk niet dat 2 molex connectors te maken heeft met de capaciteit van de voeding.
Dan denk ik als tweede aan het amperage dat maximaal door zo'n snoertje kan, waarschijnlijk krijgt de +5 volt (het gele draadje toch?) het het zwaarst, stel dat hij 50 W op 5 volt trekt dan is dat 10 Amperes, wat inderdaad misschien niet door zo'n snoertje kan zonder meltdown. Daar weet ik de formule niet van, dat hangt af van het geleidermateriaal en de dikte.
Maar dan: hele horden mensen zullen 1 snoertje gebruiken van de PSU, met 2 in serie geschakelde molex connectoren. Net als dat je 2 HD's hebt dat je vaak vanwege nette stekkerverbindingen die in serie op de stroom aansluit, dat past vaak heel mooi. Echter in dat geval krijg je dus nog steeds een meltdown van het snoertje, want alle stroom gaat over 1 draadje. Er zullen ook wel lieden zijn die hier een V splitter zullen gebruiken. Dus als dit werkelijk de reden is dan moet de handleiding hier heel duidelijk in zijn: iedere molex connector moet op een aparte draad naar de voeding zitten. Is dat zo?
Als laatste is er de stroom die over een molex stekker verbinding kan. Is dat het zwakste punt en de reden dat er met twee molex verbindingen gewerkt wordt? Zo ja dan is met splitters werken wederom onverstandig.
Wie weet het antwoord?
Dank!
"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs
Zie het maar zo: Veel dingen op het PCB moeten stroom hebben, en die banen in het PCB moesten allemaal vanaf de Molex connector komen, en het werd daar gewoon te druk met het aantal banen, en dus is voor een 2de Molex connector gekozen.mr_a schreef op 05 mei 2004 @ 12:43:
Je m'excuse als dit al gevraagd is, maar ik vroeg me af wat de reden is van twee molex connectoren. Ja het stroom verbruik, maar hoezo het stroomverbruik? Waarom kunnen die watts niet over 1 stekkertje?
Het komt allemaal uit dezelfde voeding, al die 12 volt 5 worden in de voeding in hetzelfde circuit opgewekt, volgens mij hebben de meeste voeding geen apart transformator circuit voor ieder snoertje dat uit dat ding komt. Misschien dat de +100 euro voedingen dit wel hebben maar de simpele china dingen van 30 euro en 400 watt doen dat toch niet? Ergo ik denk niet dat 2 molex connectors te maken heeft met de capaciteit van de voeding.
Dan denk ik als tweede aan het amperage dat maximaal door zo'n snoertje kan, waarschijnlijk krijgt de +5 volt (het gele draadje toch?) het het zwaarst, stel dat hij 50 W op 5 volt trekt dan is dat 10 Amperes, wat inderdaad misschien niet door zo'n snoertje kan zonder meltdown. Daar weet ik de formule niet van, dat hangt af van het geleidermateriaal en de dikte.
Maar dan: hele horden mensen zullen 1 snoertje gebruiken van de PSU, met 2 in serie geschakelde molex connectoren. Net als dat je 2 HD's hebt dat je vaak vanwege nette stekkerverbindingen die in serie op de stroom aansluit, dat past vaak heel mooi. Echter in dat geval krijg je dus nog steeds een meltdown van het snoertje, want alle stroom gaat over 1 draadje. Er zullen ook wel lieden zijn die hier een V splitter zullen gebruiken. Dus als dit werkelijk de reden is dan moet de handleiding hier heel duidelijk in zijn: iedere molex connector moet op een aparte draad naar de voeding zitten. Is dat zo?
Als laatste is er de stroom die over een molex stekker verbinding kan. Is dat het zwakste punt en de reden dat er met twee molex verbindingen gewerkt wordt? Zo ja dan is met splitters werken wederom onverstandig.
Wie weet het antwoord?
Dank!![]()
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Ok, daar had ik nog niet bij stil gestaan. Dus het is iets in de kaart en niet in het systeem. Trouwens de lager geklokte NV40 kaarten hebben toch 1 molex connector? Misschien is het niet te druk in het aantal banen op het PCB maar dat het amperage door die banen tegen een grens aanloopt of een dergelijks effect.Thund3r schreef op 05 mei 2004 @ 12:53:
[...]
Zie het maar zo: Veel dingen op het PCB moeten stroom hebben, en die banen in het PCB moesten allemaal vanaf de Molex connector komen, en het werd daar gewoon te druk met het aantal banen, en dus is voor een 2de Molex connector gekozen.
P.S. (edit) Dit is wel interessant want het betekent dat er dus geen technische bezwaren zijn tegen het gebruik van 2 of meer molex connectoren door de kaart. Haast iedere review noemt dit als bezwaar maar feitelijk bezien vind ik het dus niet zo relevant. Immers een simpel V splittertje van een paar euro volstaat voor lieden die nog maar 1 molex vrij hebben. Cosmetisch is het een ander verhaal maar dit is een gamers tool geen piece of fashion.
[ Voor 29% gewijzigd door mr_a op 05-05-2004 13:20 ]
"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs
Leuk dat je nu alleen Game2 neemt (ok, ik nam ook maar 1 pic), maar neem nu eens 3DMark03 in z'n geheeljoostve schreef op 05 mei 2004 @ 10:32:
[...]
dit is toevallig het plaatje waar X800XT er het beste uit komt
maar als je deze eens bekijkt
[afbeelding]

Toch knap van ATi om in 3DMark03 hoger te scoren dan nVidia..
Nu moet ik er wel bij zeggen dat deze scores van site tot site enorm verschillen, dus eigenlijk heeft het vrij weinig nut het nog hierover te hebben
[ Voor 20% gewijzigd door Rone op 05-05-2004 13:17 ]
PC1: 9800X3D + RX 9070 XT || PC2: 5800X3D + RTX 3080 || Laptop: 7735HS + RTX 4060
Overal staat dat de 6800Ultra "maar" 16Watt meer levert dan de 9800XT.
De stroom is dus idd verdeeld over deze 2 lijnen.
Ik snap echt niet waarom dit dedicated moet zijn dan. Ikzelf heb een Zalman 400Watt voeding die een effectieve stroom levert van 380Watt (terwijl een goedkope 550W ver hieronder presteert) en ik heb dus maar 3 lijnen. Als er 2 bezet moeten zijn, dan vraag ik me af hoe ik de rest op die ene lijn moet aansluiten??
Aan 1 lijn zitten 3 molexen op. Ik moet 7 casefans aansluiten, de hardcano, hd, diskettestation, 1 cdrewriter, 1 dvd speler, en 2 recom lampjes.......en dit op 1 lijn..................zie ik niet zitten..................
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch?
Omdat ze juist wél veel van elkaar afweten. Meer dan wat wij weten voor de launch-ETz-Memphis Z schreef op 05 mei 2004 @ 13:40:
Ik vraag me af hoe dat het komt dat 2 bedrijven zo goed op elkaar kunnen inspelen.
Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch?Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
Op die manier stemmen ze hun hardware af zodat het nét iets meer doet dan de tegenstander..
PC1: 9800X3D + RX 9070 XT || PC2: 5800X3D + RTX 3080 || Laptop: 7735HS + RTX 4060
Daar heb ik ook vaak over nagedacht, misschien komt het omdat beide bedrijven tegen dezelfde huidige technologische beperkingen aanlopen in de chipindustrie, TSCM, IBM....-ETz-Memphis Z schreef op 05 mei 2004 @ 13:40:
Ik vraag me af hoe dat het komt dat 2 bedrijven zo goed op elkaar kunnen inspelen.
Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch?Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
Niet op voorraad.
Ze vragen wel 2 "dedicated" molexen, een splitter kan je dus in princiepe niet gebruiken.[b]mr_a schreef op 05 mei 2004 @ 13:14:
P.S. (edit) Dit is wel interessant want het betekent dat er dus geen technische bezwaren zijn tegen het gebruik van 2 of meer molex connectoren door de kaart. Haast iedere review noemt dit als bezwaar maar feitelijk bezien vind ik het dus niet zo relevant. Immers een simpel V splittertje van een paar euro volstaat voor lieden die nog maar 1 molex vrij hebben. Cosmetisch is het een ander verhaal maar dit is een gamers tool geen piece of fashion.En een tweaker kan er toch wel een leuke draai aan geven.
Het enige probleem wat ik erin zie is voor garantie en als je er problemen mee hebt.
Je kaart werkt niet
nv: wat voor PSU hebt U?
Klant: 350Watt xxxx
nv: Vervang die dan eerst voor 1 van 480 watt en als het dan nog niet werkt bel dan terug.
Verwijderd
Reken er maar op dat ze over en weer spionnen hebben zitten, ze weten alles van elkaar. Stel dat jij in het ATI team werkt, voor een salaris van pak 'm beet 50.000$ per jaar, en Nvidia doet jou een aanbod om hier 100.000$ van te maken als je af en toe wat "geheimpjes" doorsluist, dan is de keus niet zo moeilijk.Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch? Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
[ Voor 32% gewijzigd door Verwijderd op 05-05-2004 14:10 ]
Op zoiets staan zware straffen hoor .Verwijderd schreef op 05 mei 2004 @ 14:07:
[...]
Reken er maar op dat ze over en weer spionnen hebben zitten, ze weten alles van elkaar. Stel dat jij in het ATI team werkt, voor een salaris van pak 'm beet 50.000$ per jaar, en Nvidia doet jou een aanbod om hier 100.000$ van te maken als je af en toe wat "geheimpjes" doorsluist, dan is de keus niet zo moeilijk.![]()
Nee het is hier gewoon toevallig in de 2 a 3 vorige generaties was er een duidelijk verschil, in deze iets minder maar om te zeggen dat ze nu gelijk presteren vind ik wel overdreven.
Moet je eerst gepakt worden, zowieso is industriele spionage aan de orde van de dag hoor in de wereld van tegenwoordig. Zou er echt niet van opkijken als deze beide bedrijven er ook gewoon aan doen.
Hmm, dan snap ik dus nog niet waarom ze dat vragen. Er werd hier gezegt, het heeft met de kaart te maken, hieruit blijkt dat NVIDIA denkt dat het met het snoertje of de capaciteit van de molex stekkerverbinding te maken heeft. Veel helderder wordt het nog niet. Nu ja mocht ik zo'n kaart kopen dan ga ik wel experimenteren (300 watt Antec voeding, twee "dedicated" snoertjes kan ik wel te voorschijn toveren).k995 schreef op 05 mei 2004 @ 14:01:
[...]
Ze vragen wel 2 "dedicated" molexen, een splitter kan je dus in princiepe niet gebruiken.
Het enige probleem wat ik erin zie is voor garantie en als je er problemen mee hebt.
Nu heb ik nog de oer-Radeon, de 64mb DDR vivo uit 2000. Na vier jaar mag ik me wel een nieuw speeltje geven. Ik vind het fantastisch dat NVIDIA nu een goed product naast ATi zet, ideaal. Nog even wachten hoe de prijzen zich ontwikkelen, *voorpret*!
"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs
Ja? Ik niet hoor bijna niemand denk ik[b]mr_a schreef op 05 mei 2004 @ 14:21:
Hmm, dan snap ik dus nog niet waarom ze dat vragen. Er werd hier gezegt, het heeft met de kaart te maken, hieruit blijkt dat NVIDIA denkt dat het met het snoertje of de capaciteit van de molex stekkerverbinding te maken heeft. Veel helderder wordt het nog niet. Nu ja mocht ik zo'n kaart kopen dan ga ik wel experimenteren (300 watt Antec voeding, twee "dedicated" snoertjes kan ik wel te voorschijn toveren).
En ik denk dat het voor alle zekerheid is. Nvidia zal misschien in hun eigen testsytemen soms problemen ondervonden hebben en dus voor alle zekerheid zo'n zware eisen.
Verwijderd
Dat is nog altijd onzeker want er is nog steeds geen finale versie van de nvidia kaart uitgekomen (denk dat dit komt in afwachting van hoe de ATi het deed) Ik verwacht eigenlijk een 6900 serie rond de zomer om een counter offensief te hebben voor de x800xt. Wat wel goed is en wat ik nog niemand heb zien schrijven is dat de x800xt opeens tegelijk met de x800pro uitkomt terwijl deze eigenlijk later uit zou komen. Denk dat nvidia dit ook verwachte en nu dus eigenlijk te laat is met een antwoord maar die zal vast en zeker nog gaan komen.Verwijderd schreef op 05 mei 2004 @ 14:33:
Weet iemmand al hoe de 6800ultra gaat presteren? want ik heb wel een bench ervan gezien maar daar was ie de hele tijd sneller dan de x800pro terwijl die toch niet veel onder de 6800ultra zit en met aa/aaf er meestal boven maar hier zat de GT eigelijk altijd boven de pro.
Het maakt niet veel uit wie er nu wint ze scoren allebei zeer goed en je merkt nu dat producten eerder uitkomen als gepland was en dat zowel ati als nvidia geen kans krijgt om eerst een topmodel uit te melken om er vervolgens weer een ietsje betere uit te brengen om weer de volle mep te vangen.
Ik wacht de eerste maandjes nog wel af. En dan nog eens kijken naar ervaringen
Trotse vader x 2!| Profiel volspammen mag hier: Klik
Dit is wat hun er over zeggen en hoe ik er over denk, ze presteren na genoeg gelijk.. maar het is nog steeds een beetje afwachten tot beide in de schappen ligen!The answer probably depends on which company you prefer. If you’ve favored NVIDIA’s cards in the past, this faster SKU is probably blabla.............
GreetZz
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Het lijkt mij dat de GT dus de meest interessante kaart is van de hele 6800 serie.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar idd, tis een lager geclockte ultra, niet een gestripte, dat geeft wel zekere mogelijkheden
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
Op het moment lijkt voor mij een x800pro het beste.SideSwipe schreef op 05 mei 2004 @ 16:13:
Ze maken het voor de consument straks niet makkelijk. Niet alleen de keuze tussen Nvidia of Ati... Maar ook tussen de modellen
Ik wacht de eerste maandjes nog wel af. En dan nog eens kijken naar ervaringen
Ik denk niet dat die GT standaart niet modbaar is maar misschien wel als iemmand een manier verzind om die extra power connector erop te krijgen want ik denk niet dat de kaart onders genoeg stroom krijgt.
399 dollar he, dat is in euro's minder.CJ schreef op 05 mei 2004 @ 16:34:
Ik vind de GeForce6800GT toch wel een heel interessant kaartje. Voor €399,- krijg je een kaart die maar 1 powersupply heeft, singleslot is, wel alle 16 pipelines heeft en ook nog eens is over te klokken naar Ultra snelheden...
Het lijkt mij dat de GT dus de meest interessante kaart is van de hele 6800 serie.
Ik denk als je hem gaat overklokken naar ultra snelheden dat je die 2e molex nodig hebt.....waarom is ie anders
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
ff checke wat de retail van de nv40 6850 oid 6800 Ultra Extreme gaat doen...
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.
Verwijderd
EN!??????Bigbot schreef op 05 mei 2004 @ 17:00:
omdat niemand erop reageerde stel ik mijn vraag nog eens.
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.
en als ik deze screenshots moet geloven is het nu andersom.
http://www.firingsquad.co...ati_radeon_x800/page8.asp
kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.
Nee hoor... Firingsquad kreeg de 6800GT op 425 Mhz core en 1200 Mhz mem.... das dus ruim over de standaard 6800Ultra Extreme heen, en zo presteerde die ook...Deathchant schreef op 05 mei 2004 @ 16:57:
[...]
399 dollar he, dat is in euro's minder.
Ik denk als je hem gaat overklokken naar ultra snelheden dat je die 2e molex nodig hebt.....waarom is ie anders


Da's toch mooi even 20% extra performance waarmee die zelfs sneller is als de standaard 6800UE voor €100 minder.
En ik zeg express alles in euro's omdat tot nu toe altijd is gebleken dat kaarten in Europa duurder zijn, ondanks dat de euro op dit moment sterker is. Je hebt in Amerika nu ook al lang 9800Pro kaarten voor rond de $160 tot $180. Hier in Nederland zitten we nog rond de €200,- tot €220,-, en theoretisch zou je dan eigenlijk al op €148 moeten zitten voor een 9800Pro. En dat zie je hier dus echt nog niet.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
En als je een paar plaatjes verder kijkt, die van de startbaan, dan "wint" Nvidia ook (behoorlijk veel zelfs imho).Bigbot schreef op 05 mei 2004 @ 17:43:
noe bij de 9800 en 5900 was het zo dat bij Nvidia de AA slecht was en bij ATi goed.
en als ik deze screenshots moet geloven is het nu andersom.
http://www.firingsquad.co...ati_radeon_x800/page8.asp
kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.
Er is alleen één troef die Ati heeft, en dat vermeldt firingsquad ook, en dat is de temporal FSAA functie. Jammergenoeg is dit niet op een plaatje vast te leggen. Firingsquad geeft ATI hierdoor als de uiteindelijke FSAA winnaar aan:
Again, overall it’s much harder to make a final call on AA quality than it was in the past. We will however give ATI the overall AA edge thanks to their new temporal AA mode.
[ Voor 14% gewijzigd door Verwijderd op 05-05-2004 18:23 ]
want deze speelt zich af over meerdere beelden
Ik denk dat de retail-exemplaren wel minder te overklokken zullen zijn dan de reference-kaarten die ze naar de reviewers opsturen, omdat de yields niet zo goed schijnen te zijn (zie ook hier), waardoor alle chips die echt goed gelukt zijn gebruikt zullen worden om ultra (extreme) kaarten mee te maken en de iets slechtere chips op een GT-kaart komen. Chips met kapotte pipelines gaan dan naar de non-ultra exemplarenCJ schreef op 05 mei 2004 @ 18:00:
[...]
Nee hoor... Firingsquad kreeg de 6800GT op 425 Mhz core en 1200 Mhz mem.... das dus ruim over de standaard 6800Ultra Extreme heen, en zo presteerde die ook...En dat allemaal zonder extra molex!
[afbeelding]
[afbeelding]
Da's toch mooi even 20% extra performance waarmee die zelfs sneller is als de standaard 6800UE voor €100 minder.
Een aantal plaatjes kan ik nauwelijks een verschil in ontdekken, dus NVidia is echt bijgetrokken. Ik zou niet zeggen dat de ATi of de NVidia kaart betere AA heeft op basis van deze beelden (ik vind ze daarvoor te gelijkwaardig). De landingsbaan die van de zijkant ziet daar gaat bij de ATi iets mis, de lijnen van de texture komen niet netjes in beeld. Dat ziet er inderdaad slecht uit maar ik weet niet of dit structureel is. De examples die verder genoemd worden vind ik allemaal discussiepunten wat mooier is...Bigbot schreef op 05 mei 2004 @ 17:00:
omdat niemand erop reageerde stel ik mijn vraag nog eens.
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.
"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs
De GT echter lijkt een absolute winner te zijn, heb al een en ander kwa reacties gezien op de fora en veel mensen zitten aan die kaart te denken. Logisch: 1 slot, 1 molex, kan het met 350Watt af, goed overclockspotentieel, en 16 pipes tegen de Pro 12. Ik meen het voordeel van 16 pipes ook terug te zien in de shadermark 2 tests. Lijkt me moeilijk kiezen tussen die 2, ik denk dat ik toch naar de GT neig.
Zoals zo vaak zal de prijs wel gaan beslissen.
[ Voor 4% gewijzigd door Sjah op 06-05-2004 09:13 ]
Ik ben zwaar voor nVidia, maar ik ben het volledig met je eens dat de X800XT alleen maar voordelen heeft t.o.v. de 6800Ultra.Sjah schreef op 06 mei 2004 @ 08:47:
Na duizelig te zijn van de reviews lijkt me de keuze tuseen de Ultra en de Xt in het voordeel van de Xt uit te vallen. Omdat die toch iets sneller is, 1 slot, 1 molex, en minder powerconsumptie zelfs dant de 9800XT.
Daarnaast is de ATi weer beter op high reso's en FSAA en AF.
Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......Maar gezegd dient te worden dat de Ultra nog wel het een en ander aan groeipotentieel heeft qua drivers, en in FarCry willik het nog wel zien als ps3.0 wordt ingeschakeld.
Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0. Een jongen die bij de regenboog werkt heeft mij dit ook gezegd en heeft al in levende lijve kunnen testen op een zalman 400watt voeding en ging uitstekend. Hij haalde meer benchmarks dan de X800XT. Maar ja, daar vertrouw ik ook niet meer op.
Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
Ja, ook weer met je eensDe GT echter lijkt een absolute winner te zijn, heb al een en ander kwa reacties gezien op de fora en erg veel mensen zitten aan die kaart te denken. Logisch: 1 slot, 1 molex, kan het met 350Watt af, goed overclockspotentieel, en 16 pipes tegen de Pro 12. Ik meen het voordeel van 16 pipes ook terug te zien in de shadermark 2 tests. Lijkt me moeilijk kiezen tussen die 2, ik denk dat ik toch naar de GT neig.
Maar als deze echt 100 euro bespaart op de Ultra, waarom niet? Ik geloof zelfs dat ie ook een single slot design heeft.
Maar aan de andere kant kun je je ook afvragen: waarom de Ultra met een dualslot design, als een GT hetzelfde niveau bereikt met maar 1 molex, singleslot design, dezelfde aantal pipelines en 100 euro minder?
Zullen ze toch niet voor niks gedaan hebben he?
De GT heeft geloof ik wel geen dual DVI, maar ja, 1 is genoeg voor mij
[ Voor 3% gewijzigd door Deathchant op 06-05-2004 09:23 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
nVidia wil blijkbaar geen risico's nemen, en hebben 2 molexen gedaan om zeker te zijn denk ik, en om later omhoog te kunnen (zoals al met de Ultra Extreme gaat gebeuren), maar zoals CJ al zei, Firingsquad lukte het wel gewoon om de GT naar 425 te klokken op 1 molexDeathchant schreef op 06 mei 2004 @ 09:21:
[...]
Ja, ook weer met je eensAlhoewel ik wel gestoord wordt van al die versies, GT XT, Ultra, maar dat is offtopic. Persoonlijk vind ik Ultra wel stoerder klinken
![]()
Maar als deze echt 100 euro bespaart op de Ultra, waarom niet? Ik geloof zelfs dat ie ook een single slot design heeft.
Maar aan de andere kant kun je je ook afvragen: waarom de Ultra met een dualslot design, als een GT hetzelfde niveau bereikt met maar 1 molex, singleslot design, dezelfde aantal pipelines en 100 euro minder?
Zullen ze toch niet voor niks gedaan hebben he?
De GT heeft geloof ik wel geen dual DVI, maar ja, 1 is genoeg voor mij.
Ik had wel liever 2x DVI gehad,voor als ik me CRT's ga vervangen, maar wie weet komt er nog een fabrikant met 2.
[edit] maar even hier een screenshot:

[ Voor 14% gewijzigd door Sjah op 06-05-2004 09:38 ]
Verwijderd
En de verbeteringen in drivers zullen ook bij de x800 serie plaats vinden, hou daar rekening mee. Op dit moment zijn ze druk bezig, gaan de geruchtte, met drivers voor zowel oude als de nieuwe vidkaarten met verbeterde shader compilers en het zwakke punt van ati opengl is ook helemaal overnieuw geschreven en zal ook binnenkort in de drivers verschijnen.Deathchant schreef op 06 mei 2004 @ 09:21:
Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......
Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0. Een jongen die bij de regenboog werkt heeft mij dit ook gezegd en heeft al in levende lijve kunnen testen op een zalman 400watt voeding en ging uitstekend. Hij haalde meer benchmarks dan de X800XT. Maar ja, daar vertrouw ik ook niet meer op.
Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
Over dat ps 3.0, daar is weinig over te zeggen. Je weet niet of het egt zo veel verschil uitmaakt laat eerst maar wat benchmarks zien, bovendien is niet alles hardwarematig aan ps3.0 en kan ati er ook een deel van ondersteunen.
edit:
@screenshot ik vind de kaarten van nvidia der eigenlijk oerlelijk uitzien maja daar gaat het uiteindelijk niet om, tenzij je casemod natuurlijk.
[ Voor 5% gewijzigd door Verwijderd op 06-05-2004 09:41 ]
Altijd?Deathchant schreef op 06 mei 2004 @ 09:21:
Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues.
Sinds de R9700 had ATI juist een streepje voor ivm met de volledige dx9 ondersteuning. Sinds de 6800 is het de nVidia pas weer.
Ik klok liever niet, vermindert de levensduur. Die jongen uit de regenboog had de 6800Ultra ook goed weten te klokken, ik weet alleen niet meer hoeveel. nVidia heeft dus ook contracten gesloten met EAGAMES en ik dacht ook UbiSoft om hun spellen te optimaliseren voor de 6800 series. Maar ik denk dat zowel ATi en nVidia goed zullen scoren met alle spellen.Sjah schreef op 06 mei 2004 @ 09:31:
[...]
Yup heeft een single slot design, zie de foto op Anandtech.
nVidia wil blijkbaar geen risico's nemen, en hebben 2 molexen gedaan om zeker te zijn denk ik, en om later omhoog te kunnen (zoals al met de Ultra Extreme gaat gebeuren), maar zoals CJ al zei, Firingsquad lukte het wel gewoon om de GT naar 425 te klokken op 1 molex![]()
Ik had wel liever 2x DVI gehad,voor als ik me CRT's ga vervangen, maar wie weet komt er nog een fabrikant met 2.
Tis maar wat je kwaliteit noemt, de een zegt dat ATi betere kwaliteit levert door FSAA en AF, terwijl er misschien mee bedoelt wordt dat ATi's kaarten sneller zijn met FSAA, niet per se mooier beeld. Ik heb beiden fabrikanten gezien en ik moet zeggen dat ik echt geen verschil zie in beeldkwaliteit
Je ziet het verschil toch niet tussen 150 FPS en 250FPS.
Ik zou wel eens graag met iemand die echt veel verschillen ziet in beeldkwaliteit de kaarten onder de loep willen nemen.
Bovendien, als je op een resolutie van 1600x1200 speelt (wat er volgens mij niet veel doen, tenzij ze op de desktop deze hanteren en in alle spellen willen behouden zodat de monitor niet naar een andere resolutie hoeft om te springen) heb je al geen AF en FSAA nodig. Het beeld is al zo fijn dat dat niet meer opvalt.
Ikzelf heb een HM903DTA en heb een desktop reso van 1600x1200@85HZ en speel spellen meestal in 1280x1024 zonder FSAA en AF en vind het even mooi als iemand op dezelfde resolutie met FSAA en AF.
Ik ga pas de CRT vervangen als de techniek van TFT's wat beter ontwikkeld is en goedkoper is. 600 euro voor een 16 ms scherm vind ik te duur.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
De drivers van ATi gaan de laatste tijd idd de goeie kant uit, maar ik vind dat nVidia nog steeds voor ligt op dit gebied.
Ik casemod dus
Ik vind uiterlijk ook enigszins belangrijk, in die zin dat het niet doorslaggevend is bij het maken van een keuze. Kwaliteit en prestatie is het belangrijkst.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Vergeet niet dat ATI 3Dc heeft iets wat ook in far cry zou komen met ene pacth. OOk daar kan je zeggen dat het winst kan opleveren, hoeveel is onbekend.[b]Deathchant schreef op 06 mei 2004 @ 09:21:
Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......
In de meeste recente spelen zoals, far cry, painkiller nascar 2004, EVE online,... wint de 800XT .Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0.
Kijk eens hier staat een mooi overzicht van wat sites :
http://www.nvnews.net/
Je bedoelt 9.0c? En het zijn beide BETA drivers en vergeet niet dat NV juist hun drivers update voor de ATI launch met serieus wat verbeteringen.Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
Daarvoor ook de 8500 had heel wat meer features dan de GForce 4 serie (die dan wel sneller was) .hjs schreef op 06 mei 2004 @ 09:43:
Altijd?
Sinds de R9700 had ATI juist een streepje voor ivm met de volledige dx9 ondersteuning. Sinds de 6800 is het de nVidia pas weer.
De GerforceFX serie blijkt veel sneller te presteren op een nForce3 systeem dan op een andere chipset (nieuws: 'GeForce FX sneller op nForce3 250Gb-moederborden'), zijn der al benchmarks waar dit ook getest wordt met de 6800? want dan lijkt me dat de 6800 de X800 XT met gemak op alles verslaat??
:: ABIT AN7 :: GF3 Ti200 :: 2500+ ::
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.
Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:
HD WD 120Gig : 50W
GeForce 6800Ultra: 110W
Liteon DVD speler : 25W
Liteon CD Rewriter: 25W
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt
Dan zou ik NET uitkomen met mijn voeding........
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Met AA daar kan ik het nog met je eens zijn. Maar AF... een hogere resolutie verhult de blurry textures echt niet.... Juist AF lijkt me dan toch best wel wenselijk omdat je anders tegen nog een groter vlak met wazige textures aan kijkt. Of zie ik dat nou verkeerd?Deathchant schreef op 06 mei 2004 @ 09:46:
[...]
Bovendien, als je op een resolutie van 1600x1200 speelt (wat er volgens mij niet veel doen, tenzij ze op de desktop deze hanteren en in alle spellen willen behouden zodat de monitor niet naar een andere resolutie hoeft om te springen) heb je al geen AF en FSAA nodig. Het beeld is al zo fijn dat dat niet meer opvalt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Deathchant schreef op 06 mei 2004 @ 09:21:
Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues.
Jammer dat het dus het tegenovergestelde is. In het ati topic heeft iemmand een mooie tabel gemaakt waarop je kan zien hoe beide kaarten scoren en dan zal je zien dat ati dus beter is in recente spellen.
Ik zit zelf nu ook te twijfelen tussen een Gt en een Pro. Standaart is de Pro sneller en je kan hoge reso's en veel aa/aaf doen zonder veel prestatie verlies wat met de GT zeker niet kan, maar de GT kan als de yields goed zijn weer worden oced naar een ultra extreme. Dus het word kiezen, gokken dat je een kaart heb die heel goed oced (wat ik zelf eigelijk niet verwacht als je die verhalen over slechte yields leest) of een kaart waarvan je iig zeker weer dat je veel aa/aaf kan doen.
Verwijderd
Kzal het hier dan ook maar posten :Verwijderd schreef op 06 mei 2004 @ 10:47:
quote:
Jammer dat het dus het tegenovergestelde is. In het ati topic heeft iemmand een mooie tabel gemaakt waarop je kan zien hoe beide kaarten scoren en dan zal je zien dat ati dus beter is in recente spellen.
Een leuk overzichtje :
http://www.nvnews.net/
let wel op de source en dat de maker ervan gewoon al de benches optelt en diegene die het meeste wint als winnaar uitroept (bij een test waar 800x600 en 1024X768 en 1280X1024 en NV de 1e 2 wint en ATI de 3e ,wint dus NV. )

Alles bij elkaar opgeteld :
NV 6800U : wint 11 keer (geen enkele keer in een recent spel)
ATI X800XT : wint 13 keer (6 keer in een recent spel nml (Colin macrae 4,EVE online, Far Cry, FF XI,nascar 2004, painkiller)
5 keer was het gelijk (1 keer een recent spel nml :Breed )
Ik heb geprobeerd dezelfde engine niet 2 maal te tellen .
In de VS zou het in juni zijn, reken hier nog zeker een maand extra : juli of augustus dus(als natuurlijk de yields niet zo slecht zijn als sommige beweren).Verwijderd schreef op 06 mei 2004 @ 10:50:
Is er eigenlijk al bekend wanneer we de 6800(ultra) in de winkel kunnen verwachten? Dus in winkels als mycom etcetera?
Verwijderd
maar wat daar tegen over staatBigbot schreef op 05 mei 2004 @ 17:43:
noe bij de 9800 en 5900 was het zo dat bij Nvidia de AA slecht was en bij ATi goed.
en als ik deze screenshots moet geloven is het nu andersom.
http://www.firingsquad.co...ati_radeon_x800/page8.asp
kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.


NVIDIA's 8xS mode, a combination of SuperSampling and MultiSampling, offers superior quality. Unfortunately, it also incurs a major performance hit, bringing the frame rates crashing down.
en hier is het resultaat

het ziet er dan misschien wel twee keer zo goed uit, maar op 22 frames per seconde heb je daar niet zoveel meer aan, lijkt mij

[ Voor 8% gewijzigd door Verwijderd op 06-05-2004 13:46 ]
Dan zou ik ook moeten toekomen met mijn 300WattDeathchant schreef op 06 mei 2004 @ 10:34:
Ik heb eens wat gespeculeerd over de voeding.
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.
Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:
HD WD 120Gig : 50W
GeForce 6800Ultra: 110W
Liteon DVD speler : 25W
Liteon CD Rewriter: 25W
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt
Dan zou ik NET uitkomen met mijn voeding........
Voor specs zie hieronder. (geen floppy, 5 Watt winst
Dat hangt ervan af, is het een no name dan zou ik oppassen. Is het van een deftig merk dan moet het wel gaan.[b]-ETz-Memphis Z schreef op 06 mei 2004 @ 14:03:
Dan zou ik ook moeten toekomen met mijn 300Watt
Voor specs zie hieronder. (geen floppy, 5 Watt winst)
Niet op voorraad.
Aldus mijn schattigDeathchant schreef op 06 mei 2004 @ 10:34:
Ik heb eens wat gespeculeerd over de voeding.
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.
Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:
HD WD 120Gig : 50W 5W (alleen bij spinup 20W)
GeForce 6800Ultra: 110W (, lijkt me te veel)
Liteon DVD speler : 25W 5W (alleen bij spinup 25W)
Liteon CD Rewriter: 25W 5W (alleen bij spinup 25W)
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W 5W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt 260W
Dan zou ik NET uitkomen met mijn voeding........
tvw
leg uit
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Je moet wel juist met de spinup getallen rekeken. Want het is dan dat hij het meeste vraagt en het is dan dat hij in de problemen kan komen.
En ik vraag me af of de P4 zoveel stroom vreet
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Van HDD's, CD-rom en memory* kan je gewoon de specs opzoeken. Daarin staat hoeveel ze maximaal gebruiken. 50W voor 1 HDD(tje) lijkt mij erg veel. Je moet inderdaad met alle spinup getallen en andere maxima rekenen, omdat je niet wilt dat je PC zomaar op zijn plaat gaat (door bijvoorbeeld je HDD). IMO gaat overklokken niet samen met een (erg) krappe voeding.
* De rest waarschijnlijk ook wel.
[ Voor 5% gewijzigd door Jake op 06-05-2004 16:51 ]
Hoezo... heb jij dan continu een floppy in je disk-drive die aan het horren is?k995 schreef op 06 mei 2004 @ 14:06:
[...]
Dat hangt ervan af, is het een no name dan zou ik oppassen. Is het van een deftig merk dan moet het wel gaan.
Verwijderd
]Verwijderd schreef op 06 mei 2004 @ 22:03:
beetje jammer dat nergens battlefield is meegenomen in de tests.
tja als je bedenkt dat daar een limiet is van 100 fps, beetje onzinnig lol
Verwijderd
(het niveau tot nu toe is verfrissend hoog, hulde, ga zo door etc
Oslik blyat! Oslik!
Dit topic is gesloten.