Nou morgen naar Gameplay in UtrechtVerwijderd schreef op vrijdag 23 november 2007 @ 21:07:
Daar moet ik het toch mee eens zijn: Ik heb vandaag in mijn omgeving (Deventer) zo'n beetje alle winkels gebeld, maar denk maar niet dat de 8800GT ook maar ergens op voorraad is... Echt jammer! Ik heb een compleet systeem samengesteld, klaar om te bestellen... Maar zonder die kaart hoeft het nog niet natuurlijk.
Dus als iemand z'n kaart al helemaal zat is omdat hij of zij, bijvoorbeeld een... ehhm... Xbox 360 heeft gekocht (????), dan houd ik me aanbevolen. Tot die tijd wacht ik met veel ongeduld af wanneer ik de 8800GT nou eens gewoon in een winkel kan kopen.
Beetje weinig he, die kaart alleen al verbruikt 100 watt.Edwinuss schreef op vrijdag 23 november 2007 @ 22:02:
Ik heb vandaag 1 kunnen bemachtigen! Bij de gameplay waren ze te koop. Het gaat hier om het model van ASUS.
Alleen mijn voeding kan het niet aan lijkt het op, ik krijg elke keer gepiep. Dus ik moet een nieuwe voeding kopen?
Zit op 300 Watt
Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
Heb paar dagen geleden de 1.1vmod via de bios gedaan. Werkt best goed, en draai nu voor 24/7 : 720/1920/1800. De maximale stabiele waarden zijn : 745/2000/1848, maar dan word de kaart zefs met de fan op 75% 73 graden, en met m`n huidige settings 68 graden. Zonder de mod kon ik ook deze waardes halen, alleen waren ze nooit echt 100 % stabiel, Crysis freezde vaker spontaan. Dat is nu gelukkig verholpen.
Heb oa de bios van Zotac, EVGA, XFX en een bios met lossere timings geprobeerd, maar ben uiteindelijk teruggekeerd naar m`n orginele bios, die van Sparkle, maar dan wel met de 1.1 vmod erin.
Draai Crysis nu op 1680x1050 op High met aantal `very high` tweaks volgens de GPU-test op 34.56 fps. Tijdens het gamen loopt het raar genoeg soepel, maar af en toe drops, maar die zijn niet echt hinderlijk door de blur-effecten.
COD2 draaid constant boven de 60 FPS op 1680x1050 met 4AA, en de rest draaid ook allemaal op high en vaak met 2 of 4AA, behalve Crysis.
Heb oa de bios van Zotac, EVGA, XFX en een bios met lossere timings geprobeerd, maar ben uiteindelijk teruggekeerd naar m`n orginele bios, die van Sparkle, maar dan wel met de 1.1 vmod erin.
Draai Crysis nu op 1680x1050 op High met aantal `very high` tweaks volgens de GPU-test op 34.56 fps. Tijdens het gamen loopt het raar genoeg soepel, maar af en toe drops, maar die zijn niet echt hinderlijk door de blur-effecten.
COD2 draaid constant boven de 60 FPS op 1680x1050 met 4AA, en de rest draaid ook allemaal op high en vaak met 2 of 4AA, behalve Crysis.
[ Voor 7% gewijzigd door SpX op 23-11-2007 23:55 ]
En waar vind jij deze info?Demon_Eyez schreef op vrijdag 23 november 2007 @ 15:50:
[...]
Da's nu ook precies een van de redenen waarom ik voor die Gainward GLH ga, daar zit een third party dual slot koeler standaard bij![]()
Als het goed komen de Gainward GLH's tussen 7 en 14 december beschikbaar, de normale Gainward's een week eerder.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Bij Asus zit toch meestal een huge doos.... kijk daar eens opEdwinuss schreef op vrijdag 23 november 2007 @ 22:02:
Zit op 300 Watt
300w is dus echt te weinig, ik hoop dat je verder ook een beetje vlotte pc hebtMinimum System Requirements:
400watt power supply with a minimum of 26 amps on the +12 volt rail.
Hmmzja, ik zit er ook een beetje mee. Enerzijds lijkt nVidia's driver prima te werken qua temperatuur, als je de registry waardes ervan bekijkt: hij is ingesteld om te opereren op 90 graden (volgens Rivatuner in ieder geval), en inderdaad wordt die van mij met alle standaard drivers en meuk hooguit in crysis 92 a 93 graden.HaseMike schreef op vrijdag 23 november 2007 @ 21:16:
Kan je ook met rivatuner zelf doen : profieltje maken voor 2d gebruik en voor 3d gebruik en dat aan de "hardware acceleration" bit hangen. Niet vergeten om daar de "server" voor aan te zetten in Riva.
Wel zeer slecht van nvidia dat ze een prima kaart maken en brakke drivers, fan op 29% geen 2d/3d clock modes. (nog steeds last van heimwee naar de veel betere ati drivers).
Nu vind ik dat toch wel een beetje erg warm, dus zou ik liever die max temperatuur naar 80 graden bijvoorbeeld halen - wat hogere fanspeed neem ik dan wel voor lief. Nu schijnt rivatuner dat te kunnen als je een 'AutoFanSpeedControl' registry entry wijzigt. Waarin'ie gewijzigd moet worden staat er helaas niet bij, en de logische setting (1 ipv 0) heeft bij mij in ieder geval niet als resultaat dat ik m'n auto fanspeed waardes aan kan passen
Ik heb trouwens een X38 bordje erbij gehaald, daar zit zowel een extra standaard molex connector voor SLI als een 24-pins (dus 2.0) ATX connector als een 8-pins extra CPU connector op, en dan heeft m'n 8800GT (PoV) zelf ook nog eens een molex connector - al met al gaan ze er geloof ik wel vanuit dat je redelijk wat stroom erin moet kunnen pompen
[ Voor 12% gewijzigd door FragFrog op 24-11-2007 01:56 ]
Ja, daar kwam ik dus achter.. Gepiep enzoDeorgere schreef op vrijdag 23 november 2007 @ 23:14:
[...]
Beetje weinig he, die kaart alleen al verbruikt 100 watt.
Dus vandaag maar een nieuwe voeding kopen.
Je kan met Riva ook fan profielen maken en die dan afhankelijk van de temperatuur laten inschakelen. b.v. :FragFrog schreef op zaterdag 24 november 2007 @ 01:50:Tenzij iemand de oplossing weet dus maar op 50% fixed gooien
- tot 65c : 29%
- van 66 tot 75 : 40%
- Boven 75 : 50%
Hier een goede uitleg over riva : >klik<
Zoek me het apezuur maar kan geen link vinden en vindt "even naar utrecht rijden"te gek vanuit het hoge noorden.tspawn schreef op vrijdag 23 november 2007 @ 23:02:
[...]
Nou morgen naar Gameplay in UtrechtKan je de 8800GT en als je wil ook de nieuwe AMD Phenom ophalen...
Iemand een link?
To be or not to be - Shakespeare/ -To be is to do - Aristotle/- do bi do bi do- Sinatra
Verwijderd
9292ov.nlscorpio schreef op zaterdag 24 november 2007 @ 10:16:
[...]
Zoek me het apezuur maar kan geen link vinden en vindt "even naar utrecht rijden"te gek vanuit het hoge noorden.![]()
Iemand een link?
Je was me net voor. had to be jaarbeurs
To be or not to be - Shakespeare/ -To be is to do - Aristotle/- do bi do bi do- Sinatra
Verwijderd
FF een vraagje wat de temp betreft van de 8800GT,
Is er iemand die de koelpasta heeft vervangen ?
Scheelt dit ook al met de tempraturen ?
Zag op wat plaatjes van modders dat er nogal flink wat meuk op zit.
(ik nog niet gekeken ivm garantie die ik nog niet kwijt wil zonder het zeker te weten
)
en heb hier nog een tube titan ttg-s104 liggen om er op te smeren.....
Mijn kaart doet nu 700/1750/1950 met max temp (in CoD4) van 70 °C fanspeed @ 60%,
Is er iemand die de koelpasta heeft vervangen ?
Scheelt dit ook al met de tempraturen ?
Zag op wat plaatjes van modders dat er nogal flink wat meuk op zit.
(ik nog niet gekeken ivm garantie die ik nog niet kwijt wil zonder het zeker te weten

en heb hier nog een tube titan ttg-s104 liggen om er op te smeren.....
Mijn kaart doet nu 700/1750/1950 met max temp (in CoD4) van 70 °C fanspeed @ 60%,
Waar heb je die gekocht op de Gameplay, bij de Mycom stand? Wat koste ie en zouden ze er genoeg op voorraad hebben?Edwinuss schreef op vrijdag 23 november 2007 @ 22:02:
Ik heb vandaag 1 kunnen bemachtigen! Bij de gameplay waren ze te koop. Het gaat hier om het model van ASUS.
Alleen mijn voeding kan het niet aan lijkt het op, ik krijg elke keer gepiep. Dus ik moet een nieuwe voeding kopen?
Zit op 300 Watt
Verwijderd
Overklokken van de 8800GT is trouwens nutteloos als je een X2 4200+ hebt
Van 600:1500:900 (core:shader:mem) naar 700:1750:975 geeft een performance verhoging van 0,194% in crysis
Tijd voor een quad core dacht ik zo
Ben beniewd hoeveel winst dat zou opleveren, iig niet zo veel als in 3dmark.
Van 600:1500:900 (core:shader:mem) naar 700:1750:975 geeft een performance verhoging van 0,194% in crysis
Tijd voor een quad core dacht ik zo
Ik kon er door te oc`en wel 2k punten bij halen in 3dmark06.Verwijderd schreef op zaterdag 24 november 2007 @ 14:30:
Overklokken van de 8800GT is trouwens nutteloos als je een X2 4200+ hebt![]()
Van 600:1500:900 (core:shader:mem) naar 700:1750:975 geeft een performance verhoging van 0,194% in crysis![]()
Tijd voor een quad core dacht ik zoBen beniewd hoeveel winst dat zou opleveren, iig niet zo veel als in 3dmark.
Ook met een X2 4200+
Ik heb dit topic een beetje zitten bekijken en het valt mij erg op dat bepaalde dinge missen.
De argumenten dat de GT sneller of net zo snel is dan de GTX gaan echter niet altijd op.


Beetje jammer dat bepaalde dingen in dit topic gewoon weggelaten zijn als ze dik in het voordeel van de GTX zijn.
Als je dus graag AA/AF aan hebt staan dan komt de GT uit de bus als een budget kaart t.o.v. de GTX.
De argumenten dat de GT sneller of net zo snel is dan de GTX gaan echter niet altijd op.


Beetje jammer dat bepaalde dingen in dit topic gewoon weggelaten zijn als ze dik in het voordeel van de GTX zijn.
Als je dus graag AA/AF aan hebt staan dan komt de GT uit de bus als een budget kaart t.o.v. de GTX.
PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)
Verwijderd
Hier ook goeie prestatie winst hoor.Verwijderd schreef op zaterdag 24 november 2007 @ 14:30:
Overklokken van de 8800GT is trouwens nutteloos als je een X2 4200+ hebt![]()
Van 600:1500:900 (core:shader:mem) naar 700:1750:975 geeft een performance verhoging van 0,194% in crysis![]()
Tijd voor een quad core dacht ik zoBen beniewd hoeveel winst dat zou opleveren, iig niet zo veel als in 3dmark.
Score CPU@2,2 GPU 600/1500/1800 : 7890 3dmark pnt
Score CPU@2,7 GPU 600/1500/1800 : 8643 3dmark pnt
Score CPU@2,7 GPU 700/1750/1950 : 9186 3dmark pnt
Dus wel degelijk een prestatie winst voor mij. In 3d mark score nog niet eens zo te merken,
Maar in games draait het allemaal op max setting (behalve crysis dan natuurlijk)
Jups met 1920X1200 inderdaad, met de veel vaker gebruikte 1680x1050 en 1280x1024 ziet het er echter een stuk beter uit voor de GT.fast-server schreef op zaterdag 24 november 2007 @ 15:38:Als je dus graag AA/AF aan hebt staan dan komt de GT uit de bus als een budget kaart t.o.v. de GTX.
*edit* : Sinds wanneer is rond de 250 euro "budget" trouwens ? Budget is tot 100 euro max.
[ Voor 12% gewijzigd door HaseMike op 24-11-2007 16:09 ]
Op een lager resolutie als 1024x1280 met AA/AF aan zal het niet zoveel schelen,zeker als die 8800gt OC is
Dat is het toch ook?fast-server schreef op zaterdag 24 november 2007 @ 15:38:
Als je dus graag AA/AF aan hebt staan dan komt de GT uit de bus als een budget kaart t.o.v. de GTX.
Maar goed; 2 GT's in SLi blazen een GTX en Ultra er HEEL dik uit. Ik heb een GTX gehad, een GTX XXX, én ik heb een dag een Ultra getest, maar maar met de GT SLi setup die ik nu heb kan de resolutie nagenoeg altijd op 1920x1200 MET AA en AF! Dat kon ik met de GTX XXX en Ultra wel vergeten in sommige games.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Hij koste 219 euro en komt bij de MYcom stand vandaan. Vandaag nieuwe voeding gekocht omdat mijn oude gewoon niet goed was.Hanky74 schreef op zaterdag 24 november 2007 @ 12:41:
[...]
Waar heb je die gekocht op de Gameplay, bij de Mycom stand? Wat koste ie en zouden ze er genoeg op voorraad hebben?
Ik die kaart erin doen.
Hij doet het niet. Krijg 1 lange piep en 3 korte piepjes..
ik baal als een stekker.
Je bent niet de enige met een DOA 8800GT en zal ook niet de laatste zijnEdwinuss schreef op zaterdag 24 november 2007 @ 17:23:
[...]
Hij koste 219 euro en komt bij de MYcom stand vandaan. Vandaag nieuwe voeding gekocht omdat mijn oude gewoon niet goed was.
Ik die kaart erin doen.
Hij doet het niet. Krijg 1 lange piep en 3 korte piepjes..
ik baal als een stekker.
Ik vind dat er echt veel te veel DOA zijn of binnen een paar weken stuk gaan, dit had echt serieus beter getest moeten worden door NVIDIA.
'You like a gay cowboy and you look like a gay terrorist.' - James May
Ik heb dit nog nooit gehad, wat kan ik nu het beste doen?FnF schreef op zaterdag 24 november 2007 @ 17:29:
[...]
Je bent niet de enige met een DOA 8800GT en zal ook niet de laatste zijn
Ik vind dat er echt veel te veel DOA zijn of binnen een paar weken stuk gaan, dit had echt serieus beter getest moeten worden door NVIDIA.
Garantie halen bij de mycom, en dan krijg je een nieuwe. Niets aan de handEdwinuss schreef op zaterdag 24 november 2007 @ 17:30:
[...]
Ik heb dit nog nooit gehad, wat kan ik nu het beste doen?
Kan ook aan je computer liggen, in mijn computer (Medion MS-7255) gaf de kaart geen beeld, maar in een andere computer (Gigabyte P35C-DS3R) doet ie het perfect.
Ik denk toch dat het aan het pci-express slot ligt, de kaart heeft 2.0 nodig, staat ook op de doos.
Ik denk toch dat het aan het pci-express slot ligt, de kaart heeft 2.0 nodig, staat ook op de doos.
Ik ben naar de dichtsbijzijnde pcwinkel gelopen en daar hebben ze de kaart getest. Ook laat de kaart hier niks zien.thomasf schreef op zaterdag 24 november 2007 @ 17:52:
Kan ook aan je computer liggen, in mijn computer (Medion MS-7255) gaf de kaart geen beeld, maar in een andere computer (Gigabyte P35C-DS3R) doet ie het perfect.
Ik denk toch dat het aan het pci-express slot ligt, de kaart heeft 2.0 nodig, staat ook op de doos.
Verwijderd
Zoals ik in het vorige topic al had vermeld, en ook in de OP staat, werkt de 8800GT gewoon in een 1.0a slot (of 1.1)thomasf schreef op zaterdag 24 november 2007 @ 17:52:
Kan ook aan je computer liggen, in mijn computer (Medion MS-7255) gaf de kaart geen beeld, maar in een andere computer (Gigabyte P35C-DS3R) doet ie het perfect.
Ik denk toch dat het aan het pci-express slot ligt, de kaart heeft 2.0 nodig, staat ook op de doos.
AutoFanSpeedControl moet je op 3 zetten wil je de waarden kunnen aanpassenFragFrog schreef op zaterdag 24 november 2007 @ 01:50:
[...]
Hmmzja, ik zit er ook een beetje mee. Enerzijds lijkt nVidia's driver prima te werken qua temperatuur, als je de registry waardes ervan bekijkt: hij is ingesteld om te opereren op 90 graden (volgens Rivatuner in ieder geval), en inderdaad wordt die van mij met alle standaard drivers en meuk hooguit in crysis 92 a 93 graden.
Nu vind ik dat toch wel een beetje erg warm, dus zou ik liever die max temperatuur naar 80 graden bijvoorbeeld halen - wat hogere fanspeed neem ik dan wel voor lief. Nu schijnt rivatuner dat te kunnen als je een 'AutoFanSpeedControl' registry entry wijzigt. Waarin'ie gewijzigd moet worden staat er helaas niet bij, en de logische setting (1 ipv 0) heeft bij mij in ieder geval niet als resultaat dat ik m'n auto fanspeed waardes aan kan passenTenzij iemand de oplossing weet dus maar op 50% fixed gooien, dan blijft'ie in Crysis op ~85 graden wat voorlopig maar even moet. Gok dat er binnen een paar weken wel betere drivers uitkomen danwel een meuk betere koelers, aan de populariteit van het kaartje tot nu toe zal't niet liggen
Ik heb de T min op 60 gezet en de fan kicked dat vrij snel in bij het gamen.
Verwijderd
Ik haal trouwens wel lekkere fps in crysis met een msi 8800gt oc in sli
scheeld zo'n 20fps
Alles veryhigh dx10 1280x800 zonder AA
Zonder sli 33 fps
met sli 53 fps op het zelfde punt in de game
scheeld zo'n 20fps
Alles veryhigh dx10 1280x800 zonder AA
Zonder sli 33 fps
met sli 53 fps op het zelfde punt in de game
NICE! mijn 2e GT is ook onderweg voor op mijn 680i SLI mobo en ik ben benieuwd!Verwijderd schreef op zaterdag 24 november 2007 @ 18:38:
Ik haal trouwens wel lekkere fps in crysis met een msi 8800gt oc in sli
scheeld zo'n 20fps
Alles veryhigh dx10 1280x800 zonder AA
Zonder sli 33 fps
met sli 53 fps op het zelfde punt in de game
Crytek heeft toegezegd dat er binnen 2 weken een patch uitkomt waardoor de SLI performance nog verder omhoog gaat!
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Waarom werkt de kaart dan niet? ik heb een zalman 460W voeding, dat moet ruim voldoende zijn.Verwijderd schreef op zaterdag 24 november 2007 @ 18:08:
[...]
Zoals ik in het vorige topic al had vermeld, en ook in de OP staat, werkt de 8800GT gewoon in een 1.0a slot (of 1.1)
7900GS en X1950PRO werken beide wel perfect in het moederbord.
Omdat er misschien een fabrieksfout in mijn GT zit?thomasf schreef op zaterdag 24 november 2007 @ 19:04:
[...]
Waarom werkt de kaart dan niet? ik heb een zalman 460W voeding, dat moet ruim voldoende zijn.
7900GS en X1950PRO werken beide wel perfect in het moederbord.
Ik heb een 430 watt Antec voeding, en daar werkt het ook perfect mee.thomasf schreef op zaterdag 24 november 2007 @ 19:04:
[...]
Waarom werkt de kaart dan niet? ik heb een zalman 460W voeding, dat moet ruim voldoende zijn.
7900GS en X1950PRO werken beide wel perfect in het moederbord.
En over dat 1.1 PCI-E, een Asus P5N-E SLI is 1.1 PCI-E en daar gaat het ook prima mee. Denk idd gewoon dat de kaart niet goed is.
Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
Ik heb een 8800GT in bestelling staan, en ik probeer er achter tekomen of mijn voeding de minimum specs heeft van 26A op de 12V lijnen. Ik kan dit echter nergens vinden (site van Nexus ook niet)
Het gaat om de NX4090 400 W. Mijn vorige kaart (7900GTO) liep probleemloos.
Het gaat om de NX4090 400 W. Mijn vorige kaart (7900GTO) liep probleemloos.
En daar komen de voedingen weer langsMcLambo schreef op zaterdag 24 november 2007 @ 19:38:
Ik heb een 8800GT in bestelling staan, en ik probeer er achter tekomen of mijn voeding de minimum specs heeft van 26A op de 12V lijnen. Ik kan dit echter nergens vinden (site van Nexus ook niet)
Absoluut geen probleem voor wat voor voeding dan ook. (mits voorzien van een 6 pin pci-e stekkertje, maar waarschijnlijk zijn 2 molexen ook wel zat).
[ Voor 6% gewijzigd door HaseMike op 24-11-2007 19:54 ]
Inderdaad. Mijn broertje heeft een 360W voeding, en daar werkt de 8800GT ook prima opHaseMike schreef op zaterdag 24 november 2007 @ 19:53:
[...]
En daar komen de voedingen weer langsEen stevige pc met een 8800gt komt Niet boven de 300watt uit. Ter vergelijk : Mijn enermax liberty van 400watt heeft een tijdje zonder problemen met een 2900xt overclocked gedraaid. Dat is zo'n beetje de grootste stroomsluper die er is. De 8800gt en de 3870 gebruiken zo ongeveer de helft.
Absoluut geen probleem voor wat voor voeding dan ook. (mits voorzien van een 6 pin pci-e stekkertje, maar waarschijnlijk zijn 2 molexen ook wel zat).
"The test of a work of art is, in the end, our affection for it, not our ability to explain why it is good." - Stanley Kubrick | Trakt
Ach ik zou er niet al teveel op letten. Je moet natuurlijk genoeg stroomsterkte leveren op de 12V rail, maar face it...niet veel voedingen hebben hoge amperes...de enige die ik ooit gehad heb die 28A had, was de TAGAN 480WATT. Ik heb nu een enermax liberty 500W met 22Ampere. Dit is nog meer dan de meeste voedingen.McLambo schreef op zaterdag 24 november 2007 @ 19:38:
Ik heb een 8800GT in bestelling staan, en ik probeer er achter tekomen of mijn voeding de minimum specs heeft van 26A op de 12V lijnen. Ik kan dit echter nergens vinden (site van Nexus ook niet)
Het gaat om de NX4090 400 W. Mijn vorige kaart (7900GTO) liep probleemloos.
Ik denk dat je je niet zo;n zorgen hoeft te maken. Koop gewoon een degelijk a-merk voeding, zoals Tagan/Enermax/Corsair en geen probleem.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
mijn 8800GT draait hier ook al meer dan een week met een 350watt zonder vastloper of problemen in bijvoorbeeld Crysis of UT3
ik draaide een 6800gs op een 300 watt 10A zonder problemen en voor die had je ook best wat meer nodig dan dat dus het is overdreven die voedings eisen.
Ik heb zelf een OCZ Modstream voeding van 520 Watt met 28A op de 12 volt lijn.
Ik ben echt hartstikke tevreden met dat ding en hij ziet er leuk in mijn PC.
Daarom ben ik dus echt niet van plan om een andere (lees: zwaardere) voeding te gaan kopen voor een gamesysteempje. Ik vind dat het maar moet gaan met 520 Watt, zo niet wacht ik wel weer ff op een die-shrink. (Dus we zullen zien met de volgende generatie kaarten van nVidia want daar ben ik voor aan het sparen samen met de eerste 'Nehalem' processoren van Intel).
Ik ben echt hartstikke tevreden met dat ding en hij ziet er leuk in mijn PC.
Daarom ben ik dus echt niet van plan om een andere (lees: zwaardere) voeding te gaan kopen voor een gamesysteempje. Ik vind dat het maar moet gaan met 520 Watt, zo niet wacht ik wel weer ff op een die-shrink. (Dus we zullen zien met de volgende generatie kaarten van nVidia want daar ben ik voor aan het sparen samen met de eerste 'Nehalem' processoren van Intel).
Inventory | Instagram: @sequenzpounder | http://www.zdaemon.org | ZDaemon! Client/Server port for DOOM!
Ja natuurlijk, die handleidingen had ik ookal gevonden, maar het is echt een berg instelwerk en feitelijk doe je precies hetzelfde als die automatische fanspeedcontroler, alleen dan met maar 3 temperatuurpunten in plaats van het volledige bereik!HaseMike schreef op zaterdag 24 november 2007 @ 07:14:
Je kan met Riva ook fan profielen maken en die dan afhankelijk van de temperatuur laten inschakelen. b.v. :
Redje is mijn nieuwe held, die instelling op 3 zetten did the trick inderdaad!Redje schreef op zaterdag 24 november 2007 @ 18:15:
AutoFanSpeedControl moet je op 3 zetten wil je de waarden kunnen aanpassen
Ik heb de T min op 60 gezet en de fan kicked dat vrij snel in bij het gamen.
Ja, want de rest van jou systeem is precies hetzelfde natuurlijk?tomcatha schreef op zaterdag 24 november 2007 @ 22:13:
ik draaide een 6800gs op een 300 watt 10A zonder problemen en voor die had je ook best wat meer nodig dan dat dus het is overdreven die voedings eisen.

Videokaart is niet het enige wat stroom slurpt, bepaalde CPU's kunnen er ook wat van, als je een CPU hebt die 90 ~ 100 Watt trekt, een videokaart die stressed makkelijk 120W trekt en 4 harde schijven / optische drives van 15W elk zit je een 300W voeding al heel dicht tegen zijn theoretische maximum aan te trekken - een maximum die alleen in pieken gehaald kan worden en ongetwijfeld anders verdeeld over de beschikbare voltages dan waarin het nodig is. Ik ben zelf ook geen fan van het 'hoe meer Watt hoe beter' idee dat sommigen hier lijken te hebben, maar met een degelijke CPU, wat drives en een moderne videokaart is 350W niet overbodig en in sommige gevallen 400 ~ 450 wel aan te raden. Ga je met twee 8800GT's in SLI werken kun je daar nog eens 115~120W bij optellen volgens AnandTech.
Aan de andere kant geldt trouwens evengoed dat iedereen met een 600W of meer voeding gek in z'n hoofd is tenzij ze twee 8800GTX'en en 10 HD's hebben
[ Voor 44% gewijzigd door FragFrog op 24-11-2007 23:13 ]
Verwijderd
Maar je hebt nooit te weinig power/stroom met een 600W en de pc pakt alleen wat hij nodig heeft van de voeding.
NVIDIA moet toch nog maar eens even aan de drivers werken; als ik na een tijdje Crysis spelen het spel afsluit zie ik de volgende melding in de eventlog:
Type: Error
Source: nv
Unknown error on CMDre 00000001 00000080 00000000 00000005 00000006
Het spel werkt verder perfect hoor, maar lijkt me toch niet helemaal lekker, meer mensen hier last van met gebruik van ForceWare 169.02?
Type: Error
Source: nv
Unknown error on CMDre 00000001 00000080 00000000 00000005 00000006
Het spel werkt verder perfect hoor, maar lijkt me toch niet helemaal lekker, meer mensen hier last van met gebruik van ForceWare 169.02?
Vergeet niet dat de Enermax Liberty 2 x 22amp levert, heb hem zelf ook, pracht voeding!Deathchant schreef op zaterdag 24 november 2007 @ 20:03:
[...]
Ach ik zou er niet al teveel op letten. Je moet natuurlijk genoeg stroomsterkte leveren op de 12V rail, maar face it...niet veel voedingen hebben hoge amperes...de enige die ik ooit gehad heb die 28A had, was de TAGAN 480WATT. Ik heb nu een enermax liberty 500W met 22Ampere. Dit is nog meer dan de meeste voedingen.
Ik denk dat je je niet zo;n zorgen hoeft te maken. Koop gewoon een degelijk a-merk voeding, zoals Tagan/Enermax/Corsair en geen probleem.
Was het maar zo. Een voeding presteert meestal optimaal als hij 80 ~ 90% belast wordt; hoe groter het verschil des te lager je rendement. Een 700W voeding gebruiken voor een systeem wat doorgaans 300 ~ 350W nodig heeft zorgt voor een hogere stroomrekening, hogere aanschafkosten, meer warmte in je kast en dientengevolge meer herrie om al die warme lucht er weer uit te blazen.Verwijderd schreef op zaterdag 24 november 2007 @ 23:20:
Maar je hebt nooit te weinig power/stroom met een 600W en de pc pakt alleen wat hij nodig heeft van de voeding.
Een voeding met een veel te grote capaciteit gebruiken is vergelijkbaar met een stoomwals gebruiken om een skateboard te trekken: het kan wel, en je hebt nooit te weinig kracht, maar efficient is het niet
dit is dus niet waar.. leuk fabeltje.. maar ik heb dus een CoolerMaster iGreen 600Watt voeding.. en naarmate er meer van dat ding geeist wordt gaat het rendement omlaag.. en dit is het geval bij elke voeding.. laag vermogen is meer rendementFragFrog schreef op zaterdag 24 november 2007 @ 23:41:
[...]
Was het maar zo. Een voeding presteert meestal optimaal als hij 80 ~ 90% belast wordt; hoe groter het verschil des te lager je rendement. Een 700W voeding gebruiken voor een systeem wat doorgaans 300 ~ 350W nodig heeft zorgt voor een hogere stroomrekening, hogere aanschafkosten, meer warmte in je kast en dientengevolge meer herrie om al die warme lucht er weer uit te blazen.
Een voeding met een veel te grote capaciteit gebruiken is vergelijkbaar met een stoomwals gebruiken om een skateboard te trekken: het kan wel, en je hebt nooit te weinig kracht, maar efficient is het niet
266w belasting
339w belasting
Zoals je ziet gaat het rendement naarmate de belasting omhoog gaat, OMLAAG..
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
De kaart is wel gewoon goed. Dat is het gekke.Deorgere schreef op zaterdag 24 november 2007 @ 19:30:
[...]
Ik heb een 430 watt Antec voeding, en daar werkt het ook perfect mee.
En over dat 1.1 PCI-E, een Asus P5N-E SLI is 1.1 PCI-E en daar gaat het ook prima mee. Denk idd gewoon dat de kaart niet goed is.
In m'n andere systeem speel ik gewoon crysis en cod4 zonder problemen met dezelfde kaart.
De kaart geeft niet eens beeld als ik hem in het ms-7255 moederbord stop.
Ik zou toch op z'n minst het bios in moeten kunnen komen?
Een PC die 300W verbruikt, zal dit verbruiken op zowel een 400W voeding als op een 700W voeding, dat is natuurlijk logisch. Je stroomrekening gaat echt niet omhoog als je je voeding upgrade.FragFrog schreef op zaterdag 24 november 2007 @ 23:41:
[...]
Was het maar zo. Een voeding presteert meestal optimaal als hij 80 ~ 90% belast wordt; hoe groter het verschil des te lager je rendement. Een 700W voeding gebruiken voor een systeem wat doorgaans 300 ~ 350W nodig heeft zorgt voor een hogere stroomrekening, hogere aanschafkosten, meer warmte in je kast en dientengevolge meer herrie om al die warme lucht er weer uit te blazen.
De 700W voeding heeft ook nog eens meer overhead waardoor deze en minder warm wordt en daardoor vaak stiller is.
Verwijderd
Nee, dat is niet zo. Voedingen hebben nooit 100% rendement, daarom is de stroomverbruik dus niet altijd gelijk. De meeste voedingen hebben hun beste performance zo rond de 70%. Dat betekent dat ze het beste presteren als ze voor 70% belast zijn. Als ze dan bijvoorbeeld een rendement van 90% hebben, en het systeem vraagt 300W, dan trekt de voeding 333W uit de stopcontact. Dit zal dan meestal bij een voeding van rond de 400W zijn. Als je dan een voeding van 700W erin stopt, voor dezelfde systeem, en die heeft maar een rendement van 70% bij die lage belasting, dan trekt hij 428W uit de stopcontact, en dat is veel meer.Redje schreef op zondag 25 november 2007 @ 12:10:
[...]
Een PC die 300W verbruikt, zal dit verbruiken op zowel een 400W voeding als op een 700W voeding, dat is natuurlijk logisch. Je stroomrekening gaat echt niet omhoog als je je voeding upgrade.
De 700W voeding heeft ook nog eens meer overhead waardoor deze en minder warm wordt en daardoor vaak stiller is.
Dit alles slaat natuurlijk op voedingen die verschillende rendementen hebben bij verschilende belasting. Sommige voedingen zijn vrij constant, en de betere voedingen hebben een steeds minder stijle grafiek, dus het komt steeds dichterbij. Maar bij een extreme voorbeeld als die van hierboven kan de stroomrekening veel verschillen.
Inderdaad. Er is dan wel Active PFC, maar het rendement van een voeding is daarmee nog zeker niet opgelost. Dat moeten sommige mensen hier dan wel begrijpen.Verwijderd schreef op zondag 25 november 2007 @ 12:33:
[...]
Nee, dat is niet zo. Voedingen hebben nooit 100% rendement, daarom is de stroomverbruik dus niet altijd gelijk. De meeste voedingen hebben hun beste performance zo rond de 70%. Dat betekent dat ze het beste presteren als ze voor 70% belast zijn. Als ze dan bijvoorbeeld een rendement van 90% hebben, en het systeem vraagt 300W, dan trekt de voeding 333W uit de stopcontact. Dit zal dan meestal bij een voeding van rond de 400W zijn. Als je dan een voeding van 700W erin stopt, voor dezelfde systeem, en die heeft maar een rendement van 70% bij die lage belasting, dan trekt hij 428W uit de stopcontact, en dat is veel meer.
Dit alles slaat natuurlijk op voedingen die verschillende rendementen hebben bij verschilende belasting. Sommige voedingen zijn vrij constant, en de betere voedingen hebben een steeds minder stijle grafiek, dus het komt steeds dichterbij. Maar bij een extreme voorbeeld als die van hierboven kan de stroomrekening veel verschillen.
Dat is dan ook de reden dat ik nooit boven mijn huidige voeding uit wil stijgen.
Het rendement is nu nog toelaatbaar.
[ Voor 65% gewijzigd door Da_maniaC op 25-11-2007 13:08 ]
Inventory | Instagram: @sequenzpounder | http://www.zdaemon.org | ZDaemon! Client/Server port for DOOM!
Je hebt ongetwijfeld gelijk.Verwijderd schreef op zondag 25 november 2007 @ 12:33:
[...]
Nee, dat is niet zo. Voedingen hebben nooit 100% rendement, daarom is de stroomverbruik dus niet altijd gelijk. De meeste voedingen hebben hun beste performance zo rond de 70%. Dat betekent dat ze het beste presteren als ze voor 70% belast zijn. Als ze dan bijvoorbeeld een rendement van 90% hebben, en het systeem vraagt 300W, dan trekt de voeding 333W uit de stopcontact. Dit zal dan meestal bij een voeding van rond de 400W zijn. Als je dan een voeding van 700W erin stopt, voor dezelfde systeem, en die heeft maar een rendement van 70% bij die lage belasting, dan trekt hij 428W uit de stopcontact, en dat is veel meer.
Dit alles slaat natuurlijk op voedingen die verschillende rendementen hebben bij verschilende belasting. Sommige voedingen zijn vrij constant, en de betere voedingen hebben een steeds minder stijle grafiek, dus het komt steeds dichterbij. Maar bij een extreme voorbeeld als die van hierboven kan de stroomrekening veel verschillen.
Ik denk alleen niet dat irl de verschillen zo groot zijn bij een goede voeding.
M'n Corsair HX520 doet bijna 80% over het gehele bereik.
Zeg, over 3 weken staat toch de intro van de nieuwe G92 512MB GTS gepland?
Ben ik nou zo ongeduldig of lekken er maar erg weinig (geen enkele dus) previews uit?
Ben ik nou zo ongeduldig of lekken er maar erg weinig (geen enkele dus) previews uit?
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
ik zie ook nog steeds geen officiele reviews van de Gainward GLH met eigen cooling. deze zouden volgens Demon_Eyez ook uit komen rond 7 december...
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Je bedoelt deze toch?Deathchant schreef op zondag 25 november 2007 @ 14:32:
ik zie ook nog steeds geen officiele reviews van de Gainward GLH met eigen cooling. deze zouden volgens Demon_Eyez ook uit komen rond 7 december...

Die koeler heeft wel iets van de Zalman VF1000.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Voor mij is het die gainward of een low end gts. Ik wil iedergeval een goeie koeler en gezien de nieuwe gts zowiezo al een dual slot koeler heeft.
Juist die bedoel ik. Daar staan ook geen reviews van terwijl deze binnenkort uitkomt...vreemd...maar dit is in ieder geval de kaart die ik ga aanschaffen.Illidan schreef op zondag 25 november 2007 @ 14:49:
[...]
Je bedoelt deze toch?
[afbeelding]
Die koeler heeft wel iets van de Zalman VF1000.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Pardon me, maar ik geloof eerder een officieel testraport dan een of andere hardware site die op basis van 2 metingen conclussies gaat trekken. En volgens dat testrapport gaat de efficientie wel degelijk hard onderuit zodra je een voeding ruim onder zijn maximale vermogen belast. Zie ook deze site.Cidious schreef op zondag 25 november 2007 @ 03:20:
dit is dus niet waar.. leuk fabeltje.. maar ik heb dus een CoolerMaster iGreen 600Watt voeding.. en naarmate er meer van dat ding geeist wordt gaat het rendement omlaag.. en dit is het geval bij elke voeding.. laag vermogen is meer rendement
Is er al bekend wanneer de nieuwe "versie" van de 8800gt beschikbaar is? En wat word er precies allemaal aan veranderd? En blijft de prijs hetzelfde?
Zou het ook kunnen dat ik dingen over het hoofd heb gezien bij het installeren van de kaart?Edwinuss schreef op zaterdag 24 november 2007 @ 17:23:
[...]
Hij koste 219 euro en komt bij de MYcom stand vandaan. Vandaag nieuwe voeding gekocht omdat mijn oude gewoon niet goed was.
Ik die kaart erin doen.
Hij doet het niet. Krijg 1 lange piep en 3 korte piepjes..
ik baal als een stekker.
Maar dat gaat ook over een voeding van 1600watt. Het is te betwijfelen of resultaten daarvoor ook schalen naar voedingen van ongeveer 1/3e van het vermogen. Als we tomshardware en andere bronnen mogen geloven:FragFrog schreef op zondag 25 november 2007 @ 15:21:
[...]
Pardon me, maar ik geloof eerder een officieel testraport dan een of andere hardware site die op basis van 2 metingen conclussies gaat trekken. En volgens dat testrapport gaat de efficientie wel degelijk hard onderuit zodra je een voeding ruim onder zijn maximale vermogen belast. Zie ook deze site.
http://www.tomshardware.c...trong_showing/page38.html
Is het zo dat max load gemiddeld minder efficient is dan 50% load. Ik denk dat over het algemeen de vorm van de efficiency curve een soort van "negatieve" parabool is, en naarmate je meer naar een kwaliteitsvoeding gaat wordt dit meer een rechte lijn op het 50% t/m 100% segment. Uitzonderingen daargelaten natuurlijk.
Dus de conclusie is dat bij kwaliteitsvoedingen het niet zo veel uitmaakt of je 50% belast of 100%. Lage belastingen (bv 20%) is meestal wat minder efficient maar ja je verbruikt dan uberhaupt niet veel dus dat is mijns inziens geen probleem.
Verwijderd
Ik heb hier een raar probleem. Ik heb mijn Point of view is overgeklokt naar 700/1750/2000
In atitool gewoon 2 uur lang geen artifact of iets in die richting temps niet boven de 75. Echter zodra ik 3dmark ga draaien hangt het syteem bij de berucht deep freeze test. Net zoals toen bij de 7900 series!!
Klok ik de graka weer terug naar normale snelheden... precies hetzelfde probleem. Hang bij deep freeze. Hij geeft een error over n4v dll ofoziets (weet niet meer precies)
Als ik vervolgens de drivers allemaal deinstalleer en weer opnieuw installeer, komt hij op normale snelheden prima door 3dmarkt06. Zodra ik ook maar 1 mghz overclock doe en weer 3dmark herhaald het bovenstaande probleem zich weer.
De kaart functioneert dus wel goed @ standaard waarden maar met een kleine OC dus 3dmark06 problemen.
Zou dit door brakke drivers komen of ??
In atitool gewoon 2 uur lang geen artifact of iets in die richting temps niet boven de 75. Echter zodra ik 3dmark ga draaien hangt het syteem bij de berucht deep freeze test. Net zoals toen bij de 7900 series!!

Klok ik de graka weer terug naar normale snelheden... precies hetzelfde probleem. Hang bij deep freeze. Hij geeft een error over n4v dll ofoziets (weet niet meer precies)
Als ik vervolgens de drivers allemaal deinstalleer en weer opnieuw installeer, komt hij op normale snelheden prima door 3dmarkt06. Zodra ik ook maar 1 mghz overclock doe en weer 3dmark herhaald het bovenstaande probleem zich weer.
De kaart functioneert dus wel goed @ standaard waarden maar met een kleine OC dus 3dmark06 problemen.
Zou dit door brakke drivers komen of ??
Verwijderd
Dus niet overclocken heren, dan heb je geen fouten, veel hitte, risico op kapot gaan, etc.
Spoken like a true tweakerVerwijderd schreef op zondag 25 november 2007 @ 20:13:
Dus niet overclocken heren, dan heb je geen fouten, veel hitte, risico op kapot gaan, etc.
Ik heb opgezocht wat voor foutmelding ik krijg bij het installen van mijn videokaart.Edwinuss schreef op zondag 25 november 2007 @ 19:05:
[...]
Zou het ook kunnen dat ik dingen over het hoofd heb gezien bij het installeren van de kaart?
en dat is het volgende :
Videofout: defekte RAM-DAC (Digital Analog Converter), is voor de omzetting van de CPU-data in videodata verantwoordelijk; of Monitorherkenningsproces fout of Video-RAM fout, eventueel is de Monitor niet aangesloten resp. de kabel is defect; of fout in de eersten 64KB van het geheugen.
Wat kan ik hier aan doen?
Videofout: (1) defekte RAM-DAC (Digital Analog Converter), is voor de omzetting van de CPU-data in videodata verantwoordelijk; of (2) Monitorherkenningsproces fout of (3) Video-RAM fout, eventueel is de (4)Monitor niet aangesloten resp. ( 5) de kabel is defect; ( 6)of fout in de eersten 64KB van het geheugen.
Daar schiet je niet veel mee op, 6! mogelijk opties.
Daar schiet je niet veel mee op, 6! mogelijk opties.
Wat je hier bijv.ziet klopt ongeveer voor de meeste voeding vanaf +/- 500watt, onder de 100watt gaan ze idd hard onderuit qua efficieny. Dan praat je wel over minder dan 100watt! Moet je wel een heel zuinig systeem neerzetten, buiten dat; als je al zo''n energiezuinig systeem hebt, ga je er natuurlijk niet een 500watt+ psu erin stoppenFragFrog schreef op zondag 25 november 2007 @ 15:21:
[...]
Pardon me, maar ik geloof eerder een officieel testraport dan een of andere hardware site die op basis van 2 metingen conclussies gaat trekken. En volgens dat testrapport gaat de efficientie wel degelijk hard onderuit zodra je een voeding ruim onder zijn maximale vermogen belast. Zie ook deze site.

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Weet iemand wat de "hdtv-out" van dit beestje kan?
Kan je er een hdmi verloopstukje op zetten, en kan hij dan ook geluid meesturen?
Ik kan het nergens vinden, mischien heeft iemand hier er ervaring mee (ivm lcd tv)
Kan je er een hdmi verloopstukje op zetten, en kan hij dan ook geluid meesturen?
Ik kan het nergens vinden, mischien heeft iemand hier er ervaring mee (ivm lcd tv)
Op dit moment heb ik 2x 8600GT in SLI modus in mijn comp zitten.
Nu heb ik geen idee hoeveel toevoeging SLI heeft en dus ook niet of ik met één 8800GT er duidelijk op vooruit ga wat betreft prestaties, of dat dat wel mee valt. Iemand enig idee?
Nu heb ik geen idee hoeveel toevoeging SLI heeft en dus ook niet of ik met één 8800GT er duidelijk op vooruit ga wat betreft prestaties, of dat dat wel mee valt. Iemand enig idee?
Wanneer een potvis in een pispot pist heb je pispot vol met potvispis
Ik heb sinds vrijdag een 8800GT in huis en ik moet zeggen ik dacht dat mijn Pentium M 760 een hele grote bottleneck zou zijn in mijn systeem. Maar ik kan tot nu toe alle spellen zonder problemen spelen op 1680x1050 en alle setting op maximum. Zelfs Crysis loopt goed op 1680x1050 maar moet toegeven dat ik de AA uit heb staan staan en shadows en shaders op medium moest zetten. Een van mijn beste aankopen in een lange tijd.
Ik zou zeggen: schakel de 2e kaart eens een keer uit in het NVIDIA Control Panel en test het verschilDjWannaB2002 schreef op zondag 25 november 2007 @ 22:00:
Op dit moment heb ik 2x 8600GT in SLI modus in mijn comp zitten.
Nu heb ik geen idee hoeveel toevoeging SLI heeft en dus ook niet of ik met één 8800GT er duidelijk op vooruit ga wat betreft prestaties, of dat dat wel mee valt. Iemand enig idee?
To question is to grow.
Verwijderd
Je gaat er zeker op vooruit.DjWannaB2002 schreef op zondag 25 november 2007 @ 22:00:
Op dit moment heb ik 2x 8600GT in SLI modus in mijn comp zitten.
Nu heb ik geen idee hoeveel toevoeging SLI heeft en dus ook niet of ik met één 8800GT er duidelijk op vooruit ga wat betreft prestaties, of dat dat wel mee valt. Iemand enig idee?
Ik heb (of hd tot vandaag) ook 2 8600gt in sli; en in teveel games werkt het gewoon slecht/niet.
Dan verkies ik liever een enkele kaart die sowieso sneller is.
Kan GEEN geluid meesturen.Simball schreef op zondag 25 november 2007 @ 21:33:
Weet iemand wat de "hdtv-out" van dit beestje kan?
Kan je er een hdmi verloopstukje op zetten, en kan hij dan ook geluid meesturen?
Ik kan het nergens vinden, mischien heeft iemand hier er ervaring mee (ivm lcd tv)
Waarom is hij hier toch nergens binnen? Ik ging er normaal morgen achter

Uit de topicstart:
Webshops zetten ook maar de levertijdindicatie op hun site die ze van hun leveranciers doorkrijgen, die vaak ook niet weten wanneer iets nu precies beschikbaar komt.Helaas is de 8800 GT in Nederland op het moment van schrijven nog zeer beperkt verkrijgbaar, misschien hierdoor.
Verwijderd
Ik heb zojuist 3D mark 06 gedraaid met 2 x Asus 8800GT's in SLI, alleen zegt 3Dmark dat er maar 1 kaart inzit.
Ik kom uit op 12903 punten. (standaard snelheden)
Ik kom uit op 12903 punten. (standaard snelheden)
Verwijderd schreef op zondag 25 november 2007 @ 20:01:
Ik heb hier een raar probleem. Ik heb mijn Point of view is overgeklokt naar 700/1750/2000
In atitool gewoon 2 uur lang geen artifact of iets in die richting temps niet boven de 75. Echter zodra ik 3dmark ga draaien hangt het syteem bij de berucht deep freeze test. Net zoals toen bij de 7900 series!!![]()
...
Zou dit door brakke drivers komen of ??
Told you so?Verwijderd schreef op woensdag 21 november 2007 @ 23:48:
Ik blijf erbij dat dat 2000 Mhz verhaal gelul is. Ik heb dan ook een kaart die stock al zo draait op 2000 mhz, lijkt me niet dat ze kaarten gaan verkopen die stock al binnen no time sterven.
Ik weet het, het is in het verleden gebeurd, maar ja een ezel stoot zich niet 2x aan dezelfde steen toch?
Nee ff serieus, ik hoop echt dat het een driver probleem is, wel vaag namelijk dat je het zelfs met 1 MHz extra ook hebt
[ Voor 19% gewijzigd door Demon_Eyez op 26-11-2007 11:27 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Verwijderd
Ja precies, kijk op normale snelheden is er helemaal niets aan de hand. Wat ik ook raar vind is dat na een crash in 3dmark het probleem zich ook blijft voordoen op normale snelheden. En als je de drivers reinstalleert... dat dan het probleem weer verholpen is.
Dat vind ik raar. Mede omdat hij een foutmelding geeft over de display driver vermoedt ik dat het toch een driver issue is.
Dat vind ik raar. Mede omdat hij een foutmelding geeft over de display driver vermoedt ik dat het toch een driver issue is.
Wel in BIOS ingesteld? Wel de bridge gebruikt? SLi enabled in de drivers?Verwijderd schreef op maandag 26 november 2007 @ 01:12:
Ik heb zojuist 3D mark 06 gedraaid met 2 x Asus 8800GT's in SLI, alleen zegt 3Dmark dat er maar 1 kaart inzit.
Ik kom uit op 12903 punten. (standaard snelheden)
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
En wat is de rest van je systeem ?Verwijderd schreef op maandag 26 november 2007 @ 01:12:
Ik heb zojuist 3D mark 06 gedraaid met 2 x Asus 8800GT's in SLI, alleen zegt 3Dmark dat er maar 1 kaart inzit.
Ik kom uit op 12903 punten. (standaard snelheden)
OT: moet SLI echt in de BIOS aangezet worden? Wordt dat niet allemaal via de drivers geregeld?
Verwijderd
@Ludwig:
Intel Core 2 Quad Q6600
4GB Corsair XMS CL4
2 x Samsung Spinpoint T166 in Raid 0
Asus P5N32E-SLI Plus (Nforce 680i chipset)
@Rappie:
Zal ik even in de Bios checken, maar dacht dat ik SLI ready memory aangezet heb.., de bridge zit er tussen en ook in de nvidia driver optie heb ik SLI op enabled staan.
Intel Core 2 Quad Q6600
4GB Corsair XMS CL4
2 x Samsung Spinpoint T166 in Raid 0
Asus P5N32E-SLI Plus (Nforce 680i chipset)
@Rappie:
Zal ik even in de Bios checken, maar dacht dat ik SLI ready memory aangezet heb.., de bridge zit er tussen en ook in de nvidia driver optie heb ik SLI op enabled staan.
[ Voor 40% gewijzigd door Verwijderd op 26-11-2007 13:01 ]
Verwijderd
In de bios sli op auto zetten.Verwijderd schreef op maandag 26 november 2007 @ 12:55:
@Ludwig:
Intel Core 2 Quad Q6600
4GB Corsair XMS CL4
2 x Samsung Spinpoint T166 in Raid 0
Asus P5N32E-SLI Plus (Nforce 680i chipset)
En in het nv contolpannel sli ook aanzetten kijk dan maar eens weer. Je hoord minstens 15000punten te hebben dan
Verwijderd
Ik denk inderdaad dat de optie dus uit staat.
Is het die SLI ready memory optie of een ander?
Is het die SLI ready memory optie of een ander?
Klopt ja in de hogere reso's met AA en AF zakt hij erg in omdat hij dan niet genoeg geheugen bandbreedte heeft. En dan zie je het voordeel van der GTS en GTX kaarten.fast-server schreef op zaterdag 24 november 2007 @ 15:38:
Ik heb dit topic een beetje zitten bekijken en het valt mij erg op dat bepaalde dinge missen.
De argumenten dat de GT sneller of net zo snel is dan de GTX gaan echter niet altijd op.
[afbeelding]
[afbeelding]
Beetje jammer dat bepaalde dingen in dit topic gewoon weggelaten zijn als ze dik in het voordeel van de GTX zijn.
Als je dus graag AA/AF aan hebt staan dan komt de GT uit de bus als een budget kaart t.o.v. de GTX.
Hoe ver clocken deze kaatjes standaard nou ? zijn er ook kaarten die bv niet verder willen dan 700 mhz of gaan de meeste wel verder dan dat ? en qua shader oc ? halen ze daar ook allemaal 1700 ? of is die OC in de topic start een van de beter met 735-1050-1700.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Die andere. Die kan op disable en op auto en hij moet op autoVerwijderd schreef op maandag 26 november 2007 @ 13:02:
Ik denk inderdaad dat de optie dus uit staat.
Is het die SLI ready memory optie of een ander?
Nu dan voor de LAATSTE KEER:ETzPliskin schreef op zondag 25 november 2007 @ 23:37:
Waarom is hij hier toch nergens binnen? Ik ging er normaal morgen achter
Hij is schaars, zeer schaars, dat weten we.
Maar ondanks dat ik ook effe heb gehoopt dat er snel meerdere modellen verkrijgbaar zouden zijn, is de prima Sparkle bij $shops al vanaf het eerste uur al verkrijgbaar.
Daar heb ik m vorige week besteld, en kon m na 3 werkdagen ofzo afhalen.
En in Duitsland bij verschillende online shops, en misschien bij Alternate, dus er is al keuze.
Maar nog niet veel.
EN NU GEEN GEZEIK MEER DAT IE SLECHT LEVERBAAR IS!
offtopic:
Hmmm, ook maar effe reclame maken voor wat andere shops, anders krijg ik daar straks boze telefoontjes van
Zercom, 4Launch, Cool-Prices, Alternate, Informatique, Dixons, Cristine Le Duc,...
Hmmm, ook maar effe reclame maken voor wat andere shops, anders krijg ik daar straks boze telefoontjes van
[ Voor 24% gewijzigd door ByteDelight op 26-11-2007 15:30 ]
Retro Computer hardware: http://bytedelight.com
Net mijn club3D 8800GT opgehaald. Ja jullie horen het goed hij zal nu dus minder schaars worden, dus geen offtopic gedoe meer
ff kijken of die wel in mijn centurion past
heb wel een mooie lian op het oog maja.
Zo fftjes score's posten
ff kijken of die wel in mijn centurion past
Zo fftjes score's posten
Verwijderd
We wachten af
misschien ook meteen ff een kleine overclock ?
en een fototje is ook altijd leuk
Komt eraan zodra die werkt... Zodra ik de 8800GT erin stop boot me PC niet meer
Bios al gereset, maar blijft aan en uit gaan zonder beeld. Iemand enig idee wat dit kan zijn? Ik ga nu ff rivatuner en nvidia drivers uninstallen, maar ik denk dat het weinig nut gaat hebben. Als dat niet werkt nog even in een andere pc proberen.. pff
Edit: Nouja zeg dat werkte dus wel. nog nooit zoiets meegemaakt
ff drivers installen etc dan komen de foto's van de naar mijn mening mooist uitziende 8800GT

Edit: Nouja zeg dat werkte dus wel. nog nooit zoiets meegemaakt
[ Voor 20% gewijzigd door KappeNou op 26-11-2007 17:40 ]
Verwijderd
Eerst oude drivers uninstalleren. erna opnieuw opstarten als goed is kom je dan wel in windows. Erna zou ik direct de nieuwe beta installeren want die werkt gewoon goed.
Als je niet in windows wil komen gewoon veilige modes proberen en dan alsnog de oude drivers verwijderen
Als je niet in windows wil komen gewoon veilige modes proberen en dan alsnog de oude drivers verwijderen
Even snel 3Dmark06 testje gedraaid E6600 @ stock 2.4Ghz en geheugen @ CL4 667Mhz.
Club3D 8800GT @ stock
SM2.0 score = 4876
HDR/SM3.0 score = 4979
CPU score = had ik nog geen zin in
----------------------------------------------------------------------------------------------------------------------------------
EDIT: E6600 @ 2,88Ghz, Geheugen @ 800Mhz
SM2.0 score = 5334
HDR/SM3.0 score = 5122
CPU score = 2571
Score = 11316 >klik screenie<
Hier wat snelle gerisizede telefoon foto's. Als de thermalright erop komt maak ik wel wat mooiere aan tafel.




beetje te kleine kast voor zo'n 8800. Binnenkort maar zo'n diepe Lian aanschaffen
Club3D 8800GT @ stock
SM2.0 score = 4876
HDR/SM3.0 score = 4979
CPU score = had ik nog geen zin in
----------------------------------------------------------------------------------------------------------------------------------
EDIT: E6600 @ 2,88Ghz, Geheugen @ 800Mhz
SM2.0 score = 5334
HDR/SM3.0 score = 5122
CPU score = 2571
Score = 11316 >klik screenie<
Hier wat snelle gerisizede telefoon foto's. Als de thermalright erop komt maak ik wel wat mooiere aan tafel.




beetje te kleine kast voor zo'n 8800. Binnenkort maar zo'n diepe Lian aanschaffen
[ Voor 29% gewijzigd door KappeNou op 26-11-2007 18:35 ]
Ik vind het een beetje vaag dat alle scores omhoog gaan terwijl je alleen je cpu en ram hebt overclocked. Ik had altijd gehoopt dat 3Dmark2006 een beetje een non-cpu limited beeld zou geven, met de SM2.0 en SM3.0 scores. Valt me tegenKappeNou schreef op maandag 26 november 2007 @ 18:09:
SM2.0 score = 4876
HDR/SM3.0 score = 4979
CPU score = had ik nog geen zin in
----------------------------------------------------------------------------------------------------------------------------------
E6600 @ 2,88Ghz, Geheugen @ 800Mhz
SM2.0 score = 5334
HDR/SM3.0 score = 5122
CPU score = 2571

Ochja, weer een goede pijler op GFX gebied dat wegvalt. Feature voor 3dmark2007?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
klopt. Maarja de spellen die nu uitkomen hebben ook zulke engine's, dus ze zullen wel weten waar ze over praten. 3Dmark05 was idd een stuk beter om alleen je graka te testen.XanderDrake schreef op maandag 26 november 2007 @ 18:57:
[...]
Ik vind het een beetje vaag dat alle scores omhoog gaan terwijl je alleen je cpu en ram hebt overclocked. Ik had altijd gehoopt dat 3Dmark2006 een beetje een non-cpu limited beeld zou geven, met de SM2.0 en SM3.0 scores. Valt me tegen![]()
Ochja, weer een goede pijler op GFX gebied dat wegvalt. Feature voor 3dmark2007?
Ik ga nog een klein beetje testen.
Tijdje terug xander @ 6800GS topic
Ach toch lekker handig zo'n kleine kast, zo'n log ding is ook niet alles.KappeNou schreef op maandag 26 november 2007 @ 18:09:
Even snel 3Dmark06 testje gedraaid E6600 @ stock 2.4Ghz en geheugen @ CL4 667Mhz.
Club3D 8800GT @ stock
SM2.0 score = 4876
HDR/SM3.0 score = 4979
CPU score = had ik nog geen zin in
----------------------------------------------------------------------------------------------------------------------------------
EDIT: E6600 @ 2,88Ghz, Geheugen @ 800Mhz
SM2.0 score = 5334
HDR/SM3.0 score = 5122
CPU score = 2571
Score = 11316 >klik screenie<
beetje te kleine kast voor zo'n 8800. Binnenkort maar zo'n diepe Lian aanschaffen
Het is wat passen en meten maarja
Ik haal een score van 11864 met een 8800GT @ stock en Q6600 @ 2.4Ghz en geheugen op 667Mhz CAS5. Ik had wel meer punten verwacht met jouw naar 2.88Ghz overklokte processor en 800MHz geheugen...
/edit, zal vast de quadcore zijn:
3DMark Score 11864 3DMarks
SM 2.0 Score 4934 Marks
SM 3.0 Score 4985 Marks
CPU Score 3813 Marks
[ Voor 5% gewijzigd door Redje op 26-11-2007 19:10 ]
Idd want mijn SM scores zijn raar genoeg hoger.Redje schreef op maandag 26 november 2007 @ 19:04:
[...]
/edit, zal vast de quadcore zijn:
3DMark Score 11864 3DMarks
SM 2.0 Score 4934 Marks
SM 3.0 Score 4985 Marks
CPU Score 3813 Marks
Dit topic is gesloten.