[Algemeen] nVidia Nieuws & Discussie Topic - Deel 35 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 35.332 views

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Jongens, kom op zeg. Dit heeft niet met enige vorm van Nieuws en Discussie te maken |:(

Cuda tips up at National Taiwan University.
Being a Cuda centre of excellence is apparently no small undertaking, with NTU having to adopt Nvidia GPUs across all its research facilities as well as adding a class to its curriculum teaching parallel computing based on the Cuda architecture.

The university is also working with a number of Nvidia Tesla GPUs, including Tesla S1070 1U systems, desktop workstations containing multiple Tesla C1060 GPUs and Tesla personal supercomputers.

These will purportedly be used by students and university boffins studying astronomy, quantum science, financial option modeling, information security, molecular dynamics and medical device research.
http://www.theinquirer.ne...ational-taiwan-university

Acties:
  • 0 Henk 'm!

  • CDRK
  • Registratie: September 2008
  • Laatst online: 28-03 08:57
Mijn excuses daarvoor. Het ging in eerste instantie ook over de g84 en de g86 series die volgens velen niet goed waren en toch verkocht werden terwijl Nvidea hier van afwist. Er zijn alleen op verschillende fora, voornamelijk laptopvideo2go al zoveel threads gemaakt over deze twee series met problemen waarbij niemand er uitkomt.. :s

En ik heb het zelfde probleem. Als iemand meer informatie hierover weet of kan vinden, (of mij zou willen helpen) zou ik dat dan ook erg op prijs stellen. Ik heb al een laptop cooler aangeschaft Zalman 2000, en het is ff wachten daarop, maar ik gebruik sinds gisteren een vierkante stoeptegel (lol) welke een tijdje buiten heeft gelegen en aardig koud is als passieve koeler....lawl

[ Voor 36% gewijzigd door CDRK op 25-01-2009 23:20 ]

Stay Frosty!


Acties:
  • 0 Henk 'm!

Anoniem: 120284

Een stoeptegel heef niet zo'n hoge warmtecapaciteit, dus redelijk waardeloos als koeler.

Acties:
  • 0 Henk 'm!

Anoniem: 153419

Anoniem: 120284 schreef op maandag 26 januari 2009 @ 03:05:
Een stoeptegel heef niet zo'n hoge warmtecapaciteit, dus redelijk waardeloos als koeler.
Een stoeptegel slaat de warmte op indien de laptop er lang opstaat. ;)

Acties:
  • 0 Henk 'm!

  • Grozno
  • Registratie: Februari 2006
  • Laatst online: 00:38

Grozno

acts without consequence!

Misschien is het handiger om even een apart topic te starten voor probleem ;)
Je post hier namelijk je probleem, terwijl dat volgens de warning niet de bedoeling is.

[ Voor 56% gewijzigd door Grozno op 26-01-2009 10:35 ]

Advocatus ineptias | Free Speech Online


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 09-05 19:02
Even gejat uit de ATI topics:
http://www.xtremesystems.org/forums/showthread.php?t=215521

Soft voltmod voor de HD48xx en GT200 dus. Hier wordt die Accelero GTX280 cooler ook weer interessanter door als die verkrijgbaar wordt. Nu is voltmodding niet echt een optie voor de GTX280 aangezien zelfs met de fan op 100% hij nog maar net onder de 80 C blijft (en de VRMs onder ong. 90C..). Ik merk dat de GTX280 niet zo van hoge temperaturen houdt aangezien spellen zoals Farcry2 wel es crashen als de temp te hoog wordt, maar met die koeler zou een voltmod wel interessant zijn.

anathema


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55

Acties:
  • 0 Henk 'm!

Anoniem: 120284

Anoniem: 153419 schreef op maandag 26 januari 2009 @ 03:42:
[...]


Een stoeptegel slaat de warmte op indien de laptop er lang opstaat. ;)
Maar zeer weinig. Warmtecapaciteit = hoeveelheid energie die je nodig hebt om bepaalde hoeveelheid van iets een graad warmer te krijgen. Een stoeptegel van 5 Kg een graad warmer stoken kost veel minder energie dan 5 Liter water een graad warmer stoken.

Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 08-05 01:56
anathema schreef op maandag 26 januari 2009 @ 11:48:
Even gejat uit de ATI topics:
http://www.xtremesystems.org/forums/showthread.php?t=215521

Soft voltmod voor de HD48xx en GT200 dus. Hier wordt die Accelero GTX280 cooler ook weer interessanter door als die verkrijgbaar wordt. Nu is voltmodding niet echt een optie voor de GTX280 aangezien zelfs met de fan op 100% hij nog maar net onder de 80 C blijft (en de VRMs onder ong. 90C..). Ik merk dat de GTX280 niet zo van hoge temperaturen houdt aangezien spellen zoals Farcry2 wel es crashen als de temp te hoog wordt, maar met die koeler zou een voltmod wel interessant zijn.
Enige voorwaarde is dat je een kaart hebt waarop een digitale voltage regulator zit zoals de Volterra VT1103/VT1105/VT1165
Zit die niet op je kaart dan gaat het ook niet werken.
Die Volterra zit bijvoorbeeld alleen op de reference HD4870's die een digitaal VRM-circuit hebben. Dus HD4850's vallen zoiezo buiten de boot.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • boaty
  • Registratie: November 2005
  • Laatst online: 21:34
Dit nieuws vind ik wel erg jammer. Het was juist zo'n mooie ontwikkeling waarmee je toch weer wat energie kon besparen.

Desktop: Ryzen 5 5600X | HyperX Fury RGB 32 GB @ 3200MT/s| Gigabyte GTX 3070 Eagle OC | Kingston A2000 1TB | Gigabyte B550 Elite V2 | Gigabyte G27Q 2560x1440 144hz


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Ga er maar vanuit dat Nvidia op Cebit een grote verrassing heeft voor het midrange segment (9600 / 9800). >:)

Acties:
  • 0 Henk 'm!

  • Quacka
  • Registratie: Oktober 2004
  • Laatst online: 03-09-2020
Mag ik heel even namens iemand anders een vraag stellen?

Die persoon heeft 1,5 jaar geleden een XFX 8800 GTX gekocht (vermoedelijk de standaard versie), welke pas geleden kapot is gegaan.
XFX erkent dit, maar kan de kaart niet repareren of naleveren.

Nu bieden ze een 9800 GT XXX aan als vervanging:

pricewatch: XFX GeForce 9800 GT 512MB DDR3 XXX

Is dit nu een qua prestatie vergelijkbare kaart?
De normale 9800GT blijft achter op de 8800GTX, maar hoe zit dit met de overklokte xxx versie.

Is dit nu een eerlijke deal, ook gezien de rechten die wij wettelijk als consument hebben?
In 1e instantie vind ik namelijk dat wij als consumenten er niets aan kunnen doen dat de kaart kapot gaan: Moeten wij dan genoegen nemen met een kaart die slechter presteert?

edit: laat maar, ik heb een nieuw draadje aangemaakt voor deze vraag.

[ Voor 4% gewijzigd door Quacka op 28-01-2009 22:39 ]

Hulp wordt niet gewaardeerd. Zoek het dus zelf uit


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Misschien even Googlen? ;)
9800GT is een rebranded 8800GT btw. en aangezien er wat meer info is over de 8800GT vs 8800GTX heb ik dat maar gedaan. ;)

[ Voor 27% gewijzigd door -The_Mask- op 28-01-2009 21:58 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Quacka
  • Registratie: Oktober 2004
  • Laatst online: 03-09-2020
-The_Mask- schreef op woensdag 28 januari 2009 @ 21:55:
Misschien even Googlen? ;)
9800GT is een rebranded 8800GT btw. en aangezien er wat meer info is over de 8800GT vs 8800GTX heb ik dat maar gedaan. ;)
Ik zeg toch dat ik weet dat de 9800GT slechter is als een 8800GTX.
Maar hoe zit het bij de overklokte 9800GT
En hoe zit het qua garantie.
Ik zei al tegen hem: niet accepteren.
(en ik heb al heel veel zitten googelen: anders stel ik de vraag niet)

edit:
Laat maar: ik heb nu al een nieuw draadje aangemaakt...

[ Voor 9% gewijzigd door Quacka op 28-01-2009 22:39 ]

Hulp wordt niet gewaardeerd. Zoek het dus zelf uit


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
(en ik heb al heel veel zitten googelen: anders stel ik de vraag niet)
Als je echt goed gegoogled hebt had je de vraag niet gesteld want het is nogal game afhankelijk. In sommige games is de 9800GT zelfs sneller.
Dus niks over te zeggen.
Je kunt natuurlijk altijd proberen snellere kaart te krijgen als dat niet lukt heb je gewoon pech. ;)

Daarnaast is dit een nieuws & discussie topic. :z

[ Voor 28% gewijzigd door -The_Mask- op 28-01-2009 22:12 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SmokeyTheBandit
  • Registratie: November 2000
  • Laatst online: 25-03 15:40

SmokeyTheBandit

DOCer met Pensioen

Dit MOET werken op andere merken, evga gebruikt gewoon zoals iedereen reference kaarten.
De enige manier waarop ze het enigzins kunnen inperken is het standaard bios id aka fabrikant (NVIDIA) veranderen in EVGA.
Dit is zo op te lossen door een bios edit (Nibitor etc.).

Ik heb zelf een Point Of View GTX 295 en deze heeft ook een standaard bios id van NVIDIA zelf.
De fabrikanten hebben simpelweg geen tijd om ze te herflashen daardoor kan niemand de producten bemachtigen en kopen (geen optie natuurlijk ;) ), ze krijgen ze van nvidia als oem binnen en plakken ze vol met "hun" stickers en doen ze in de doos.

Ben nooit in een fabriek geweest hoor ;) maar dit is volgens mij hoe het werkt in de eerste weken na een nieuwe release :)

Turn it off and on again.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
SmokeyTheBandit schreef op donderdag 29 januari 2009 @ 09:03:
[...]


Ben nooit in een fabriek geweest hoor ;) maar dit is volgens mij hoe het werkt in de eerste weken na een nieuwe release :)
volgens mij niet...ze krijgen denk ik al nooit een 100% werkende pcb..... daar moet nog heel wat mee gebeuren wil het werken.. en een biosflash is misschien maar heel weinig werk vergeleken met de rest ?

volgens mij krijgen ze gewoon een nagenoeg ''kaal'' pcb met alleen de gpu al op gemonteerd, en misschien wat weerstanden oid.. misschien dat de bios-chip zelfs pas dan gemonteerd word ?

weet iemand hier meer van ?

[ Voor 10% gewijzigd door Mr. Detonator op 29-01-2009 12:20 ]


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mr. Detonator schreef op donderdag 29 januari 2009 @ 12:18:
[...]


volgens mij niet...ze krijgen denk ik al nooit een 100% werkende pcb..... daar moet nog heel wat mee gebeuren wil het werken.. en een biosflash is misschien maar heel weinig werk vergeleken met de rest ?

volgens mij krijgen ze gewoon een nagenoeg ''kaal'' pcb met alleen de gpu al op gemonteerd, en misschien wat weerstanden oid.. misschien dat de bios-chip zelfs pas dan gemonteerd word ?

weet iemand hier meer van ?
Ik dacht dat nVidia gewoon de GPU aanleverde? "Hier heb je een core/die/package en zie maar wat je ermee doet". Daarom hebben die vendors toch verschillende kleuren PCB's / andere VRM's / kortere of langere kaarten (bijvoorbeeld sommige van die superkorte 4850 kaarten) / verschillende geheugen merken en plaatsing van de chips / verschillende condensatoren (zowel qua waarde als kwaliteit) / dacs / etc :? .

[ Voor 3% gewijzigd door Cassius op 29-01-2009 14:22 ]

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • n00bs
  • Registratie: Augustus 2002
  • Laatst online: 18:58

n00bs

Het is weer Zomer!

Ik ben op dit moment voor iemand een systeem aan het samenstelling en zie dat de POV 9800GT 1GB voor een relatief leuke prijs te krijgen is, echter valt mij ook op dat de cooling er anders uitziet dan bij andere merken; Heeft iemand ervaring met deze POV, qua geluid, stabiliteit en warmte?

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 22:44

Cheezus

Luiaard

Cassius schreef op donderdag 29 januari 2009 @ 14:22:
[...]


Ik dacht dat nVidia gewoon de GPU aanleverde? "Hier heb je een core/die/package en zie maar wat je ermee doet". Daarom hebben die vendors toch verschillende kleuren PCB's / andere VRM's / kortere of langere kaarten (bijvoorbeeld sommige van die superkorte 4850 kaarten) / verschillende geheugen merken en plaatsing van de chips / verschillende condensatoren (zowel qua waarde als kwaliteit) / dacs / etc :? .
Naast een GPU kunnen zo ook een design kopen, dus gewoon de PCB layout en een componenten lijst. Dit kunnen ze dan in principe door alle PCB-bouwers laten maken.
Je kunt ook zelf een PCB ontwerp gaan maken die bijvoorbeeld efficienter is (goedkoper en/of stabieler) maar dit kost natuurlijk wel tijd dus deze ontwerpen (die korte 4850's bijvoorbeeld) komen altijd later dan de originele release.

Volgens mij gaat het iig zo :P

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Zijn 3 verschillende type

Finished card:
Dit is een complete kaart die NV aan haar partners levert. Deze kaart wordt compleet gemaakt door een fabrikant die zich voornamelijk op OEM richt (Foxconn / Flextronics). Wordt enkel gedaan bij nieuwe en complexe producten, zoals 12 layer PCB's of als NV de prijs onder controle wil houden. De kaart is volgens het reference design gemaakt en compleet wil zeggen met GPU, PCB, Memory, Cooling -> dus een compleet werkende kaart. De NV partners doen er een game bundel bij, een sticker op en een verpakking omheen. Eventueel wordt er een andere BIOS opgezet om een OC versie te maken. Dit is niet altijd toegestaan, zo mag een GTX295 OC aircooling niet op de markt gezet worden. EVGA heeft nu wat problemen met NV want deze hebben ze wel gepromoot. Watercooled OC van de GTX295 mag wel.

Finished card wordt veel gedaan om elke partner in het begin dezelfde kansen te geven. Anders zijn grote jongens eerder klaar met hun ontwerp en hebben ze misschien een paar maanden voorsprong.

Reference design:
Van deze kaart wordt vaak ten onrecht gezegd dat ze allemaal hetzeflde zijn, echter is dit niet waar. Reference design is gewoon de blauwdruk hoe je een PCB moet ontwerpen maar componenten erop kunnen wel eens van kwaliteit verschillen. NV maakt het reference design met een van haar grote partner (Asus, MSI, Palit) maakt. Nadat de eerste batches van Finished kaarten uitgeleverd zijn en er genoeg losse GPU's geproduceerd zijn dan mogen de partners meestal hun eigen kaarten ontwerpen en dan stopt NV met het leveren van hun eigen finished card. Dus dat wil zeggen dat sommige fabrikanten eerst snel een kaart volgende reference design gaan leveren om zo het gat op te vullen tot hun eigen PCB design klaar is.

Bij het reference design kan de koeler anders zijn maar een fabrikant kan nog steeds gebruik maken van de reference cooler. De reference cooler is de standaard cooler en die blinkt meestal niet uit. Dit omdat de kosten laag gehouden moeten worden en de koeling net toereikend moet zijn om de kaart te koelen. Dus een PCB volgens het reference design gemaakt met een reference koeler is meestal het goedkoopste, maar als je een kaart volgens het reference design hebt met een custom cooler dan wordt deze beter gekoeld en is deze meestal ook beter over te klokken. Sommige fabrikanten nemen zelfs niet eens de moeite om een eigen koeling te ontwikkelen.

Eigen PCB design
Na een tijdje heeft een fabrikant zijn eigen PCB design klaar. Dit is meestal goedkoper om te maken en daarnaast ook sneller. Er is genoeg tijd om de PCB te optimaliseren. Hierbij kan dan ook sneller geheugen gebruikt worden of kan het PWM helemaal geredesigned zijn. Deze kaarten komen nagenoeg altijd met een eigen cooler.

Hoop dat het iets duidelijjker is.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

The Source schreef op woensdag 28 januari 2009 @ 20:59:
Ga er maar vanuit dat Nvidia op Cebit een grote verrassing heeft voor het midrange segment (9600 / 9800). >:)
Tipjes en sluiers? >:)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
De specs liggen all over the web. ;)

GT216 enzo.

[ Voor 7% gewijzigd door CJ op 01-02-2009 15:15 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ik meende me berichten te herinneren dat die gecanned bleek te zijn. Was even in de war met de GT212 ;)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
GT212 is niet afgevoerd. Er was sprake van dat GT214 afgevoerd zou zijn en vervangen zou worden door GT215. Alle GPUs bevinden zich echter nog in de drivers.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Ziet er naar uit dat de grote verrassing in de midrange een renaming is van de oude serie.

Fudzilla meldt het volgende:

9800GTX+ wordt GTS250 (was eerst 8800GTS OC)
9800GT wordt GTS240 (was eerst 8800GT)

Maar de drivers van een tijd terug lieten het volgende zien:

9800GTX+ wordt GTS150
9600GT wordt GT130

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Als het 40nm GPU's zijn zullen ze nog wel een clockspeedboost meekrijgen, en een lager prijskaartje.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Reken er maar niet op. TSMC heeft problemen met 40nm.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Daarom duurt het zo lang met de RV790 en GT212 dus.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Nee. GT212 en RV790 liggen niet in dezelfde lijn. GT212 ligt toch wel ietsje verder weg. ;)

[ Voor 91% gewijzigd door CJ op 05-02-2009 13:44 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Ja, maar dat lag ie oorspronkelijk niet toch?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ze moeten ophouden met dit renamen gedoe vind ik. Dit deden ze ook niet met de generaties voor de 8xxx series en het was toen duidelijk genoeg.

Acties:
  • 0 Henk 'm!

Anoniem: 120284

Marketing he....

Zo lang er genoeg mensen zijn die dom genoeg zijn om er in te trappen hebben ze een financiële motivatie om het te blijven doen.

Want zeg nou zelf: die 9800GTX+ klinkt natuurlijk veel sneller dan 8800GTX :+

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Nee, die + hebben ze expres klein gehouden, zodat het de verkoop van de non plus niet zou hinderen. Konden ze wel zeggen dat in de reviews hun 9800GTX+ de HD4850 bij hield. :+

* Anoniem: 134818 voelt zich nu net een conspiracy thoerist ;)

Imho was de 8800GTX een van de beste investeringen in GPU land sinds lange tijden :P. Eigenlijk had Nvidia alles al veel makkelijker kunnen maken door de 8800GT nooit 8800GT te noemen, maar direct 9800GT en de 8800GTS had dan ook gewoon 9800GTS kunnen heten. Dat had een ronde rebranding gescheeld.

[ Voor 39% gewijzigd door Anoniem: 134818 op 05-02-2009 23:00 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Ik vind de naamgeving juist duidelijker straks:

GTX295
GTX285
GTX280
GTX260
GTS250
GT225
GT210

Duidelijk toch? 8)

Hoe hoger hoe beter, dus zelfs het personeel van een computerboer zoals Dynabyte of Vobis kan ze straks nog uit elkaar houden. :+ Voor ons (enthousiasts O-) ) is het nog makkelijker; alles vermijden waar geen X inzit. :P

[ Voor 49% gewijzigd door Format-C op 05-02-2009 23:03 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Wel beter. Ik zit alleen zelf altijd met het nutteloos gebruik van letters die niets zeggen. Het word een probleem wanneer ze een GTS 260 gaan uit brengen. Dan heb je lekker duidelijkheid. Ik vind ook jammer dat ze de GTX 295 niet anders hebben genoemd GTX2 295. Beetje om de duidelijkheid dat het een SLI kaart is.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
penetreerbeer schreef op vrijdag 06 februari 2009 @ 10:17:
Vergeet niet de kracht van de domme klant.
Als er een argeloze, domme klant in de winkel staat en die kijkt naar de specificaties. Dan denken de meesten dat hoger beter en sneller is. 1024MB vs 512MB is geen moeilijke keuze. Maar er staat dan een klant in de winkel en die kijkt naar de grafische kaart (als die al weet wat het is) en ziet staan (HD) 4870 en een 9800(GT). Ze kijken gewoon naar de nummertjes en denken hoger is beter, dus nemen ze het grootste getal.
(Tis misschien wat overdreven, maar het werkt wel zo) (zie maar bij voedingen bijvoorbeeld, de kenners weten dat je niet enkel naar het wattage moet kijken, maar naar de amperages) (zie maar cpu's mensen denken, misschien is dat effect al wat afgezwakt nu, dat meer GHz meer power betekend en meer cache hetzelfde verhaal, terwijl er meerdere factoren gelden)

Rebranding zorgt voor hetzelfde effect. Een groter getal duidt op een nieuwe generatie en de consument denk dat die dan beter is. Hoeveel mensen weten er dat een 9800GT eigenlijk krak hetzelfde was als een 8800GT? Het is Nvidia wel gelukt. Ik was er in het begin ook ingelopen, ik dacht ook dat een 9800GT beter was dan een 8800GT, alhoewel ik elke dag het nieuws van tweakers lees.

Dat neemt natuurlijk niet weg dat rebranding gewoon fout is, en zeker als er echt helemaal niets veranderd aan de core of de specificaties
Het is niet zo dat de 9800GT's juist dezelfde kaarten (zouden moeten) zijn. De 9800's hebben een paar extra features MAAR deze zijn niet bij alle 9800GT's aanwezig :(
Dit komt omdat nVidia idd gewoon toegelaten heeft 8800GT's te rebranden, mensen die dus zoeken achter een 9800GT kaart voor in hybrid sli (power) te draaien moeten dus heel goed opletten :X

De mogelijkheid om uw zware grafische kaart uit te schakelen wanneer hij niet nodig is en enkel op je igp te steunen bij 2d werk is in mijn ogen super en een goede reden om voor een 9800GT te gaan ipv een andere kaart (ook speciaal een moederbord hiervoor uitgezocht). Dit is zeker intressant voor de casual gamers die wel enorm veel op hun pc werken maar die maar af en toe eens een spelletje willen spelen.
Het feit dat nVidia op hun site reclame maakt dat elke 9800GT kaart dit support (met de gebruikelijke disclaimer dat grafische kaarten kunnen afwijken van het referentiemodel wat dus bij elke kaart erbij staat) is heel smerig. Ikzelf zal vandaag waarschijnlijk nog een bestelling moeten veranderen (hopelijk komt dit in orde ..) doordat ik plots gemerkt heb dat er een grote kans was dat de bestelde grafische kaart toch geen hybrid sli support.
Dit komt nog eens bij het feit dat het heel hoop lastiger is een hybrid sli moederbord te vinden die voldoet (je keuze wordt plots heel beperkt door de nVidia chipset die nodig is)

Dit maakt het voor de klant, dus zelf de geïnformeerde, enorm verwarrend en lastig. Ik wil niet zeggen dat ik van alles op de hoogte ben maar ik volg het nVidia nieuws en reviews toch echt wel meer dan de gemiddelde klant.
Het is nog maar eens het bewijs hoe fout rebranding wel niet is.. en zelfs bij de rebranding meerdere soorten kaarten(want daar komt het toch op neer) dezelfde naam te geven.

In ieder geval heb ik de TS aangepast met een 9800GT review die me erop wees dat niet alle 9800GT's hetzelfde zijn met een waarschuwing erbij voor eventuele andere geintresseerde kopers. (dit is inmiddels al de 11de TS edit in dit topic deel >:)

Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 134818 schreef op donderdag 05 februari 2009 @ 22:55:
Nee, die + hebben ze expres klein gehouden, zodat het de verkoop van de non plus niet zou hinderen. Konden ze wel zeggen dat in de reviews hun 9800GTX+ de HD4850 bij hield. :+

* Anoniem: 134818 voelt zich nu net een conspiracy thoerist ;)

Imho was de 8800GTX een van de beste investeringen in GPU land sinds lange tijden :P. Eigenlijk had Nvidia alles al veel makkelijker kunnen maken door de 8800GT nooit 8800GT te noemen, maar direct 9800GT en de 8800GTS had dan ook gewoon 9800GTS kunnen heten. Dat had een ronde rebranding gescheeld.
De 8800GT had nooit gereleased mogen worden als het aan nVidia lag, tenminste niet als 8800GT. Dit kaartje lag ook helemaal niet zo op de planning. Maar AMD gooide roet in het eten door 2 maanden eerder te komen met de RV670 die ook nog eens een volledige shrink van een R600 was en niet 'slechts' 3/4 van een R600 zou zijn zoals nV dacht. G94 was nog niet klaar dus moest nV een noodgreep uitvoeren, eentje waar veel fabrikanten later wel blij mee zouden zijn omdat de 8800GT hen veel geld opleverde. Maar nV was er allerminst blij mee omdat ze een grote GPU gelijk al vanaf het begin kreupel moesten maken om het op te nemen tegen een veel kleinere AMD GPU.

Als alles was gegaan zoals nV het had gepland dan was de 8800GT dus nooit zo vroeg uitgebracht in die vorm. Dan was de G94 gewoon netjes als GF8700GT(S) op de markt gebracht (de logo's waren zelfs al klaar!) en kwam de rest van de G9x serie later als GF9x00 op de markt. Of het dan een minder zooitje was wat betreft naamgeving... wie weet... nV heeft al een tijd geleden vrij duidelijk gemaakt dat de G92 GPU het zo'n 2 jaar zou moeten volhouden. Dan ontkom je volgens mij haast niet aan rebranding en onduidelijkheden, zeker niet als je elk half jaar iets nieuws op de markt wil zetten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 09-05 16:55
Ik heb nu 2 x 8800GT in SLI, leuk, maar ik wil graag terug naar 1 single kaart (minder herrie, geen last van dat je drivers apart moet instellen en nHancer moet gebruiken, etc), nou leek mij de GTX260 wel wat.
Ik kan echter nergens een review vinden van 8800GT in SLI vs een GTX260.

Ik lees dat er van de 260 ook een nieuwe core is, hoe kan ik zien of een bepaalde videokaart die nieuwe core is?

Ook lees ik dat je een 8800GT ook puur als PhysX kaart kunt gebruiken.
Kan ik ook de 2 8800GT's die ik nu heb, gewoon één als PhysX kaart gebruiken, maar niet alletwee in SLI laten draaien?
Sommige games willen maar niet fatsoenlijk werken met SLI, ook niet met nHancer.
Ik wil daar eigenlijk een beetje vanaf, vandaar de vraag.

Ik heb/had een 3dmark score van 16.000 ongeveer, met een single kaart is dit 11.500, best een verschil, maar niet echt merkbaar in games.

Ik lees dat een GTX260 ongeveer 13.000 haalt, zoveel meer is dat niet, heeft het dan wel zin om een GTX260 te kopen?

/edit
nieuws: Nvidia komt met goedkoper pcb-ontwerp voor de GTX260

Worden ze nog goedkoper...

Ik zie dat een MSI GTX280 ook "maar" 300 kost, dat is veel geld, maar is dat het prijsverschil waard?

[ Voor 54% gewijzigd door eX0duS op 08-02-2009 10:12 ]


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
Ik heb 9600gt in sli, dit is ongeveer even snel als een gtx 260 over het algemeen, als ik mij niet vergis.
Een gtx280 is sneller over het algemeen.
Volgens mij is 8800gt in sli 10-20% sneller dan 9600gt in sli, toch?
Ik denk dat je dan nog beter een iets snellere kaart kunt kopen, maar een gtx260 is nooit een miskoop.

Acties:
  • 0 Henk 'm!

  • Jurek
  • Registratie: Oktober 2008
  • Laatst online: 30-08-2023
eX0duS schreef op zondag 08 februari 2009 @ 10:04:
Ik heb nu 2 x 8800GT in SLI, leuk, maar ik wil graag terug naar 1 single kaart (minder herrie, geen last van dat je drivers apart moet instellen en nHancer moet gebruiken, etc), nou leek mij de GTX260 wel wat.
Ik kan echter nergens een review vinden van 8800GT in SLI vs een GTX260.
Ik heb ook geen reviews gezien van twee 8800 GT in SLI vs een GTX260, maar volgens mij zijn twee 8800 GT in SLI ongeveer even snel als een 9800 GX2. Ik weet zeker dat er wel reviews zijn van een 9800 GX2 vs een GTX260.

Zoals deze:
http://www.tomshardware.c...idia-gtx-280,1953-14.html

Zoals je daar kunt zien komt de 9800 GX2 dichter in de buurt bij een GTX 280 (in een aantal benchmarks verslaat ie de 280 zelfs).

Q6600 3.4 Ghz (8*425) @ 1.37v (load) - OCZ Platinum DDR2 @ 1020 Mhz (5:6) @ 2.2v - DFI LP P45-T2RS Plus - TRUE Black CPU Cooler - Nvidia Geforce 9800 GX2 - 600Watt PSU - Antec 900


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Klopt, en als je GT's goede overklokkers zijn dan verslaan ze gewoon een GTX280. Die van mij draaiden op 710/1916, (EVGA SC's) en daar kan geen 280GTX tegenop, bedoel het is wel marginaal sneller maar wel sneller.
Bedenk ook dat de GX2 standaard op 600mhz GPU loopt en het de 280GTX al moeilijk maakt... :o
Dus een 260GTX is al helemaal geen mach voor twee GT's in sli en dus weggegooid geld, IMHO.
Wil je maar één kaart en goede prestaties dan heb je twee opties: een GTX295 of eventueel een fabrieks overklokte GTX 285.
Mijn mening... ;)

[ Voor 5% gewijzigd door hosee op 08-02-2009 15:55 ]

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

Anoniem: 134818

hosee schreef op zondag 08 februari 2009 @ 15:52:
Wil je maar één kaart en goede prestaties dan heb je twee opties: een GTX295 of eventueel een fabrieks overklokte GTX 285.
Mijn mening... ;)
Nee, hij wil niet 'een kaart'. Hij wil geen multi-GPU. Dus de GTX 295 wil hij ook niet.

Mag ik iedereen, inclusief mijzelf nog ff wijzen op de dikke letters onder het topic? ;)

[ Voor 11% gewijzigd door Anoniem: 134818 op 08-02-2009 16:05 ]


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Ja je hebt gelijk, nog maar eens een keer offtopic....maar ja, voorlopig niet zoveel nieuws meer.. :>

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • dr_dreey
  • Registratie: Augustus 2002
  • Laatst online: 22:38
Nou ja, geen nieuws.
Ik kreeg net 'n mail van EVGA over een GPU voltage tool voor bepaalde 260, 280, en 295 kaarten.

http://www.evga.com/articles/00462/

Helaas heb ik zelf 2 8800gtx'n is sli en kan 't dus niet gebruiken maar voor degene die zo'n kaart hebben en de kaart geregistreerd hebben is 't interessant natuurlijk.
Op 't forum van EVGA lees ik al berichten dat de coreclock er 60 tot 80Mhz verder mee overclockt kan worden met redelijke core temps.

Verder lijkt me dat deze tool ook wel kan werken voor andere merken met dezelfde GPU en misschien ook oudere kaarten...

Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Volt-tool werkt perfect met mijn EVGA 295 gtx..Max. GPU OC: +124mhz. Zal later wel blijken of deze tool ook zal werken op ander merken.
Weet wel dat de Precision tool van EVGA wel werkt met andere merken kaarten van Nvidia.

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Klopt. De XFX 9600GT is inmiddels ook voorzien van de laatste Precision Tool van EVGA. Werkt prima.

Acties:
  • 0 Henk 'm!

  • Q_7
  • Registratie: December 2006
  • Niet online

Q_7

Doe ik net men GTX280 weg komt deze tool uit |:( .

Op mijn HD4870 werkt hij niet :) .

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
Jejking schreef op zondag 08 februari 2009 @ 23:43:
Klopt. De XFX 9600GT is inmiddels ook voorzien van de laatste Precision Tool van EVGA. Werkt prima.
Ik heb 2maal 9600gt in sli, kan ik deze tool dan gewoon installeren om te oc'en?
Lijkt me wel makkelijk aangezien ze nu niet boven de 50graden uitkomen.

Acties:
  • 0 Henk 'm!

  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 09-05 16:55
Ik heb een MSI GTX260 OC edition gekocht.
Een eerste 3dmark06 run viel (zoals ik eigenlijk verwachte) tegen; nml. nog geen 14.000 punten.
Moet er wel bij zeggen dat ik Windows niet opnieuw heb geinstalleerd, iets wat ik nu aan het doen ben. ;)
Ik heb eerder gehad dat een kaart niet fatsoenlijk wilde draaien, totdat ik Windows opnieuw installeerde, vandaar dat ik dat nu meteen doe.

De 8800GT in SLI zal vast sneller zijn, maar ik ben nu wel van dat gedoe af dat je steeds met nHancer vanalles in moet stellen, zo gebruiksvriendelijk is dat SLI nog steeds niet, sommige spellen hebben er geen baat bij, andere die presteren gewoon slechter, dan met een single kaart.

Er zit trouwens FarCry 2 bij, ik vraag me af hoe oud deze kaart is, volgens mij is het wel het oude type met 192 shaders (staat op de doos).

[ Voor 20% gewijzigd door eX0duS op 09-02-2009 19:25 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

eX0duS schreef op maandag 09 februari 2009 @ 19:19:

De 8800GT in SLI zal vast sneller zijn, maar ik ben nu wel van dat gedoe af dat je steeds met nHancer vanalles in moet stellen, zo gebruiksvriendelijk is dat SLI nog steeds niet, sommige spellen hebben er geen baat bij, andere die presteren gewoon slechter, dan met een single kaart.
Ik weet niet wat jij fout doet, maar je hoeft alles per game maar 1x in te stellen. De profielen kan je vervolgens opslaan. Sterker nog; iets instellen hoeft helemáál niet eigenlijk.

nHancer heb je niet nodig. Zonder nHancer werkt SLi ook goed. Als je nergens aanzit, staat het goed. De SLi profielen in de drivers doen het werk voor je. "nVidia recommended" werkt goed. Als je maar zorgt dat je de laatste drivers hebt, dan zit je zo'n beetje altijd goed.

En dat jij zegt dat sommige spellen er geen baat bij hebben vind ik vreemd, ik gebruik nu een paar jaar SLi, en in elke game schaalt het zo'n beetje. Zelfs games waar nog niet eens profielen voor zijn kan je draaiende krijgen, dus eerlijk gezegd begrijp ik de kritiek die je op SLi hebt niet helemaal.

Ik ben eigenlijk nog maar 1 of 2 games tegengekomen waarin SLi niet werkt. In alle courante games werkt het perfect, en verdubbelt het (nagenoeg) je framerate.

[ Voor 14% gewijzigd door Format-C op 09-02-2009 19:36 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 09-05 16:55
Kleine opsomming:
Crysis -> Iets meer framerate, maar echt vloeiend krijg je het toch niet
Brothers in Arms HH - Met SLI hapert het spel
GTA IV - Loopt single ook goed

Het verschil zie je alleen in 3dmark, de patsfactor is hoger. Daarbij komt dat twee van die kaarten best luidruchtig zijn (kun je wel instellen, maar bij het opstarten van het systeem stijgt er een vliegtuig op).

Daarbij heb ik een redelijke prijs kunnen krijgen voor de SLI setup, heb dan nog iets bij moeten leggen voor de GTX260... Ik ben tevreden op zich.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

HL2/ ep1, ep2, CSS, Portal
Splinter Cell games
Assassins Creed
STALKER
Call of Duty 2, 4, 5
Mirrors Edge
Far Cry
Far Cry 2
BF2
Jericho
AOE3
Bioshock
Burnout Paradise
DMC4
FEAR + addons
FEAR 2
Lost Planet
NBA 2K9
Overlord
Prince of Persia
Pure
GRID
TombRaider Legend
Tomb Raider Underworld
Fallout 3
Dead Space
HitMan Bloodmoney
MoH Airborne

En ik vergeet er vast nog een paar...


Allemaal games waarin SLi heel goed schaalt. :P Ik vind het geweldig! _/-\o_
Daar gaat het uiteindelijk toch om. :)

[ Voor 25% gewijzigd door Format-C op 09-02-2009 20:06 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

eX0duS schreef op maandag 09 februari 2009 @ 19:36:
Kleine opsomming:
Crysis -> Iets meer framerate, maar echt vloeiend krijg je het toch niet
Brothers in Arms HH - Met SLI hapert het spel
GTA IV - Loopt single ook goed

Het verschil zie je alleen in 3dmark, de patsfactor is hoger. Daarbij komt dat twee van die kaarten best luidruchtig zijn (kun je wel instellen, maar bij het opstarten van het systeem stijgt er een vliegtuig op).

Daarbij heb ik een redelijke prijs kunnen krijgen voor de SLI setup, heb dan nog iets bij moeten leggen voor de GTX260... Ik ben tevreden op zich.
Ik kan het me op zich voorstellen dat je liever 1 single card hebt dan SLI. Bovendien in jouw situatie is het mss idd zo dat 2*8800gt niet echt beter is dan een 260.

Nu ben ik zelf van een 280GTX OC naar 280GTX OC SLI gegaan en ik kan je verzekeren dat dat in crysis echt veel scheelt. Van min of meer onspeelbaar op 1680*1050 @2AA en alles Enthusiast naar goed speelbaar op dezelfde settings. Me= :*)

Ik weet alleen nog niet hoelang ik SLI houdt want het is idd:
- Luidruchtig
- Zuipt stroom als een debiel. Ik zag mijn stroommeter tijdens crysis naar de 680watt schieten.
- Kaarten worden zeer heet dus heb er maar 2*120mm fans opgelegd.
- Duur

Afbeeldingslocatie: http://tweakers.net/ext/f/RE4c8owukzbrXBTwMdn503eE/thumb.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/4McaTV2tuHPOLHmb1qRShn8Z/thumb.jpg

[ Voor 19% gewijzigd door Help!!!! op 09-02-2009 21:12 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 09-05 16:55
Tjah, een 280GTX, daar zeg je ook wat. ;) Dat is ook wel de snelste kaart verkrijgbaar, ik mag hopen dat Crysis een goede framerate heeft!
Maar dat zal inderdaad schelen ja, zo'n 280 in SLI, maar om nou bijna 1000 euro daar aan uit te geven, gaat me wat ver.

De behuizing van die 260 is trouwens wel net een kachel. :P

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

eX0duS schreef op maandag 09 februari 2009 @ 21:10:
Tjah, een 280GTX, daar zeg je ook wat. ;) Dat is ook wel de snelste kaart verkrijgbaar, ik mag hopen dat Crysis een goede framerate heeft!
Maar dat zal inderdaad schelen ja, zo'n 280 in SLI, maar om nou bijna 1000 euro daar aan uit te geven, gaat me wat ver.

De behuizing van die 260 is trouwens wel net een kachel. :P
Nu ja, ik bedoelde alleen maar te zeggen dat SLI op zich wel goed kan werken maar dat het ook afhankelijk is van welke kaarten je hebt op welk moment van hun levensloop.

En duur is het zeker (als minpunt toegevoegd :p ) maar gelukkig lang geen 1000.....

De de 260 en 280schelen op zich niet zoveel dus ik wil wel geloven dat die 260 onder full load ook zeer heet wordt. :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 09-05 19:02
Help!!!! schreef op maandag 09 februari 2009 @ 20:52:
[...]

Ik kan het me op zich voorstellen dat je liever 1 single card hebt dan SLI. Bovendien in jouw situatie is het mss idd zo dat 2*8800gt niet echt beter is dan een 260.

Nu ben ik zelf van een 280GTX OC naar 280GTX OC SLI gegaan en ik kan je verzekeren dat dat in crysis echt veel scheelt. Van min of meer onspeelbaar op 1680*1050 @2AA en alles Enthusiast naar goed speelbaar op dezelfde settings. Me= :*)

Ik weet alleen nog niet hoelang ik SLI houdt want het is idd:
- Luidruchtig
- Zuipt stroom als een debiel. Ik zag mijn stroommeter tijdens crysis naar de 680watt schieten.
- Kaarten worden zeer heet dus heb er maar 2*120mm fans opgelegd.
- Duur

[afbeelding]

[afbeelding]
Crisis, zit jij zo achter je pc met die kaarten open en bloot :) Ik heb zelf ook die MSI GTX280-OC en onder load maakt dat ding een lawaai wat dwars door mn kast heen gaat dus ik kan me voor stellen dat je m wel hoort ;) Zit dus ook te wachten op die Accelero GTX280 koeler, lijkt me die paar tientjes wel waard. Kan misschien de shader clock ook wat harder want ik vind dat "shader overclock ready" wat op de doos staat wel wat overdreven met de overclock van 1400 naar 1460 Mhz die ik slechts gehaald heb..

anathema


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

anathema schreef op maandag 09 februari 2009 @ 22:45:
[...]

Crisis, zit jij zo achter je pc met die kaarten open en bloot :) Ik heb zelf ook die MSI GTX280-OC en onder load maakt dat ding een lawaai wat dwars door mn kast heen gaat dus ik kan me voor stellen dat je m wel hoort ;) Zit dus ook te wachten op die Accelero GTX280 koeler, lijkt me die paar tientjes wel waard. Kan misschien de shader clock ook wat harder want ik vind dat "shader overclock ready" wat op de doos staat wel wat overdreven met de overclock van 1400 naar 1460 Mhz die ik slechts gehaald heb..
Haha ja echt stil is t niet maar t is te doen, ben het gewend.... :)

En onder load heb je toch je ingame geluid dat is gelukkig harder dan de fans.... :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dr_dreey
  • Registratie: Augustus 2002
  • Laatst online: 22:38
Ik zeg, stoere setup!
Is eens wat anders dan 't standaard kastje met sidewindow en lampske.

Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
RappieRappie schreef op maandag 09 februari 2009 @ 19:32:
[...]
Ik weet niet wat jij fout doet, maar je hoeft alles per game maar 1x in te stellen. De profielen kan je vervolgens opslaan. Sterker nog; iets instellen hoeft helemáál niet eigenlijk.

nHancer heb je niet nodig. Zonder nHancer werkt SLi ook goed. Als je nergens aanzit, staat het goed. De SLi profielen in de drivers doen het werk voor je. "nVidia recommended" werkt goed. Als je maar zorgt dat je de laatste drivers hebt, dan zit je zo'n beetje altijd goed.

En dat jij zegt dat sommige spellen er geen baat bij hebben vind ik vreemd, ik gebruik nu een paar jaar SLi, en in elke game schaalt het zo'n beetje. Zelfs games waar nog niet eens profielen voor zijn kan je draaiende krijgen, dus eerlijk gezegd begrijp ik de kritiek die je op SLi hebt niet helemaal.

Ik ben eigenlijk nog maar 1 of 2 games tegengekomen waarin SLi niet werkt. In alle courante games werkt het perfect, en verdubbelt het (nagenoeg) je framerate.
Inderdaad.... ;)
En btw, twee 8800GT's in sli vegen de vloer aan met een 260GTX, zelfs een OC versie....
Oeps, weer offtopic.. :o

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 09-05 16:55
Kun je ergens ook zien wat de productiedatum is (in mijn geval dus van mijn GTX260)?
Dit omdat er Far Cry 2 bij zit, toch een vrij nieuw spel (en Vegas 2).

Ik heb overigens een nieuwe 3dmark06 score, welke hetzelfde is al de vorige keer, net geen 14.000, niet geweldig, die SLI setup had 16.000, maar zoals ik al zei ben ik zo tevreden, heb nu een moderne kaart, kan met dit ook zowat alle spelen op max spelen.

[ Voor 45% gewijzigd door eX0duS op 10-02-2009 10:01 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ik heb ooit helemaal aan het begin van de waanzin een xfx 8800GTX gekauft voor mijn dell 30".. Hij gaat nog prima mee, maar ik vraag me af, wat voor soort huidige kaarten zitten op dezelfde performance als mijn kaart?

[ Voor 4% gewijzigd door maratropa op 10-02-2009 13:06 ]

specs


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
9800gtx+/4850?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Nieuwe beta drivers:

Vista 64 bit:
http://www.nvidia.com/object/winvista_x64_182.05_beta.html

XP:
http://www.nvidia.com/object/winxp_182.05_beta.html

Vista 32 bit pakt de nV site niet.
This is a WHQL-candidate driver for GeForce 6, 7, 8, 9, and 200-series desktop GPUs.

New in Release 182.05:

* Recommended for the best experience in F.E.A.R. 2: Project Origin.
* Boosts performance in several 3D applications. The following are examples of improvements measured with Release 182.05 WHQL drivers vs. Release 181.22 WHQL drivers (results will vary depending on your GPU, system configuration, and game settings):
o Up to 8% performance increase in Fallout 3 at high resolution and AA.
o Up to 10% performance increase in F.E.A.R. 2: Project Origin
o Up to 9% performance increase in Half-Life 2 at high resolution with AA.
o Up to 11% performance increase in Left 4 Dead at high resolution with AA.
o Up to 10% performance increase in Race Driver: GRID at high resolution and AA.

* Includes full support for OpenGL 3.0 on GeForce 8-series, 9-series, and 200-series GPUs.
* Automatically installs the new PhysX System Software version 9.09.0203.
* Additional information on specific bug fixes can be found in the release documentation notes.
* Users without US English operating systems can select their language and download the International driver here.

Existing Support:

* Supports single GPU and NVIDIA SLI technology* on DirectX 9 and OpenGL including SLI support on SLI-certified Intel X58-based motherboards.
* Supports NVIDIA PhysX acceleration on a dedicated GeForce graphics card. Use one card for graphics and dedicate a different card for PhysX processing for game-changing physical effects. Learn more here. Note: GPU PhysX is supported on all GeForce 8-series, 9-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory.
* Supports GeForce Plus Power Pack #2. Download these free PhysX and CUDA applications now!
* Supports CUDA.
* Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.

*Note: The following SLI features are only supported on Windows Vista: Quad SLI technology using GeForce 9800 GX2 or GeForce GTX 295, 3-way SLI technology, Hybrid SLI, and SLI multi-monitor support.
Wel lekker.

Zo'n 10% performance gain. :D

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 120284

Ja, in die paar games ja. Geen van allen games die ik speel. :)

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Er staat ook bij:
The following are examples of improvements measured with Release 182.05 WHQL drivers vs. Release 181.22 WHQL drivers
;)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

At high res. doet me wel vermoeden dat dit nog boven 19x12 is.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Nog belangrijker nieuws (als video-fanaat-kijker) is de nieuwe hardware-matige support door middel van CUDA die de nieuwste release van CoreAvc (1.9.0.0) heeft en die zou moeten volledig operationeel zijn met deze 182 driver.
Uit de upgedate TS:

Sinds CoreAVC versie 1.9.0.0 is er nu ook cuda support ingebouwd!
Dit houdt in deze goede software encoder eigenlijk ook hardwarematig het decoderen zal uitvoeren op een GeForce 8,9 en GT200 kaart hiervoor heeft uw wel een 182.xx of recentere driver nodig die dit gebruik van cuda ondersteunt.
Bij sommige mensen zorgt dit voor een cpu usage van bijna 0% bij HD materiaal _/-\o_
Ik ben altijd al een fan geweest van dit software pakket. In mijn ogen is hierdoor het (duurdere) pureVideo software pakket totaal waardeloos geworden. Het zal waarschijnlijk niet lang duren voordat ati/amd ook zal helpen om coreAVC gebruik te laten van hun hardware maar atm is dit toch een serieus voordeel voor nVidia. :+

• Eén kantekening is wel dat deze functianaliteit pas gebruikt kan worden bij cuda-supporting GPU's maw de GeForce 8 reeks en hoger, deze kaarten bevinden zich naar alle waarschijnlijkheid in desktopsettings die meer dan genoeg kracht hadden om HD materiaal volledig via de cpu af te handelen zonder haperen. Juist voor mensen met een zwakkere setup is hardware matige acceleratie goed meegenomen maar deze vissen naast het net met de cuda support, hierdoor blijft pureVideo voor een steeds beperkende groep gebruikers nog steeds een goede keuze.

• Een tweede kantekening is het feit dat ik users zie reporten dat je al een zware grafische kaart moet hebben om deze cuda acceleratie volledig te kunnen benutten, mensen met een 8200 igp bijvoorbeeld zijn hier totaal niet mee geholpen (stotterend beeld). Blijkbaar is het momenteel nog een "alles of niets" implementatie ivm met gebruik van cuda en zijn de lichtere grafische kaarten te licht ivm met cuda processing power om HD materiaal volledig te kunnen tonen
Hopelijk kan dit euvel opgelost worden in een volgende release van coreAVC waarbij je de CUDA hardware aan max 100% zijn werk laat doen en het tekort aan processing power op laat vangen door de cpu die dan toch al een stuk minder werk zal moeten verrichten dan volledige software acceleratie

Specs


  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 31-03 21:55
Gebruik anders gewoon Windows media player classic home cinema. Decodeerd hardwarematig op de GPU. En ondersteund Nvidia 8-series, 9-series en GTX2xx series, alsook ATI HD 2xxx, HD 3xxx en HD 4xxx.

zie link voor uitleg over installatie

Vind het trouwens raar dat er hier nog niets voorbijgekomen is over de kwartaalresultaten van Nvidia. Wordt dit gewoon genegeerd ofzo? Nvidia heeft 60% minder omzet gehaald dit semester ivm vorig jaar!
Nvidia swings to $147.7M Q4 loss

Nvidia Corp. on Tuesday reported a fourth quarter loss of $147.7 million, or 27 cents a share, compared to net income in the same period last year of $257 million, or 42 cents a share.

Santa Clara-based Nvidia had $481.1 million, down 60 percent from the $1.2 billion for the fourth quarter of the prior year.

Excluding items the loss would have been $94.4 million, or 18 cents a share.

Analysts expected, on average, a loss of 12 cents a share on $587 million revenue.

"The environment is clearly difficult and uncertain. Our first priority is to set an operating expense level that balances cash conservation while allowing us to continue to invest in initiatives that are of great importance to the market and in which we believe we have industry leadership. We have initiatives in all areas to reduce operating expenses," said CEO Jen-Hsun Huang.

Source

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
penetreerbeer schreef op donderdag 12 februari 2009 @ 09:35:
Gebruik anders gewoon Windows media player classic home cinema. Decodeerd hardwarematig op de GPU. En ondersteund Nvidia 8-series, 9-series en GTX2xx series, alsook ATI HD 2xxx, HD 3xxx en HD 4xxx.

zie link voor uitleg over installatie
Mijn ervaring was tot nu toe dat de community die atm idd Windows media player classic home cinema (deze player zit nu ook in het CCCP codec pack inbegrepen) gebruikt maar met als preferred filter voor x.264 bestanden coreAVC prefereerde boven de hardwarematige GPU decodatie support. Dit is in mijn geval natuurlijk enkel qua x.264 bestanden en het kan eigenlijk wel goed zijn dat deze hardware support de laatste maanden veel verbeterd is.
Vandaar dat ik deze coreAVC versie toch belangrijk nVidia nieuws vond.
Het zou eigenlijk handig zijn moest iemand met een 8800/9600GT kaart eens willen benchmarken.
• MPCHC met standaard libavcodec
• MPCHC met software matige coreAVC
• MPCHC met hardware matige coreAVC
• MPCHC met standaard hardware matige gpu acceleratie

• MPCHC met standaard hardware matige gpu acceleratie met behulp van een even goede ATI kaart.

Indien mogelijk zal ik deze test zelf kunnen uitvoeren over een paar weken, maar ikzelf kijk vooral anime wat natuurlijk anders is dan bv een x.264 geëncodeerde film of video bestanden geëncodeerd met behulp van de properietaire h.264 codec.

Voor een echte blu-ray movie ofzo zal de standaard hardware ondersteuning naar alle waarschijnlijkheid wel beter zijn.
Ik zal dus zeker uw keuze in de TS opnemen daar hij voor veel mensen eigenlijk wel de beste oplossing kan zijn en je hiervoor dus geen extra software moet installeren/kopen.
(spijtig genoeg heb ik de indruk dat het maximum aantal bytes per post strikter is geworden waardoor ik ermee zal wachten tot de volgende TS waar ik een aantal andere dingen uit zal gooien of in een 3de post zal moeten plaatsen, ik heb gisteren al enorm veel miserie gehad ivm met de links naar de reviews niet te laten verdwijnen na een edit)

On-topic:
Ik had tot nu toe nog niets gelezen van deze financiele cijfers, maar ze zien er totaal niet goed uit. Dit was wel een beetje te verwachten doordat de nieuwe kaarten van nVidia in productie toch meer kosten dan de ATI/AMD concurerende kaarten en ze dankzij die concurrentie deze kaarten snel voor veel minder dan gepland was moesten verkopen... maar toch ik had een verminderde winst/klein verlies verwacht.
Ik denk niet dat nVidia dit heel snel zal kunnen keren, zoals het er nu naar uitziet gaan ze gewoon een stuk Geforce 9 reeks kaarten rebranden.. en loopt het 40nm proces ook nog niet zoals gehoopt (buiten dan dat de productiekosten mogelijk zouden afnemen)
Het verklaart wel voor een groot stuk de reden waarom men wil besparen op onder andere de dvi-connectoren, alle kleine beetjes zullen nu moeten helpen om het verlies te minimaliseren.

Buiten het deze financiele cijfers denk ik dat het terugvallen van market share nVidia evenveel of nog meer pijn zal doen, zeker indien ATI/AMD hun drivers helemaal in orde krijgen.
Dit kan mss enkel en alleen al gebeuren doordat de negatieve connotatie die deze drivers soms nog wel hebben simpelweg zal verminderen door meer en meer positieve ervaringen van mensen die nu overstappen naar een (hun eerste?) ATI/AMD kaart?
Een groter market share voor ATI/AMD zal er sowieso voor zorgen dat game-developers meer aandacht zullen gaan besteden dat hun game wel goed zal draaien op een AT/AMD grafische kaart.

Happy customers die goede ervaringen opdoen met bang for bucks kaarten van je concurrent zullen stukken moeilijker kopers zijn dan trouwe klanten die gewoon simpel weg bij vervanging van hun grafische kaart enkel kijken naar de beste nVidia kaart in hun budget.

Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Bull schreef op zondag 15 februari 2009 @ 19:06:
Ik speel op dit moment games als Fallout 3, Far Cry 2, F.E.A.R. 2: Project Origin, Red Alert 3 en S.T.A.L.K.E.R. - Clear Sky
De GTX280 (en zeker de OC versie) is gemiddeld in de meeste games gewoonweg sneller dan de HD4870 1GB. Vergeet niet dat de HD4870 1GB de 'natural competitor' was van de GTX 260 Core 216.

In de spellen die jij noemt zijn er echter een aantal opmerkingen bij te plaatsen. Fall Out ligt de Radeon architectuur enorm goed. Daarom weet de HD4870 het met de meest recente drivers en inclusief high texture pack het vaak te winnen van de GTX280.

Far Cry 2 is het terrein van de GTX280. De HD4870 is hier vergelijkbaar met de GTX260 Core 216. Houdt er echter wel rekening mee dat de meeste tests gebruik maken van Catalyst 8.12 en dat met de aankomende multi-core drivers zoals hier te zien is er een boost van zo'n 30% is tov 8.12 met AA/AF op de resolutie waar jij op speelt.

F.E.A.R. 2 is de thuisbasis van de GTX280. De HD4870 is hier vergelijkbaar met de GTX2160 Core 216.

Red Alert 3 levert een flink voordeel op voor de Radeon. De GTX serie van nVidia heeft moeite om op ultra settings en met AA aan, de fps-cap van 30 fps te halen. Daarnaast ligt de minimum fps een stuk hoger bij de Radeons.

Voor S.T.A.L.K.E.R. Clear Sky is het moeilijk om goed vergelijkbare benchmarks te vinden tussen de GTX280 en de HD4870... simpelweg omdat ze beide nooit hetzelfde renderingpath zullen gebruiken. Clear Sky is een DirectX 10.1 game en dus valt de GTX280 automatisch terug op het DX10 path, terwijl de HD4870 dus op het DX10.1 path werkt. In de game levert dat realistere beelden op bij de Radeon. Denk aan mooiere schaduwen en correcte AA op struiken, bomen, hekwerk etc. Houdt daar dus rekening mee als je een GTX280 sneller uit de bus ziet komen... de HD4870 verricht meer werk en heeft een betere IQ dan die GTX280.

Dus afhankelijk van de games die jij speelt, het bedrag dat jij wilt besteden en waar jij belang aan hecht (bv features als DX10.1 of niet), moet je toch echt zelf je keuze gaan maken. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bull
  • Registratie: December 2000
  • Laatst online: 19:55
Dank je CJ, ik ben door jou nu overstag en kies voor de Sapphire 4870 Toxic 1GB. De kaart ziet er ook nog eens bruter uit dan de 280 GTX. 8)

Ik ben met Fallout 3 nog wel een paar 100 uur bezig en de andere games schalen ook prima met de 4870 en driver 9.2 komt ook bijna en mss zit daar nog wel wat optimalisaties voor F.E.A.R. 2 in verwerkt al is 60 min en 72 avg prima te doen al zal het bij mij wel ietsje lager zijn door men wat oudere systeem.

https://tweakers.net/gallery/18583/inventaris/


Acties:
  • 0 Henk 'm!

Anoniem: 126513

http://www.anandtech.com/video/

2 leuke artikelen, eentje over high performance gfx cards, van HD4870 tot aan 285GTX SLi.
En eentjeover DX11 (nog niet gelezen).

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 18:55

DeNachtwacht

youtube.com/@hisrep

Ik heb zojuist een Sparkle 9800GT Passive besteld.

Ik vroeg mij eigenlijk af of dit soort silent kaarten een beetje te overklokken zijn. Is er duidelijke prestatiewinst te behalen of is dat gezien de passieve koeling simpelweg niet aan te raden?

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
Don't mess with Kyle !

http://www.hardocp.com/ne...sLCxoZW50aHVzaWFzdCwsLDE=

Weer typische praktijken die door zowel Intel,AMD als Nvidia worden toegepast.

Acties:
  • 0 Henk 'm!

Anoniem: 26986

ff een vraag wat ik zo nu niet 1 2 3 kan vinden.

Kan ik een Geforce 8 combineren met een Geforce 9 in een SLI opstelling?

Zodat de Geforce 8 gebruikt wordt als Ageia Physics?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

The Source schreef op vrijdag 20 februari 2009 @ 21:05:
Don't mess with Kyle !

http://www.hardocp.com/ne...sLCxoZW50aHVzaWFzdCwsLDE=

Weer typische praktijken die door zowel Intel,AMD als Nvidia worden toegepast.
En groot gelijk dat HardOCP opstaat. Normaalgesproken heb ik niet zoveel met hun reviewmethoden, maar dit gaat ondertussen echt helemaal nergens meer over (hier heb ik het over uitsluiting van HardOCP als reviewsite van de ''nieuwe'' GTS250-reeks). Gerechtigheid dat nVidia financieel op z'n kloten krijgt voor de 3e rebrandronde, ik kan niet anders zeggen.
Anoniem: 26986 schreef op zaterdag 21 februari 2009 @ 16:52:
ff een vraag wat ik zo nu niet 1 2 3 kan vinden.

Kan ik een Geforce 8 combineren met een Geforce 9 in een SLI opstelling?

Zodat de Geforce 8 gebruikt wordt als Ageia Physics?
Dat kan volgens mij wel. Ik weet niet precies hoe, daar zou je even naar moeten zoeken. Overigens schijnt een 9600GT de beste value te bieden wat betreft physicscalculation.

[ Voor 26% gewijzigd door Jejking op 21-02-2009 17:09 ]


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik heb nog niet echt een test gezien die alle kaarten pakt, dus ben ik het op dit moment, kijkend naar specs en prijs niet eens met dat de 9600GT de beste is :P. Imho is de 8800GS/9600GSO beter. Als je kijkt naar folding @ home. Die doet het beter op de GSO dankzij 96 SPU's vs 64. Is ook nog goedkoper!

Maar PhysX kan idd ook gewoon op een 8 serie kaart met daarbij een 9 serie voor beeldjes.

[ Voor 16% gewijzigd door Anoniem: 134818 op 21-02-2009 17:20 ]


Acties:
  • 0 Henk 'm!

  • OCTiMod
  • Registratie: Juli 2005
  • Laatst online: 10-05 08:56
Voor Call of Duty gamers is deze driver geen aanrader, diversen fora's melden crashes in CoD2 en framedrops in CoD4...

178.24 en 181.22 zijn tot nu toe de betere drivers voor Call of Duty

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 15:58

SG

SG surft naar info hardewaren

Anoniem: 134818 schreef op zaterdag 21 februari 2009 @ 17:16:
Ik heb nog niet echt een test gezien die alle kaarten pakt, dus ben ik het op dit moment, kijkend naar specs en prijs niet eens met dat de 9600GT de beste is :P. Imho is de 8800GS/9600GSO beter. Als je kijkt naar folding @ home. Die doet het beter op de GSO dankzij 96 SPU's vs 64. Is ook nog goedkoper!

Maar PhysX kan idd ook gewoon op een 8 serie kaart met daarbij een 9 serie voor beeldjes.
Je vergeet een heel groot gegeven de recommended PhysX requierment van de games zelf.
En dit kan mogelijk aanzienlijk per game verschillen. Afhankelijk wat de dev's optioneel aan PhysX willen implementeren en op wat voor schaal.

Mirror edge recommend 'n enkele 9800GTX(+)
En ook gebenched ATI met PPU doet het ook redelijk.

Maar dat is Mirror Edge.
Wat doen de komende nV PhysX supportende Titels?

Gezien PhysX markt verdeeld is in ATI CPU of de schaarse PPU. En die pletora aan nV dX10 mogelijkheden zoals. Alleen een zwak IGP'tje tot quad GPU GT200.
Verwacht ik van de meeste PhysX games niet veel. De basis zal altijd CPU PhysX zijn. En voor optioneel PhysX spul, wordt vooral deels de GPU wat shaders afgenoepd voor PhysX.

Wat PPU nog steed bruikbaar maakt voor de meeste komende PhysX games.

Maar d'r kan wat uitzonderingen komen die optioneel multiGPU kan benutten. Al is de kans klein.

'n Game die tot een volle GTX285 kan benutten? Kans 1 promile? Heel klein dus.
Als de PhysX zwaarder wordt bij sommige nieuwe PhysX game dan wordt de nood aan een extra Gkaart om dit op te vangen ook groter.

Dan dit nog, vanwege die mainstream CPU PhysX beperking zal Gameplay Physics zich tot CPU beperken.
Meeste optionele PhysX features zullen effect Phsyics zijn of features die geen impact op de gameplay hebben.

PhysX in games kan dus nogal tegen vallen.

Omdat de toekomst niet te voorspellen is. Koop ik nu wat extra nV shaders in.
Minimaal een enkele GTX285. Als het niet opschiet met PhysX in de dev wereld, dan heb ik iig wel deftige GFX.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 09-05 18:23

Tijgert

Let the Zen flow. Shit a leak!

Mmm... met de 182.06 driver scoor ik elke keer vet meer punten in 3Dmark06 dan mijn kaart hoort te doen...

8800GTS512 775/1998/1098 = 16652 (met Q6600@3.6) (test 3x herhaald)

Een 4870 in CF of X2 komt maar tot 14200 ofzo.. WTf???

De SM2.0 en 3.0 tests halen ruim 1000 punten meer dan ik hoor te doen... (vergeleken op TH charts met een 8800GTS OC)

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
en is het in games ook sneller? :)

Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 09-05 18:23

Tijgert

Let the Zen flow. Shit a leak!

Goeie vraag... ik heb geen scores van voorheen en om nou drivers te blijven switchen..

Even wat anders: Wat als ik nou een 295 met een 8800 wil combineren zodat de 8800 enkel de physics voor zijn rekening neemt, hoe doe ik dat?

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Staat er in de topicwarning, alhoewel dit natuurlijk wel een interresante vraag is, misschien hem er gewoon naast zetten?

Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 09-05 18:23

Tijgert

Let the Zen flow. Shit a leak!

Ja ach, het leek me wel een leuke vraag want het zal tegenwoordig steeds vaker voorkomen dat je fonkelnieuwe supersnelle kaarten wilt combineren met je oude kaart nu Physics op niet gematchte kaarten mogelijk is. Zou idd wel leuk zijn om in de TS te vermelden OF het mogelijk is, welke combinaties mogelijk zijn en wat er nodig voor is. Is wel nieuwswaardig toch?

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ik denk dat dit al verscheidene keren in GoT gepasseerd is geweest maar bon het is idd zeker een plaatsje waard in de nieuwe TS.

Maar om het simpel te houden:

Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.
Afbeeldingslocatie: http://www.pcper.com/images/reviews/630/rel180-5.jpg

Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.

Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden).
Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.

Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang ;)
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.

[ Voor 4% gewijzigd door lightdestroyer op 24-02-2009 08:41 ]

Specs


Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 09-05 18:23

Tijgert

Let the Zen flow. Shit a leak!

Zo, DAT is pas een compleet en volledig antwoord :D
Dit lijkt me wel een goede toevoeging aan de TS!

Helaas is Vista dan wel een 'must' want met de 4GB max systeem ram voor XP - 512MB voor mijn 8800 dedicated Physics kaart - 1792MB voor mijn GTX295 = 1696MB wat over is voor systeem ram, lekker ruk (want er gaan nog wat systeem adressen vanaf ook).

Maare "extend the Vista desktop onto this secondary monitor". Betekent dit dat je dus altijd aan 1 kant je muis kwijt gaat zijn als je te ver scrollt? Of kan je je desktop ook 'clonen' dat dat ook telt als extended desktop?

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 29-04 18:07
Je moet dus, of 2 monitoren aansluiten en 1 monitor op je physx kaart, of 1 monitor op beide kaarten aansluiten, dus als je via dvi je beeldscherm op je gtx295 hebt aangesloten moet je met een andere kabel, bijvoorbeeld vga, hem op je physx kaart aansluiten.
Tenminste dat is wat ik uit die tekst haal :+

Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 09-05 18:23

Tijgert

Let the Zen flow. Shit a leak!

Klopt, zo lees ik het ook.

Maar gezien ik de tweede monitor nooit zal gebruiken (en al helemaal niet gelijktijdig kan gebruiken want het is hetzelfde apparaat) heb ik dus liever niet dat het werkt als een dual monitor setup waar je met je muis van de ene op de andere desktop scrollt enkel door over de rand van het ene scherm heen te scrollen...

Als het scherm 'clonen' (dus dat beide schermen exact hetzelfde beeld geven) ook goed genoeg is om aan de voorwaarden te voldoen, dan is er geen probleem. Maar als ik de helft van mijn iconen moet gaan zoeken op het andere scherm of dat er windows (spam popups bijvoorbeeld) opent op mijn andere scherm, dan is het onprettig.

Tenzij iemand het weet ga ik het wel gewoon proberen en kom ik zelf wel terug met mijn bevindingen. Dan draag ik ook nog wat bij aan de SP ;)

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 09-05 19:02
Tijgert schreef op dinsdag 24 februari 2009 @ 12:48:

Helaas is Vista dan wel een 'must' want met de 4GB max systeem ram voor XP - 512MB voor mijn 8800 dedicated Physics kaart - 1792MB voor mijn GTX295 = 1696MB wat over is voor systeem ram, lekker ruk (want er gaan nog wat systeem adressen vanaf ook).
Voor zover ik weet hoef je het dubbele geheugen van een dual kaart maar 1 keer te rekenen wat betreft adressering (een GTX295 heeft ook effectief "maar "beschikking over 896 MB RAM wat betreft texture opslag etc.). Dus als het goed is het je dan nog steeds ca. 2,5 GB systeem RAM beschikbaar.

anathema


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Klopt wat je zegt, zolang de 8800 dedicated Physics kaart ook nog eens geen extra geheugen opslurpt maar dat weet ik niet. Is dat zo?

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

Anoniem: 120284

Kunnen jullie ook maar 4 rasters aanmaken met de nVidia desktop manager? Het is me nog niet eerder opgevallen dat het gelimiteerd was.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
EdwardvGelder schreef op dinsdag 24 februari 2009 @ 14:07:
Je moet dus, of 2 monitoren aansluiten en 1 monitor op je physx kaart, of 1 monitor op beide kaarten aansluiten, dus als je via dvi je beeldscherm op je gtx295 hebt aangesloten moet je met een andere kabel, bijvoorbeeld vga, hem op je physx kaart aansluiten.
Tenminste dat is wat ik uit die tekst haal :+
Klopt, maar enkel onder vista he! XP heeft deze beperking niet. Hoewel de XP drivers dus minder stabiel zouden zijn volgens een paar fora posts die ik tegen gekomen ben.
hosee schreef op dinsdag 24 februari 2009 @ 19:55:
Klopt wat je zegt, zolang de 8800 dedicated Physics kaart ook nog eens geen extra geheugen opslurpt maar dat weet ik niet. Is dat zo?
Ik denk het wel, allezinds theoretisch gezien toch. Enkel je main gpu(s) zullen hun video geheugen in het ram geheugen in beslag nemen daar zij voor de beeldrendering zullen zorgen.
Ik zeg hier expliciet (s) omdat je bijvoorbeeld perfect SLI kunt draaien + een 3de kaart voor de PshyX

De bijkomende kaart zal enkel voor je PhysX effecten zorgen en deze renderen, let wel op hij zal vermoedelijk dus niet al zijn geheugen in het ram geheugen reserveren, het renderen van PhysX effecten zal altijd wel wat ram geheugen vragen he, ik heb nog geen enkel stukje software geweten dat totaal geen gebruikt maakt van de computer zijn werkgeheugen :*)
Dus theoretische moet het bv niet de volle 512M van je 8800 reserveren in je werkgeheugen maar enkel de benodigde ruimte. Maar hoe de nVidia drivers het aangepakt hebben??? Deze techniek staat in feite nog maar in zijn kinderschoentjes en er moet naar alle waarschijnlijkheid nog veel aan geschaafd worden waardoor ze misschien makkelijkheidshalve gewoon de volle 512M gereserveerd hebben :(
Ik zal eens googlen of ik dit kan vinden, maar over het geheugengebruik heb ik tot nu toe heel weinig tot niets gelezen.. Mss dat iemand met zon setup hier een licht kan op schijnen?

[ Voor 0% gewijzigd door lightdestroyer op 24-02-2009 22:20 . Reden: typo's ]

Specs


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 15:15

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 15:15
Reviewtje van de 260 Golden Sample op Fudzilla;


Afbeeldingslocatie: http://www.fudzilla.com/images/stories/Reviews/Graphics/_GTX_260/GoldenSample/kartica-s-prijeda.jpg

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/Reviews/Graphics/_GTX_260/GoldenSample/far4.jpg

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 15:15
En tot slot ook wel grappig:


GTS 250 can beat 4850 GTS

According to Nvidia’s internal benchmarking, its Windows 7 driver is much faster than ATI’s. The claims comes from recent testing done with ATI 8.561 drivers modified January 11th 2009 versus NVIDIA 181.65 beta drivers, both tested on the same machine.


Nvidia was happy to report that it wins in the top five games, and in two other games it scores better, as ATI would not even run these games. According to the source Nvidia wins in Call of Duty World at War by a few frames, Call of Duty 4 by more than ten percent. It is slightly faster in Left 4 dead and almost two times faster in Mirror’s Edge. You can probably blame lack of PhysX for ATI, for such a performance lead in this game.

ATI didn’t want to run Enemy Territory Quake wars and Fallout, which was an instant win for Nvidia. We are quite sure that these drivers will improve for both Nvidia and ATI as there are at least two more quarters until the launch of Windows 7.

The test was conducted at Radeon 4850 1GB card versus soon to launch Geforce GTS 250 1GB or should we call it Geforce 9800 GTX+ as this is the name for this card until Tuesday.



Voor jullie oud nieuws natuurlijk, maar het was mij ff ontgaan dat nV weer eens gaat de relabelen.

[ Voor 3% gewijzigd door Illidan op 28-02-2009 08:19 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Alle, we zitten weeral 500 post verder. Bedankt voor alle nuttige nieuwsposten, hopelijk komen er nog vele deeltjes ;)

Volgend deeltje:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 36

Specs


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 24-04 21:47

Ultraman

Moderator Harde Waren

Boefje

:)

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!