[Algemeen] nVidia Nieuws & Discussie Topic - Deel 35 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 35.446 views

Acties:
  • 0 Henk 'm!

Verwijderd

Het ging meer om een verklaring van dit:
Jejking schreef op dinsdag 13 januari 2009 @ 22:32:
[...]

Voor de mensen die verder kijken dan hun neus lang is, is ATi inderdaad de beste keuze. Probleem is: door naamsbekendheid en een volhardende PR-machine breek je niet zomaar heen.

Acties:
  • 0 Henk 'm!

Verwijderd

Intel zit ook aktief in die workgroup blijkbaar net zoals nVidia.

Ik snap ook niet waarop ik moet baseren dat ATi persee een betere keus is. Mss omdat ze de prijzen omlaag hebben gehaald? Maar ik als gewone koper weet daar niks van dus ik koop me gewoon een snelle zuinige kaart.
Ok, ga ik op zoek naar zo'n nVidia kaart dan kom er wrs via research uitendelijk wel achter. Dan moet ik opnieuw mijn keuze bepalen welk merk ik de voorkeur geef.

Maar iig zijn de 55nm kaarten van nVidia toch aardig goed, zeker kwa verbruik. Voor het milieu zijn kleinere ATi gpu's wel beter, kleinere die size.
nVidia doet het nu niet slecht, hun marketing verpest het voor mij. nforce borden vind ik te duur. Grafische kaarten wel ok.
Ook is het zo dat elke keer dat die TWIMTBP logo's voorbij komen, deze mijn blik wel troebelen, nou was dat met mijn oude NV40 snel verholpen natuurlijk, framerates gezien. Bah unlocken en overclocken...

Aam de andere kant lullig als de concurrent sneller is of iig gelijk in jou TWIMTBP spellen. Laat dat logo dan maar weg voor mij, alleen maar een afgang. Vroeger was dat wel meer v oordeel voor nVidia maar gelukkig wordt de concurrent nou ook beter bediend.
ATi zal dan wel minder doekoes in GITG steken, hun kaarten zijn wel goedkoper en dan hebben mensen meer geld over om die spelletjes te kopen. nVidia verkoopt liever meer kaarten en meer winst per kaart en betaald dus de gamedevs wat meer. Lijkt erop dat de ATi strategy haar vruchten begint af te werpen, want steeds meer grote game ontwikkelaars kiezen open voor DX10.1 en daar mee dus ATi.
Nou nog hopen op een Game Dev die ook eens een spelletje gebalanceerd kan afmaken, das moeilijk tgenwoordig, mja je hebt dan al zoveel shaderpower om over na te denken waar het te bebruiken op de dag van vandaag.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Nieuwe nVidia PhysX software:

NVIDIA PhysX System Software 9.09.0010 WHQL

Supports NVIDIA PhysX acceleration on all GeForce 8-series, 9-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory.

• Experience GPU PhysX acceleration in many games and demos, some of which are highlighted in PowerPack downloads.
• Resolves PhysX SDK runtime issues with multi-GPU configurations in Hybrid environments.
• Improves performance of some PhysX enabled games on GeForce GTX 285 and GTX 295 products.
• Resolves occasional system crashes when PhysX is enabled on some systems when running on EA’s Mirrors Edge.
• Runtime upgrade ONLY for AGEIA PhysX processors users. (New installations should install older PhysX system software such as version 8.09.04 – prior to installing this update).
• Includes the latest PhysX runtimes used in the latest game titles.
• Supports NVIDIA PhysX acceleration on GeForce via CUDA 2.0 for SDK versions 2.7.3, 2.7.2, 2.7.5, 2.8.0 and 2.8.1 (requires graphics driver v177.81 or later).
• Includes all the latest PhysX SDK Runtimes.
• Supports latest combines PhysX and SLI control panel featured in the latest GeForce drivers.
• GeForce 200-series, 9-series, and 8-series GPUs
AGEIA PhysX Processors (All)


Volgens mij is dit met name voor Mirrors Edge.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
Verwijderd schreef op dinsdag 13 januari 2009 @ 23:19:
Cuda en PhysX zijn geen voorsprong. Dat zijn gimmicks. DX11 en OpenCL gaan CUDA en PhysX overbodig maken(Want zowel ATI als NVIDIA gaan openCL en DX11 ondersteunen).
Als iemand die daadwerkelijk op GPU's zit te programmeren... CUDA is een verademing. Het is zoveel eenvoudiger om mee te werken dan de code samples die ik heb gezien van OpenCL, en de API van ATI Stream. En nVidia kan OpenCL gewoon naast CUDA implementeren, op dezelfde basis. OpenCL is een andere API, maar met minder mogelijkheden dan CUDA (een subset). Ik zeg, go CUDA _/-\o_

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mr.Chinchilla schreef op woensdag 14 januari 2009 @ 13:40:
[...]
Als iemand die daadwerkelijk op GPU's zit te programmeren... CUDA is een verademing. Het is zoveel eenvoudiger om mee te werken dan de code samples die ik heb gezien van OpenCL, en de API van ATI Stream. En nVidia kan OpenCL gewoon naast CUDA implementeren, op dezelfde basis. OpenCL is een andere API, maar met minder mogelijkheden dan CUDA (een subset). Ik zeg, go CUDA _/-\o_
Maar dat is wel een beetje de tweestrijd dan tussen de makers en de gebruikers. Het kan nog zo prettig zijn om mee te werken; maar als er geen output wordt gemaakt die meerwaarde heeft boven andere (open) standaarden - wat is dan het enduser voordeel (en daarmee het aanschaf/gebruik argument)?

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Verwijderd

Die PhysX zit dus niet bij de normale driver...? En begrijp ik dat je de software kunt aan of uitzetten of zo...? Ik heb nul komma nul ervaring met PhysX. Ik krijg binnenkort een GTX280 en ben wel benieuwd. Of heb je er alleen maar wat aan als je een dubble GPU hebt (zodat je er eentje het PhysX werk kunt laten doen)?

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
Cassius schreef op woensdag 14 januari 2009 @ 14:21:
Maar dat is wel een beetje de tweestrijd dan tussen de makers en de gebruikers. Het kan nog zo prettig zijn om mee te werken; maar als er geen output wordt gemaakt die meerwaarde heeft boven andere (open) standaarden - wat is dan het enduser voordeel (en daarmee het aanschaf/gebruik argument)?
OpenCL output kan op dit moment nog niet gemaakt worden, want dat is nog niet beschikbaar. En ATI Stream is geen open standaard. Dus heel pragmatisch zeg ik: op dit moment is het makkelijkst om voor te ontwikkelen CUDA, met als opmerking dat je een NVIDIA kaart nodig hebt. Dus ik bevind me in de positie van developer. Eindgebruikers, tsja, daar moet je je zorgen om maken als je met een consumentenproduct bezig bent. Voor intern gebruik is het geen probleem om dan specifieke hardware te eisen, als dat flink in de ontwikkeltijd scheelt.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op woensdag 14 januari 2009 @ 14:39:
[...]

Die PhysX zit dus niet bij de normale driver...? En begrijp ik dat je de software kunt aan of uitzetten of zo...? Ik heb nul komma nul ervaring met PhysX. Ik krijg binnenkort een GTX280 en ben wel benieuwd. Of heb je er alleen maar wat aan als je een dubble GPU hebt (zodat je er eentje het PhysX werk kunt laten doen)?
Jawel, het zit bij de driver in, alleen was de link die ik gaf een link naar de nieuwste PhysX software. Dan moet je dus die meegeleverde PhysX driver uninstallen/ niet installeren, en die losse installer even pakken.

Volgens mij werkt PhysX ook gewoon met 1 GPU, maar goed, dat weet ik verder eigenlijk niet. Ik gebruik al een hele tijd SLi. Mischien dat iemand met een single GPU die vraag kan/ wil beantwoorden.

Edit; volgens mij werkt het ook gewoon met 1 GPU, en gebruikt de PhysX software een aantal van de cores van de GPU (een aantal van de 240 van de GTX280 bijvoorbeeld) om de PhysX te berekenen.

[ Voor 9% gewijzigd door Format-C op 14-01-2009 15:09 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ha, ik heb zonet de GTX280 in m'n lopende bestelling weten te vervangen door de GTX285. Voor MINDER geld dan dat die GTX280 kostte! Kijk, da's nou leuk. Die GTX285 is zwaar overkill, maar een stuk zuiniger wat verbruik betreft en wellicht ook wat stiller? Goeie service van 4Launch. ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Edit; volgens mij werkt het ook gewoon met 1 GPU, en gebruikt de PhysX software een aantal van de cores van de GPU (een aantal van de 240 van de GTX280 bijvoorbeeld) om de PhysX te berekenen.
Volgens mij kan PhysX gewoon op 1 videokaart alleen zal de performance een stuk lager zijn. Aangezien de videokaart ook PhysX berekeningen moet doen. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Mr.Chinchilla schreef op woensdag 14 januari 2009 @ 13:40:
[...]


Als iemand die daadwerkelijk op GPU's zit te programmeren... CUDA is een verademing. Het is zoveel eenvoudiger om mee te werken dan de code samples die ik heb gezien van OpenCL, en de API van ATI Stream. En nVidia kan OpenCL gewoon naast CUDA implementeren, op dezelfde basis. OpenCL is een andere API, maar met minder mogelijkheden dan CUDA (een subset). Ik zeg, go CUDA _/-\o_
:?

Dit is wel heel erg nieuw voor me. Leg eens uit. Voor zover ik weet is OpenCL in meerdere opzichten flexibeler dan CUDA wat betreft mogelijkheden. Het lijkt er wel op, maar de specs zijn beter gedocumenteerd/vast gelegd. En op een aantal gebieden gaat OpenCL toch echt over CUDA heen... kijk bijvoorbeeld eens naar het queue model van OpenCL. Ongetwijfeld kan CUDA hetzelfde als OpenCL via de ene of andere weg, maar CUDA biedt lang niet de controle die OpenCL op dat gebied wel heeft. En zo zijn er nog meer kleine subtiele details.

nVidia wil van CUDA ook geen tegenstander maken van OpenCL. CUDA gaat als 'layer' fungeren tussen OpenCL en de daadwerkelijke hardware, als een soort van low-level interface/language extension voor de high level API OpenCL.

Als je vergelijkt wie er achter OpenCL staan en wie er achter CUDA staan... dan is het niet gek dat nVidia CUDA niet als tegenstander pusht van OpenCL. Dat is namelijk een verloren strijd.

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/opencl/khrpartner.png

Overigens voor de mensen die meer willen weten heeft Anandtech een erg recent informatief artikel over CUDA, Brook+/ATI Stream en OpenCL online staan:
We expect a higher volume of consumer level applications than we've seen with CUDA, as there is greater incentive to develop using OpenCL. The fact that the vast majority of modern graphics cards will support OpenCL and the fact that the vast majority of computers have modern graphics cards installed means that once OpenCL drivers arrive developers will instantly have standardized and easy access to hundreds of times more compute power for general purpose processing of data parallel algorithms.
http://www.anandtech.com/video/showdoc.aspx?i=3488&p=1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Verwijderd schreef op woensdag 14 januari 2009 @ 15:31:
Ha, ik heb zonet de GTX280 in m'n lopende bestelling weten te vervangen door de GTX285. Voor MINDER geld dan dat die GTX280 kostte! Kijk, da's nou leuk. Die GTX285 is zwaar overkill, maar een stuk zuiniger wat verbruik betreft en wellicht ook wat stiller? Goeie service van 4Launch. ;)
Hm, ik zit ook te denken om een GTX280/285 te kopen. Ik twijfel nog wat, die GTX OC van MSI is 299 euro en de GTX285 zo'n 340. Is toch 40 euro..
Als die GTX285 veel verder overklokt (vooral shadersnelheid) heb ik dat er nog wel voor over maar uit de reviews van de GTX260-55 nm blijkt dat die helemaal niet verder klokt dan de 65 nm versie.
Iemand al iets daarover gelezen? Kan nog niet echt iets vinden.

anathema


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

anathema schreef op woensdag 14 januari 2009 @ 16:42:
[...]

Hm, ik zit ook te denken om een GTX280/285 te kopen. Ik twijfel nog wat, die GTX OC van MSI is 299 euro en de GTX285 zo'n 340. Is toch 40 euro..
Als die GTX285 veel verder overklokt (vooral shadersnelheid) heb ik dat er nog wel voor over maar uit de reviews van de GTX260-55 nm blijkt dat die helemaal niet verder klokt dan de 65 nm versie.
Iemand al iets daarover gelezen? Kan nog niet echt iets vinden.
De shaders van de MSI SUPER OC kan je ook nog verder OC'en. Het staat zelfs op de doos; "shader OC ready". Ze willen blijkbaar nog wat "speelopties" voor de eindgebruiker overlaten. Ze leveren ook OC software mee, alleen heb ik zie zelf nog niet geprobeerd omdat de kaarten out of the box al gruwelijk snel zijn. :)

[ Voor 3% gewijzigd door Format-C op 14-01-2009 17:19 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
RappieRappie schreef op woensdag 14 januari 2009 @ 17:19:
[...]

De shaders van de MSI SUPER OC kan je ook nog verder OC'en. Het staat zelfs op de doos; "shader OC ready". Ze willen blijkbaar nog wat "speelopties" voor de eindgebruiker overlaten. Ze leveren ook OC software mee, alleen heb ik zie zelf nog niet geprobeerd omdat de kaarten out of the box al gruwelijk snel zijn. :)
OK, heb inderdaad het idee dat die GTX285 niet echt de moeite waard is.
Hier staat ook al zoiets: http://www.fudzilla.com/i...sk=view&id=11349&Itemid=1
Die 55 nm kaarten worden natuurlijk gemaakt om de kosten te drukken en als door de lagere hitteafgifte goedkopere onderdelen gebruikt kunnen worden, die overklokken niet bevorderen, zullen ze dat zeker niet laten lijkt me.

anathema


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Hoewel het meer in een soort van ervaringen topic past, wil het toch even hier vragen aangezien dat er volgens mij niet is.
Zou iemand voor mij met zn GTX280 (single kaart) es een benchmark kunnen draaien van Crysis warhead - avalanche met:
1920X1200, Enthousiast, geen AA, DX9. Vooral die DX9 is belangrijk voor me want ik kan, hoe onbegrijpelijk ook, geen review vinden die in DX9 op deze setting test.

anathema


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als we The Inquirer mogen geloven:
Nvidia GT212 hasn't taped out

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

En wat een betrouwbare bron...

...het onderbuik gevoel van een redacteur daar.

Acties:
  • 0 Henk 'm!

Verwijderd

INQ en Nvidia.... nu niet echt elkaars beste vrienden. :9 . Ik wacht wel tot een aankondiging... of niet natuurlijk. :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op woensdag 14 januari 2009 @ 19:20:
INQ en Nvidia.... nu niet echt elkaars beste vrienden. :9 . Ik wacht wel tot een aankondiging... of niet natuurlijk. :)
Ach ja je weet toch niet wat je ervan moet geloven.Het is ook weer niet zo dat ze nooit gelijk hebben. :)


De kogel is overigens door de kerk, ik heb een MSI 280GTX Super OC besteld bij Alternate.

Ben eigenlijk meer ATI man maar de 4870 1GB is zelfs met de nieuwe hotfix driver volgensmij niet sneller dan een OC'd 280 in games als Crysis en een 4870X2 vind ik net weer wat te duur. Verder ben ik wat huiverig voor evt microstuttering. Wel jammer dat DX10.1 mist. Mocht dit het komende jaar toch nog doorbreken dan is dat wel nadelig.

Verder zal een 285 vast niet (veel) sneller zijn dan deze 280. Natuurlijk kan je een 285 overklokken maar daar houdt ik niet meer zo van bij videokaarten. Hopelijk is deze OC'd 280 wel echt goed getest door MSI want heb geen zin in een rokende kaart :o

Nee denk dat voor deze prijs een 280 wel een goede keuze is totdat de DX11 kaarten komen. :P

[ Voor 6% gewijzigd door Help!!!! op 14-01-2009 20:13 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Dat denk ik ook wel. :)

Als je echt volop van de kaart wilt genieten, moet je zeker Mirrors Edge even proberen. Met PhysX.

Echt gaaf. Ik heb hem nu met en zonder PhysX gespeeld, en met PhysX is de game echt veel intenser. Er gebeurt meer, meer glas, kogels, water, rook, vlaggen, doeken, effecten... Vooral rondvliegende dingen maken de game echt een stuk realistischer. Ik had het de eerste keer aanstaan, en heb een tijdje gegamed. Vervolgens zette ik het uit, en er was toch duidelijk een verschil waarneembaar. :) Zonder was het toch een stukje saaier en leger. Je mist direkt die effecten. Als het aanstaat vliegt er vanalles door het beeld als er glas stukgaat bijvoorbeeld of als er kogels om je heen inslaan.

De hele game ervaring wordt er mooier van. _/-\o_ :9~ Het zal wel een gimmick zijn volgens sommigen, maar het zit toch mooi in die game, en het is echt geweldig! :9 En je hebt het als je een nV kaart hebt voor niets. :D

[ Voor 47% gewijzigd door Format-C op 14-01-2009 20:52 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ik wacht wel op de hack waar het aan word gezet zonder dat je nvidia of physix nodig hebt ;)

/me mompeld iets met HALO 2 en alleen voor vista.

[ Voor 22% gewijzigd door Verwijderd op 14-01-2009 20:37 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Wachtze. ;)


Ik ga weer verder met Mirrors Edge. ;) PhysX geeft Mirrors Edge "The Edge". 8)

[ Voor 53% gewijzigd door Format-C op 14-01-2009 20:44 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

RappieRappie schreef op woensdag 14 januari 2009 @ 20:33:
Dat denk ik ook wel. :)

Als je echt volop van de kaart wilt genieten, moet je zeker Mirrors Edge even proberen. Met PhysX.

Echt gaaf. Ik heb hem nu met en zonder PhysX gespeeld, en met PhysX is de game echt veel intenser. Er gebeurt meer, meer glas, kogels, water, rook, vlaggen, doeken, effecten... Vooral rondvliegende dingen maken de game echt een stuk realistischer. Ik had het de eerste keer aanstaan, en heb een tijdje gegamed. Vervolgens zette ik het uit, en er was toch duidelijk een verschil waarneembaar. :) Zonder was het toch een stukje saaier en leger. Je mist direkt die effecten. Als het aanstaat vliegt er vanalles door het beeld als er glas stukgaat bijvoorbeeld of als er kogels om je heen inslaan.

De hele game ervaring wordt er mooier van. _/-\o_ :9~ Het zal wel een gimmick zijn volgens sommigen, maar het zit toch mooi in die game, en het is echt geweldig! :9 En je hebt het als je een nV kaart hebt voor niets. :D
Goede tip! Was die hele Mirrors Edge al vergeten.

Ben wel benieuwd hoe die PhysX zullen zijn, als het echt tof is hoop ik wel dat er een opensource oplossing komt maar tot die tijd zal ik er zolang ik nV heb er ook wel van genieten ;)

Met een beetje geluk kan ik morgen mijn Corsair HX 1000 en die kaart ophalen, huidige voeding gaat dit niet meer trekken en heeft geen 8pins, dan kan ik het allemaal ns testen. :P

Ben benieuwd naar verschil met de 8800GTX, is een erg trouw beestje geweest sinds november 2006. Ding kan zowat nog steeds mee, je hoeft op 1680*1050 niet eens heel veel omlaag qua settings.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op woensdag 14 januari 2009 @ 20:36:
Ik wacht wel op de hack waar het aan word gezet zonder dat je nvidia of physix nodig hebt ;)

/me mompeld iets met HALO 2 en alleen voor vista.
Je hebt op zich geen hack nodig. PhysX werkt ook zonder nV GPU. De boel draait dan gewoon op de CPU. Maar een slim iemand weet vast wel een wrapper te vinden/maken die de PhysX calls onderschept en naar de Radeons weet te leiden. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

En in het geval van Multiplayer is er weer iets wat ziet dat jij dat doet en je meteen uit de server (op z'n best) gooit: PunkBuster

Acties:
  • 0 Henk 'm!

  • Lampuhkap
  • Registratie: Januari 2008
  • Laatst online: 21:26
Help!!!! schreef op woensdag 14 januari 2009 @ 20:56:
[...]

Goede tip! Was die hele Mirrors Edge al vergeten.

Ben wel benieuwd hoe die PhysX zullen zijn, als het echt tof is hoop ik wel dat er een opensource oplossing komt maar tot die tijd zal ik er zolang ik nV heb er ook wel van genieten ;)

Met een beetje geluk kan ik morgen mijn Corsair HX 1000 en die kaart ophalen, huidige voeding gaat dit niet meer trekken en heeft geen 8pins, dan kan ik het allemaal ns testen. :P

Ben benieuwd naar verschil met de 8800GTX, is een erg trouw beestje geweest sinds november 2006. Ding kan zowat nog steeds mee, je hoeft op 1680*1050 niet eens heel veel omlaag qua settings.
Ik draai hier met een 8800 GTX en mirrors edge is met 1680x1050 gewoon met alles max te spelen (ja ook de AA enzo voluit)

Acties:
  • 0 Henk 'm!

Verwijderd

Nu is 'te spelen' nogal subjectief...

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op woensdag 14 januari 2009 @ 21:52:
En in het geval van Multiplayer is er weer iets wat ziet dat jij dat doet en je meteen uit de server (op z'n best) gooit: PunkBuster
Staat GPU PhysX in multiplayer aan? Heeft Mirror's Edge op de PC ook multiplayer? Zou me verbazen als dat in welke PC game dan ook het geval zou zijn. De helft van alle gamers heeft geen NV videokaart, laat staan een videokaart die GPU PhysX goed aan kan en die kunnen dan of voordeel of nadelen ondervinden bv doordat ze bepaalde dingen niet kunnen zien/wel kunnen zien.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op woensdag 14 januari 2009 @ 23:23:
Staat GPU PhysX in multiplayer aan?
Geen idee
CJ schreef op woensdag 14 januari 2009 @ 23:23:
Heeft Mirror's Edge op de PC ook multiplayer?
Geen idee
CJ schreef op woensdag 14 januari 2009 @ 23:23:
Zou me verbazen als dat in welke PC game dan ook het geval zou zijn. De helft van alle gamers heeft geen NV videokaart, laat staan een videokaart die GPU PhysX goed aan kan en die kunnen dan of voordeel of nadelen ondervinden bv doordat ze bepaalde dingen niet kunnen zien/wel kunnen zien.
Ahaa. En hoe verklaar je dan de Ultra-high audio instelling in Battlefield 2, waar je persé een Creative X-Fi voor nodig hebt? Ik gok zo dat het X-Fi aandeel bij "gamers" nog wel iets lager is dan 50%. Het schijnt tegenwoordig in de mode te zijn om je videokaart dubbel te doen en het onboard geluid te bestempelen als "prima" |:(

Ik heb in ieder geval nog steeds veel plezier aan die mode. Ik vind het wel prima vijandelijke ventjes en vliegtuigen te kunnen tracken zonder ze te zien. Dat er een flinke groep is die meent dat onboard geluid wel genoeg is niet mijn probleem. Als mensen een nieuw spel met een onboard videochipje willen spelen heb je ook een zwaar nadeel.

Als ik in BF2 het hoekje omloop zakt mijn framerate wellicht van 99,9 naar 92,9 als er een horde enemies lopen. Als bij die anderen de framerate van 60 naar 20 zakt op dat moment ben ik gewoon zwaar in het voordeel.

Wellicht was dat ook de reden dat de uitbreiding Special Forces zo'n succes was (imo): Veel en veel zwaarder voor je PC dan het gewone BF2. Het gevolg was dus dat er veel en veel minder kleuters rondliepen bij de uitbreiding :D

[ Voor 5% gewijzigd door Verwijderd op 14-01-2009 23:43 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Dit kan kloppen. Voor zover ik weet stond de GT212 als laatste op de tape-out planning en dit heb ik van een zeer betrouwbare bron.

Er is overigens speculatie dat ook het bericht dat de GT212 nu helemaal niet meer uit komt, kan kloppen, zeker met het oog op Windows 7 die op schema lijkt te liggen... en waar natuurlijk DirectX11 in zit. Het zou zelfs kunnen dat DirectX11 eerder uit komt voor Vista. In dat geval zou je DX11 rond de zomer kunnen verwachten. In hoeverre heeft het dan nog zin voor NV om met een DX10 kaart te komen vlak voor de launch van DX11? En misschien hebben ze te horen gekregen dat AMD wel erg ver gevorderd is met hun DX11 kaart... en zijn ze bang dat ze straks een koekje van eigen deeg krijgen zoals dat het geval was met de G80 vs R600 met DX10... dus dat AMD een te grote marktaandeel DX11 kaarten krijgt wanneer ze eerder op de markt zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Help!!!! schreef op woensdag 14 januari 2009 @ 20:12:
[...]

Ach ja je weet toch niet wat je ervan moet geloven.Het is ook weer niet zo dat ze nooit gelijk hebben. :)


De kogel is overigens door de kerk, ik heb een MSI 280GTX Super OC besteld bij Alternate.

Ben eigenlijk meer ATI man maar de 4870 1GB is zelfs met de nieuwe hotfix driver volgensmij niet sneller dan een OC'd 280 in games als Crysis en een 4870X2 vind ik net weer wat te duur. Verder ben ik wat huiverig voor evt microstuttering. Wel jammer dat DX10.1 mist. Mocht dit het komende jaar toch nog doorbreken dan is dat wel nadelig.

Verder zal een 285 vast niet (veel) sneller zijn dan deze 280. Natuurlijk kan je een 285 overklokken maar daar houdt ik niet meer zo van bij videokaarten. Hopelijk is deze OC'd 280 wel echt goed getest door MSI want heb geen zin in een rokende kaart :o

Nee denk dat voor deze prijs een 280 wel een goede keuze is totdat de DX11 kaarten komen. :P
Wat die microstuttering betreft...ik ook. Heb deze opmerking (Vraag) reeds vermeld in het ATI topic maar zonder respons en voorlopig wordt er ook niet gereageerd op jouw opmerking daarover ....door de experts...
Ben blij dat je dit ook aanhaalt want ik zou haast denken dat ikzelf een niet relevante vraag had gesteld aangaande dit onderwerp in het ATI topic. Heb in verschillende fora over dit ATI fenomeen gelezen maar het blijkt dat niemand daar een duidelijk antwoord op heeft. In ieder geval, ik krijg daardoor dezelfde negatieve indruk hierover en daardoor denk ik voorlopig niet aan ATI zolang ik niet zeker weet wat ik moet denken van die microstuttering (Heb het al meegemaakt met mijn x800xt). Tot nu toe met Nvidia nog niet meegemaakt...

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Ook nVidia heeft helaas last van microstuttering. Microstuttering is inherent aan de renderingmethode die CrossFire en SLI gebruiken, namelijk Alternate Frame Rendering. In samenwerking met developers kan dit zoveel mogelijk tegen worden gegaan door de games AFR friendly te maken. Maar helemaal weg krijgen lukt niet, tenzij er nog andere efficientere methodes van multi-rendering worden uitgevonden en toegepast.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

I beg your pardon? CJ heeft het in het ATI nieuws topic toch duidelijk uit gelegd lijkt mij. Of beantwoord dat niet precies waar je mee zit?

CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

[ Voor 37% gewijzigd door Verwijderd op 15-01-2009 00:24 ]


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
I beg your pardon??? Nee inderdaad niet.
@CJ: Ik heb gehad: 2x7900GTO, 8800GTX, 8800FTX Ultra en nu 2x 8800GT's en in geen van alle heb ik ooit microstutttering meegemaakt.
Vandaar ook mijn negatieve gedachten jegens ATI, temeer ook door de bevestiging daarover in verschillende fora.
Neem aan dat "help!!!!" het ook niet uit zijn duim heeft gezogen....

[ Voor 9% gewijzigd door hosee op 15-01-2009 02:23 ]

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Heel veel mensen merken microstuttering ook niet op. Maar geloof me, als je de situaties opzoekt die ik beschreven heb in het stuk dat Reinman aanhaalt, dan kom je vanzelf wel microstuttering tegen.

In het lijstje dat je noemde staan ook single kaarten, en ik hoop dat je wel snapt dat micro-stuttering voorbehouden is aan multi-GPU opstellingen. Dan is de vraag of je die SLI opstellingen wel dusdanig aan hun limieten gepusht hebt om micro-stuttering te ondervinden. Dwz erg hoge resoluties zoals bv 2k5x1k6 en veel AA/AF waardoor microstuttering erg zichtbaar wordt vanwege de lage fps. Of games gebruiken die bekend staan als AFR-onfriendelijk.

NV en AMD hebben van huis uit evenveel last van micro-stuttering vanwege het gebruik van AFR. AMD heeft dit met de HD4870X2 iets verbetert. Of dit door betere drivers komt of door een speciaal techniekje in de GPU is nog niet echt duidelijk. Wel is duidelijk dat de verdeling van frames iets constanter verloopt dan bijvoorbeeld bij een HD3870X2 of 9800GX2. NV heeft met de GTX295 ook een aantal dingen verbeterd om micro-stuttering tegen te gaan, maar dit is voornamelijk driverwerk.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

How to softmod your GeForce 8/9/GTX into a fullblown Quadro:

http://www.techarp.com/showarticle.aspx?artno=539&pgno=0

Goed voor de performance van professionele software, niet voor games uiteraard.

Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Geloof mij CJ, ik merk "stotteren" wel degelijk op en ik ervaar dat als zeer vervelend. En al de NV graka's die ik heb gehad werden gebruikt met een 30 inch monitor.
Dat je schokkend beeld hebt met een te lage FPS is normaal maar dat je een FPS van 50 hebt en deze hapert random of zeg maar om de 2 á 5 seconden is uitermate vervelend. Of heeft dat niets te maken met microstuttering?

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Schokkend beeld != microstuttering. Maar het zou wel kunnen dat het microstuttering is. Maar het hoeft dus niet.

Op welke CrossFireX combinatie(s) heb je dit gemerkt als ik vragen mag?

Microstuttering is vooral merkbaar wanneer de game een FPS haalt die lager ligt dan de refreshrate van je monitor. Als je 50fps haalt, terwijl je monitor een refreshrate heeft van misschien 70 of 80Hz, dan ben je extra gevoelig voor microstuttering. De tip die op veel fora gegeven wordt is dan ook een setting op zoeken waarbij de gemiddelde FPS die je videokaart(en in geval van X2/GX2 of SLI/CFX) er uit pompt hoger ligt dan je refreshrate.

Mocht het wel micro-stuttering zijn dan is hoogstwaarschijnlijk de 50fps die jij noemt de reden. Ik ga er van uit dat dit lager ligt dan je refreshrate.

Op NV kaarten is het mogelijk om Split Frame Rendering te forceren als multi-rendering modus. Hiermee los je het micro-stutteringprobleem op, maar sta je wel weer open voor andere problemen zoals screen-tearing, een grotere performancehit of incompatibiliteit van game-engines met SFR. Het kan dus zijn dat je op je SLI configuratie in SFR hebt gedraaid zonder dat je het door had. Bij AMD was het voorheen ook mogelijk om SFR te forceren, maar ik weet zo uit mijn hoofd niet of het nu nog steeds kan sinds AFR de default-renderingmode is.

Uiteindelijk moet je gewoon nemen wat je wilt. Wil je geen micro-stuttering dan neem je een single GPU. Wil je geen micro-stuttering en heb je het gevoel dat een GTX295 of SLI opstelling daar minder gevoelig voor is dan een X2 of CFX opstelling, dan neem je een GTX295/SLI. Maar weet wel dat dit een psychologisch verschil is aangezien zowel SLI als CFX dezelfde zwakheden hebben omdat ze AFR gebruiken.

Erg handig leesvoer: http://www.hardforum.com/showthread.php?t=1317582

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Tjonge, ik ben nu NOG blijer dat ik voor de GTX285 ben gegaan! ;)

Het loopt nog niet echt storm met reviews/test van de GTX285 trouwens...

[ Voor 36% gewijzigd door Verwijderd op 15-01-2009 15:18 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Op zich niet verwonderlijk toch aangezien de meeste GTX280s de kloksnelheden van de GTX285 weten te bereiken... laat staan dat er voldoende OC varianten zijn van de GTX280 die zelfs hoger geklokt zijn. Performance is dus al een tijd bekend.

Maar in de loop van de dag zullen er nog wel wat reviews verschijnen. Het is nog vroeg in Amerika.

[ Voor 6% gewijzigd door CJ op 15-01-2009 16:16 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
HWI heeft al een review van de GTX285 :+
http://www.hardware.info/...dia_GeForce_GTX_285_test/

[ Voor 50% gewijzigd door Bullus op 15-01-2009 16:26 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Toaby
  • Registratie: Juni 2007
  • Laatst online: 14-09 22:17
Ze gebruiken voor de 4870X2 niet de 8.12 hotfix drivers, maar 8.10 wegens problemen...
Das niet echt lekker vergelijken dan.

Acties:
  • 0 Henk 'm!

Verwijderd

Waarom denk je dat Bullus er een :+ bij plaatst?

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
http://www.guru3d.com/art...gtx-285-review--3way-sli/
Review Guru3D.
Als ik zo zie hoever ze kunnen clocken met een standaard GTX285 dan ben ik er niet rouwig om dat ik die MSI GTX280 super OC besteld heb gister voor 299. Als ik van die de shader van 1400 naar 1500 mhz kan klokken kom ik aardig in de buurt van wat de GTX285 kan halen.
De pre-overclocked modellen gaan wel wat harder kwa shaderspeed, maar daar betaal je vast ook voor.

anathema


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Die pre-overclocked versies kosten al gauw zo'n 70 euro meer, dus ik denk idd dat die MSI's geen slechte keuze zijn geweest... Meestal clocken de reviewers ook verder over dan eigenlijk echt stabiel is. Voor een paar benches. :)

(Ik heb zelf ook 2 MSI's Super OC's gekocht, en heb er geen minuut spijt van. :) )
But expect to reach roughly a 700 MHz core, ~ 1500 MHz on the Shader domain and 2500 to 2600 MHz on the memory.
Niet veel meer dan de MSI Super OC dus. :)

Het geheugen wil wel hoger dan de GTX280, alleen vraag ik me af of het op de langere termijn niet stukgaat/ gefrituurd wordt.

[ Voor 60% gewijzigd door Format-C op 15-01-2009 20:05 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tav de posts hierboven mbt microstuttering (Multi GPU)

Ik lees veel reviews en houdt het nieuws in grote lijnen bij. Wat daarvan bij mij beklijft is dat ATI qua multigpu een behoorlijke inhaalslag heeft gemaakt maar dat nVidia toch nog een voorsprong heeft.

Microstuttering is iets waar zowel ATI als nVidia last van kunnen hebben maar het schijnt dat het iets meer pregnant is bij ATI. Ik ben een zeikerd qua framerates, response van monitors en inputlag. Derhalve is microstuttering iets wat mij (en een aantal andere zaken) voorlopig enigzins afhoudt van multigpu.
Echter er zijn ook ander factoren zoals de lifecycle van een kaart en de prijs.

Wel denk ik dat de progressie in multigpu bij ATI en nVidia dusdanig is dat het niet lang meer duurt voor ik het toch acceptable genoeg vind.

Eerlijkheid gebiedt mij te zeggen dat ik persoonlijk geen ervaring met microstuttering heb want ik heb nimmer een mulitgpu setup gehad. Een mens moet zich echter ergens op baseren dus doe ik dat vooral obv wat ik lees in reviews en gebruikerservaringen.

Maar nogmaals, ik ben een zeikerd in sommige dingen en heb een gevoelig oog. Denk zeker niet dat het een HUGE probleem is maar het speelt wel.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Geloof mij, ik ben ook héél gevoelig voor stotteringen en andere soort onzin die games vergallen. Graphics bugs e.d. Stotters, whatever.

Om microstutterig te hebben/ ondervinden, heb je een lage/ minimale framerate nodig. In de buurt van de 30 heb ik me laten vertellen. Nou, ik speel geen games die geen 60FPS stable halen met V-Sync aan, anders gamed het (imho!) voor geen meter. Die games bewaar ik/ leg ik in de kast, of zet de settings iets lager als dat helpt. Meestal gaan ze tijdelijk de kast in. ;)

Framedrops, dát is pas erg! :r Brrrr.

Maar goed; deze Multi GPU setups/ kaarten zijn zo snel, dat je lang niet bij de grens in de buurt komt dat je microstuttering ervaart. (Dat geldt voor de HD4870X2 en voor GTX280/ 260 SLI) Ik heb al een paar jaar SLi, en ik heb nog nooit, maar dan ook nooit last van microstuttering gehad. Volgens mij. En ik ben heel gevoelig voor dat soort dingen zoals ik al zei.

Ik heb wel eens een stotterende game gehad, maar dit lag óf aan de game, en werd verholpen met een patch, óf het lag aan de drivers, en dit werd dus opgelost met een driverupdate.

Kortgezegd; microstuttering? Wat is dat? :O :?

Edit; hoezo is de GTX285 zuiniger?

http://www.firingsquad.co...ormance_review/page13.asp

De EVGA klokt trouwens hoger dan andere kaarten (misschien omdat dit de enige echte overgebleven nV-only partner is?), het core voltage staat daar iets hoger. Echter, als ik ga vergelijken hoeveel FPS extra 50MHz extra op de core geeft, dan is dat wel heel erg weinig.

Zie onderaan: http://www.firingsquad.co...ormance_review/page13.asp

De GTX295, GTX280 SLi, en GTX285 SLi zijn wel een stuk rapper dan een HD4870X2 op hele hoge resoluties met AA en AF. :)

http://www.firingsquad.co...formance_review/page3.asp

Afbeeldingslocatie: http://www.firingsquad.com/hardware/evga_geforce_gtx_285_ssc_performance_review/images/fall2560.gif

Afbeeldingslocatie: http://www.firingsquad.com/hardware/evga_geforce_gtx_285_ssc_performance_review/images/cod42560.gif

Afbeeldingslocatie: http://www.firingsquad.com/hardware/evga_geforce_gtx_285_ssc_performance_review/images/far2560.gif

Afbeeldingslocatie: http://www.firingsquad.com/hardware/evga_geforce_gtx_285_ssc_performance_review/images/wic2560.gif

Zowel de HD4870X2 met hotfix als nV met 180.20. ;)

[ Voor 73% gewijzigd door Format-C op 15-01-2009 22:00 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
RappieRappie schreef op donderdag 15 januari 2009 @ 20:48:
Geloof mij, ik ben ook héél gevoelig voor stotteringen en andere soort onzin die games vergallen. Graphics bugs e.d. Stotters, whatever.

Om microstutterig te hebben/ ondervinden, heb je een lage/ minimale framerate nodig. In de buurt van de 30 heb ik me laten vertellen. Nou, ik speel geen games die geen 60FPS stable halen met V-Sync aan, anders gamed het (imho!) voor geen meter. Die games bewaar ik/ leg ik in de kast, of zet de settings iets lager als dat helpt. Meestal gaan ze tijdelijk de kast in. ;)

Framedrops, dát is pas erg! :r Brrrr.

Maar goed; deze Multi GPU setups/ kaarten zijn zo snel, dat je lang niet bij de grens in de buurt komt dat je microstuttering ervaart. (Dat geldt voor de HD4870X2 en voor GTX280/ 260 SLI) Ik heb al een paar jaar SLi, en ik heb nog nooit, maar dan ook nooit last van microstuttering gehad. Volgens mij. En ik ben heel gevoelig voor dat soort dingen zoals ik al zei.
Zoals je zelf al zegt game jij bij bij minimaal 60 fps en dan heb je inderdaag geen last van micro-stuttering. Maar een game als Crysis loopt met een multi-GPU set-up nou eenmaal niet met 60 fps als je very high instelt. En persoonlijk kan ik me geen andere reden verzinnen dan crysis om uberhaupt een multi-GPU set-up te overwegen. Zelfs 1920X1200 4XAA loopt bij vrijwel alle andere games namelijk prima met een enkele HD4870. (Vsync even daargelaten, maar sinds ik een HD4870 heb heb ik nauwelijks screen tearing meer meegemaakt. Doet ATI dat beter ofzo? Wat dat betreft vrees ik weer een beetje met mn GTX280 straks).

Ik heb een HD4870-X2 gehad en de micro-stuttering was erg merkbaar in crysis en ik vind het derhalve een groot probleem. 40 fps voelt als 25 fps... wat dat betreft kan ik me voorstellen dat als je multi-GPU gewend bent je minimaal 60 fps wil hebben. 40 fps is ook niet vloeiend daarmee, maar met een single kaart zeker wel zolang het stabiel is.
ATI moet hier ook eens goed naar kijken voor ze grote single chips vaarwel zeggen en voor de high end alleen multi-GPU gaan gebruiken. Voorlopig ben ik blij dat Nvidia nog van die brute single chips in de pipeline heeft.

anathema


Acties:
  • 0 Henk 'm!

  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Als ik die graphieken zo zie dan wordt het toch stillaan tijd dat ik mijn GT'jes inruil voor bijv. een GTX 295.... :9
Game ook op die reso. en het is niet meer te doen met de laatste nieuwe games en hoge instellingen..

[ Voor 3% gewijzigd door hosee op 15-01-2009 22:51 ]

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


Acties:
  • 0 Henk 'm!

Verwijderd

Bah, hebben ze toch weer op de koeler van de GTX285 zitten bezuinigen :(

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Ik denk dat het niet zo zeer een kwestie is van grote single chips vaarwel zeggen, maar meer een kwestie is van andere multi-GPU renderingmethodes verzinnen dan wel de techniek binnen de GPU zo in elkaar zetten dat micro-stuttering passé is. Wanneer dat goed voor elkaar is maakt het niet uit of je nou een grote GPU hebt of meerdere kleintjes.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
CJ schreef op donderdag 15 januari 2009 @ 23:00:
Ik denk dat het niet zo zeer een kwestie is van grote single chips vaarwel zeggen, maar meer een kwestie is van andere multi-GPU renderingmethodes verzinnen dan wel de techniek binnen de GPU zo in elkaar zetten dat micro-stuttering passé is. Wanneer dat goed voor elkaar is maakt het niet uit of je nou een grote GPU hebt of meerdere kleintjes.
Dat bedoel ik inderdaad. Bijvoorbeeld met shared memory, al iets bekend wanneer nvidia of ATI hiermee op de proppen komt? Ik hoop bij de eerste DX11 kaarten.

anathema


Acties:
  • 0 Henk 'm!

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 22:54
Na wat reviews te hebben gelezen van de GTX285 ben ik op zich wel verkocht. Hij mag dan wel 50% meer kosten dan een HD4870 voor een paar extra framepjes (Ik draai voornamelijk hoge resoluties 1920*1080, 1920*1200, 2560*1600, 5120*1600). Maar wat de kaart eigenelijk zich zelf aan mij heeft verkocht is het relatief lage stroom verbruik in 'Idle' (en daar ook mee de warmte afgifte relatief laag is in idle), het is een stuk lager dan een HD4870 (maar onder full load verbruikt hij weer meer). En zo te zien ook minder dan m'n 8800GTS640.

Ik heb m'n 'workstation', als ik thuis ben, over het al gemeen aan staan (ja, ik gebruik hem echt zo veel, ik ben een nerd ;-). Ik heb echter niet al die tijd games of 3D-applicaties draaien, dus m'n kaart doet de meeste van de tijd niet alles wat hij kan, als hij dan relatief weinig stroom verbruikt maakt me dat erg blij. Niet alleen wordt stroom jaarlijks duurder, een hoop van dat stroomverbruik wordt omgezet in warmte. Op een warme zomerdag, na 16 uur je PC aan te hebben gehad, kan het aardig warm zijn op een computer/slaap kamer.

Had voor afgelopen zomer een E2200, 2GB, WD500GP en een ATI 1550 aangeschaft/gebruikt om de warmte afgifte te beperken, maar ik ben niet zo te spreken over de performance van de GPU (waarschijnlijk naar een E6400) of de GPU (stotert een beetje op 2560*1600 tijdens het browsen, maar dat zou wellicht aan de CPU kunnen liggen). Vind ik dan toch weer erg jammer dat ik m'n snelle SSDs moet missen (wordt een beetje duur om het dubbel uit te voeren).

Ik ben alleen nog aan het overwegen welke GTX285 kaart ik neem, in iedergeval geen OC versie (meer stroom verbruik). Ik zit te twijfelen tussen een EVGA en een BFG, voornamelijk voor hun inruil programma (scheelt relatief weinig geld met de concurentie). Ik ben echter benieuwd wat de ervaringen zijn met die inruil acties. Waar stuur ik die kaart naar toe en moet ik dan ook nog de retour verzendkosten betalen? Hoe lang zit je dan zonder video kaart? En het lijkt me dan nog een relatief dure aangelegenheid (afhankelijk waar je het naartoe stuurt). Ook niet belangrijk om te weten, komt er nog binnen de komde 90 dagen een nVidia kaart uit (single GPU) die 'beter' is dan de GTX285? Ik had wat gelezen over een 212 serie in Q2 van 2009, maar weet niet wat ik hier van moet verwachten, de 300 serie haal ik niet binnen 90 dagen...

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

De chipfabrikant die het voor elkaar weet te krijgen meerdere chips in games te laten werken als 1 chip, zonder CF of SLi profielen ofzo, gaat heel, héél veel kaarten verkopen.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Verwijderd schreef op donderdag 15 januari 2009 @ 22:51:
Bah, hebben ze toch weer op de koeler van de GTX285 zitten bezuinigen :(
Que, wat, waar, neee :'( ?!

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Verwijderd

Tenminste, dat dacht ik toen ik dit las:
quote: HardOCP
Here you can see the EVGA GTX 285 SSC (top) in comparison to a GTX 280 (bottom.) Note that on the back the GTX 285 has no covering. When comparing weight, the GTX 285 is much lighter than the GTX 280; it is very noticeable.
Later blijkt wel dat hij koeler draait, maar er wordt bij de temp meting weer niks gezegd over de fanspeed :@. En omdat bij de GTX260 55nm er wel op de koeler is bezuinigd dacht ik dat het hier weer zo was, maar wellicht is dat niet zo.
Cergorach schreef op donderdag 15 januari 2009 @ 23:57:
Na wat reviews te hebben gelezen van de GTX285 ben ik op zich wel verkocht. Hij mag dan wel 50% meer kosten dan een HD4870 voor een paar extra framepjes (Ik draai voornamelijk hoge resoluties 1920*1080, 1920*1200, 2560*1600, 5120*1600). Maar wat de kaart eigenelijk zich zelf aan mij heeft verkocht is het relatief lage stroom verbruik in 'Idle' (en daar ook mee de warmte afgifte relatief laag is in idle), het is een stuk lager dan een HD4870 (maar onder full load verbruikt hij weer meer). En zo te zien ook minder dan m'n 8800GTS640.
Het lage idle verbruik trekt mij inderdaad ook wel. Minder stroomverbruik, fans die minder hard draaien (nogmaals besparing) en vooral: stiller :) . Nu de koudste periode weer voorbij is ga ik weer terug naar een zuinige kaart :P
Cergorach schreef op donderdag 15 januari 2009 @ 23:57:Ik ben alleen nog aan het overwegen welke GTX285 kaart ik neem, in iedergeval geen OC versie (meer stroom verbruik). Ik zit te twijfelen tussen een EVGA en een BFG, voornamelijk voor hun inruil programma (scheelt relatief weinig geld met de concurentie). Ik ben echter benieuwd wat de ervaringen zijn met die inruil acties.
Bij EVGA betaal je het verschil tussen wat je betaald hebt voor je eigen kaart (factuur inscannen :+ ) en de adviesprijs van de nieuwe kaart. Ofwel: je wordt zwaar genaaid, want de Europese adviesprijzen zijn idioot. Meestal zo'n 80-100 euro meer dan wat je bij een webshop betaald. Ik heb mijn EVGA 7800GT CO ingeruild voor een 7900GTX, vooral omdat de stom geregelde koeling van de 7800GT me tegen stond.
Bij EVGA: Naar Duitsland.
Cergorach schreef op donderdag 15 januari 2009 @ 23:57:en moet ik dan ook nog de retour verzendkosten betalen?
Bij EVGA: Ja; 12 euro.
Cergorach schreef op donderdag 15 januari 2009 @ 23:57:Hoe lang zit je dan zonder video kaart?
Bij EVGA: een week, all-in. Woensdag je kaart opsturen, woensdag erna heb je je nieuwe kaart binnen. Als je hem op maandag opstuurd zou je wel eens je kaart sneller kunnen hebben. Bij mij nam de TNT weer een riant weekend waardoor EVGA mijn kaart was de maandag daarop ontving. Een paar uur later kregen ze mijn betaling binnen en dezelfde middag werd mijn nieuwe kaart verstuurd per UPS.
Cergorach schreef op donderdag 15 januari 2009 @ 23:57:En het lijkt me dan nog een relatief dure aangelegenheid (afhankelijk waar je het naartoe stuurt).
Ja, maar een oude kaart die je net voor de introductie van de nieuwe gekocht hebt is na de introductie van de nieuwere kaarten veel minder waard. Dus op die manier bekeken is de upgrade niet zo duur. Feit is wel dat je bij step-up vaak nog een tijdje moet wachten (ze geven niet de eerste kaarten aan de step-up gevallen).
Cergorach schreef op donderdag 15 januari 2009 @ 23:57: Ook niet belangrijk om te weten, komt er nog binnen de komde 90 dagen een nVidia kaart uit (single GPU) die 'beter' is dan de GTX285? Ik had wat gelezen over een 212 serie in Q2 van 2009, maar weet niet wat ik hier van moet verwachten, de 300 serie haal ik niet binnen 90 dagen...
Daar geloof ik niks van. Sla de geruchten over de GT200b er maar eens op: "Ja, in september komt 'ie, absoluut"
En toen werd het 1 oktober: "GT200b rumored to be released end of the month".
En toen werd het november: "GT200b to be released before december"
En toen werd het december: "GT200b before Christmas"
En toen werd het kerst, lag alles op z'n gat voor twee weken en toen kwamen er concrete geruchten van 8 januari. Uiteindelijk werd het nog een weekje later, maar hij is er dan toch. De 55nm GTX260 was er welliswaar iets eerder, maargoed.

Q2 = april tm juni. Dus niet 1 April, zoals veel mensen denken / hopen!

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 16 januari 2009 @ 02:16:
Later blijkt wel dat hij koeler draait, maar er wordt bij de temp meting weer niks gezegd over de fanspeed :@. En omdat bij de GTX260 55nm er wel op de koeler is bezuinigd dacht ik dat het hier weer zo was, maar wellicht is dat niet zo.
Zal voor je kijken en denk dat ik ook wel even een reviewtje schrijf.
Het lage idle verbruik trekt mij inderdaad ook wel. Minder stroomverbruik, fans die minder hard draaien (nogmaals besparing) en vooral: stiller :) . Nu de koudste periode weer voorbij is ga ik weer terug naar een zuinige kaart :P
Dat was ook mijn reden om naar nVidea te kijken. Het liefst zo stil mogelijk maar toch een goede performance.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Vandaag op HWI een interessante uitzending over de GTX 285 en GTX 295. Geen nieuwe info verder, maar wel leuk om te bekijken en beide videokaarten in beeld.

http://www.hardware.info/..._en_295__CES_2009_nieuws/

[ Voor 6% gewijzigd door frankknopers op 16-01-2009 17:34 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

monster kaart , echt, dat ding past volgens mij nog niet eens in mijn dell kast

Acties:
  • 0 Henk 'm!

  • kiddyl
  • Registratie: April 2000
  • Niet online
Verwijderd schreef op vrijdag 16 januari 2009 @ 02:16:
Tenminste, dat dacht ik toen ik dit las:


[...]


Later blijkt wel dat hij koeler draait, maar er wordt bij de temp meting weer niks gezegd over de fanspeed :@. En omdat bij de GTX260 55nm er wel op de koeler is bezuinigd dacht ik dat het hier weer zo was, maar wellicht is dat niet zo.


[...]
De nieuwe kaarten hebben geen memory chips meer op de achter kant die gekoeld moeten worden. Een metalen backplate is daardoor overbodig geworden. Daar komt de gewichtsbesparing vandaan.

PV: 27kWp | WP: Adlar Aurora II 6kw


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Nieuwe drivers:

181.22 beta. Zit een Fallout 3 fix in. Die crashte met de 181.20 WHQL. Ook extra Mirrors Edge optimalisaties.

Edit, releasenotes:
Multi-GPU Issues
• [SLI]: Fallout3–the game crashes in some game maps when played at high
resolutions (1440x900 or higher) and high settings. [500665]
• [SLI], S.T.A.L.K.E.R.: Clear Sky Benchmark–added an SLI profile for the
application.[506981]
• GeForce GTX 295: Occasionally, only one GPU is recognized as supporting CUDA
and PhysX after the system is rebooted. [506018]

Fixed Issues–Windows Vista 64-bit

Multi-GPU Issues
• [SLI]: Fallout3–the game crashes in some game maps when played at high
resolutions (1440x900 or higher) and high settings. [500665]
• [SLI], S.T.A.L.K.E.R.: Clear Sky Benchmark–added an SLI profile for the
application.[506981]


The following are features that are not currently supported or have limited support in this driver release:
• NVIDIA SLI Antialiasing
• NVIDIA Control Panel Display Category
• The Graph tab on the Adjust Desktop Color Settings page is not available.

This is a beta driver for GeForce 6, 7, 8, 9, and 200-series desktop GPUs. The release complements the Mirror’s Edge release, with PhysX support.

* This driver is recommended for the optimal GPU PhysX experience in EA’s hot PC title Mirror’s Edge.
* GPU PhysX is supported on all GeForce 8-series, 9-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory. This driver package automatically installs PhysX System Software version 9.09.0010.
Klik om te downen:

Vista 64
Vista 32
XP

:)

[ Voor 69% gewijzigd door Format-C op 16-01-2009 20:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ik dacht heel even HUH? Maar toen zag ik dat het een typefoutje was. ;) Het is dus 181.22 beta.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ja, thanks voor de oplettendheid.

Goeie drivers. :) Net even getest. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 22:54
@jcvjcvjcvjcv:
Bedankt voor de informatie, ik zie dan toch af van zo een inruil programma (scheelt toch weer €40, ben voor een Gigabyte gegaan).

Ik ben net eens het wattage verbuik van m'n PC gaan meten en schrok er toch wel van dat het 235-240W trekt als ik alleen al aan het internetten ben (een 720p filmpje kijken is ~10W extra). Als ik twee EVE online clients open heb staan shiet het door naar 300-305W, als ik deze minimaliseer is het verbruik ~285W (met uitschieters naar 275W en 295W). Nu ga ik er morgen nog twee raptors uitslopen en vervangen de een 1TB WD GT schijf, dat zou ook nog eens 10W moeten schelen (gebruik 2x 16GB Mtron in RAID0 als OS schijf en applicatie schijf). Ik hoop dat met de GTX285 het verbruik een stuk naar beneden gaat als ik alleen aan het internetten of film aan het kijken ben. Nu nog een Q9550s en hopelijk een wat zuiniger moederbord, dan ben ik wat groener bezig ;-)

Acties:
  • 0 Henk 'm!

Verwijderd

Weet iemand of de mounting holes van de gtx285 overeenkomen met de gtx280? Dit is erg lastig in te schatten vanaf foto's

Acties:
  • 0 Henk 'm!

Verwijderd

Cergorach schreef op vrijdag 16 januari 2009 @ 22:36:
@jcvjcvjcvjcv:
Bedankt voor de informatie, ik zie dan toch af van zo een inruil programma (scheelt toch weer €40, ben voor een Gigabyte gegaan).

Ik ben net eens het wattage verbuik van m'n PC gaan meten en schrok er toch wel van dat het 235-240W trekt als ik alleen al aan het internetten ben (een 720p filmpje kijken is ~10W extra). Als ik twee EVE online clients open heb staan shiet het door naar 300-305W, als ik deze minimaliseer is het verbruik ~285W (met uitschieters naar 275W en 295W). Nu ga ik er morgen nog twee raptors uitslopen en vervangen de een 1TB WD GT schijf, dat zou ook nog eens 10W moeten schelen (gebruik 2x 16GB Mtron in RAID0 als OS schijf en applicatie schijf). Ik hoop dat met de GTX285 het verbruik een stuk naar beneden gaat als ik alleen aan het internetten of film aan het kijken ben. Nu nog een Q9550s en hopelijk een wat zuiniger moederbord, dan ben ik wat groener bezig ;-)
Ach jah :P veel upgraden is dan weer niet zo milieubewust. Is altijd wel wat van te zeggen ;)

Acties:
  • 0 Henk 'm!

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 22:54
Verwijderd schreef op zaterdag 17 januari 2009 @ 12:15:
Ach jah :P veel upgraden is dan weer niet zo milieubewust. Is altijd wel wat van te zeggen ;)
Ik moet zeggen dat ik redelijk lang heb gedaan met m'n 8800GTX640, namelijk drie jaar. Daarvoor en 6800 nogwat, daarvoor een 9700pro ;-)

Acties:
  • 0 Henk 'm!

Verwijderd

Eh nee, want de 8800GTS 640MB is er nog geen eens drie jaar. Mijn 7900GTX die ik eind december vervangen heb was van februari 2006...

Acties:
  • 0 Henk 'm!

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 22:54
Verwijderd schreef op zaterdag 17 januari 2009 @ 16:27:
Eh nee, want de 8800GTS 640MB is er nog geen eens drie jaar. Mijn 7900GTX die ik eind december vervangen heb was van februari 2006...
Gekocht bij Komplett: 12/1/2006, dacht dat het 12 januari was, maar blijkt dus 1 december te zijn, whoops! (meteen maar eens m'n advertentie aanpassen...)

Acties:
  • 0 Henk 'm!

  • SmokeyTheBandit
  • Registratie: November 2000
  • Laatst online: 23-08 06:56

SmokeyTheBandit

DOCer met Pensioen

Verwijderd schreef op zaterdag 17 januari 2009 @ 11:22:
Weet iemand of de mounting holes van de gtx285 overeenkomen met de gtx280? Dit is erg lastig in te schatten vanaf foto's
PCB is compleet anders, mounting holes kunnen overeen komen maar het plaatsen van 280 waterblok is een absolute no-go.

PWM gedeelte is compleet anders en ook heeft de 285 aan de achterkant geen ram chips zitten.

Turn it off and on again.


Acties:
  • 0 Henk 'm!

Verwijderd

Afbeeldingslocatie: http://www.arctic-cooling.com/pics/products/202_big.jpg

de Accelero Xtreme GTX280, compatible met de gtx285 volgens de website van Artic Cooling

Acties:
  • 0 Henk 'm!

  • Rob1106
  • Registratie: November 2004
  • Laatst online: 22-04-2024
Verwijderd schreef op zondag 18 januari 2009 @ 16:00:
[afbeelding]

de Accelero Xtreme GTX280, compatible met de gtx285 volgens de website van Artic Cooling
freezinghardware zei dat ze hem binnen 2 weken verwachten (echter niet met zekerheid).

Core i7 920 | Asus P6T Deluxe V2 | OCZ 6GB | EVGA 260GT 216c | OCZ Vertex 3 60GB | WD vRaptor 150GB | Adaptec 5805 - RAID5: 5,4TB | Lian-Li PC-A7110


Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
Tja als je een intel quadcore hebt ben je sowieso niet zuinig.
Kan je wel over de videokaart lopen miepen, maar je kan beter een duelcore nemen dat scheelt veel meer (of amd quadcore phenom2). Daarbij kan je de Ati's nog mega ondervolten

Ik draai nu bijna net zo zuinig als met een amd athlon x2 helemaal omlaag gevolt +1900xt
en heb nu een overklokte e8400 op 4ghz (kan idle niet laag = -punt) en een hd4850 (ondervolten ervan scheelt 20w op stock)

Als je zuinig wilt neem je AMD, moederbord is (veeeel) zuiniger, cpu is idle veel zuiniger en GPU ook met een kleine inspanning van jezelf.

Nukezone FTW


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
CJ schreef op dinsdag 13 januari 2009 @ 19:06:
Wat financieel nieuws... het schijnt dat nV de winstverwachtingen met zo'n 40 a 50% heeft bijgesteld voor Q408.


[...]


BRON

Ook The Inq heeft er iets over te zeggen: http://www.theinquirer.ne...idia-revises-q4-forecasts

40-50% is geen kattepis en ze geven dus o.a. de geringe vraag naar videokaarten door de end-user de schuld. Ben benieuwd of AMD daar ook last van had. Het artikel noemt het 'weak' maar dit is veel meer dan zwak... een 40 tot 50% lagere verwachting in een kwartaal die traditioneel gekenmerkt wordt door hoge verkopen is een zware tegenslag voor NV. Ze hadden de 55nm GPUs hard nodig in Q4, maar die kwam dus helaas te laat om dat kwartaal nog te kunnen redden. Wellicht dat Q109 beter voor ze gaat.
Om hier nog even op terug te komen, nVidia is niet de enige die getroffen werd. Zo heeft Intel het laatste kwartaal haar winst met 90% zien zakken (!), en heeft AMD wederom met verlies afgesloten. Er komt weer personeel op straat te staan (9%) en er wordt zelf gesneden in de salarissen van werknemers en managers.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 14-09 19:00
pricewatch: MSI N280GTX-T2D1G-SUPER OC

MSI 280GTX Super OC voor 279 euro.

Acties:
  • 0 Henk 'm!

  • Bejit
  • Registratie: Februari 2005
  • Laatst online: 12-09 18:07

Bejit

Svenska Faderland

Thanks, gelijk een besteld :)

Systeempje


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Dacht dat nvidia altijd zo goed was met drivers.. UT3 crasht om de haverklap met 181.22 + MSI GTX280 OC. Zie in fora dat het aan de 181 serie drivers ligt. Iemand een tip voor een goede driver die wel stabiel en snel met alles werkt? (Of een fix?).

anathema


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
http://downloads.guru3d.c...--NVIDIA-GeForce-Vista-32|64_c32.html

Uit deze lijst eens een andere proberen?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Mektheb
  • Registratie: December 2006
  • Laatst online: 00:10
Morgen komt mijn Zotac GTX285 binnen

Ben van plan even een mooie revieuw te maken kwa geluid , prestatie 3dmark , geluid etc
dus die post ik in pricewatch natuurlijk :)
post wel ff een link zodra ik klaar ben

[ Voor 96% gewijzigd door Mektheb op 20-01-2009 17:17 ]


Acties:
  • 0 Henk 'm!

  • Cergorach
  • Registratie: Mei 2000
  • Laatst online: 22:54
Twee Raptors er uit gehaald van het weekend en verbruikte tijdens het internetten nog maar ~220W. Net m'n 8800GTS640 vervangen door een GTX285 en verbruik tijdens het internetten nog maar 200-205W. Een besparing van 15-20W is niet echt veel te noemen... Maar 17.5W*16*365= 102KW (in het ergste/beste geval) op jaar basis, scheelt toch wel weer een paar tientjes per jaar.

Ik zit inderdaad ook een Phenom II x4 te overwegen of een nieuwe Q9550s (TDP van 65W ten opzichte van m'n huidige Q6600 met een TDP van 105W). Ben even aan het wachten op de reviews van de Q9550s... Ik zou best een zuiniger systeem in elkaar kunnen zetten met een dual core, dat heb ik dan ook al gedaan, maar het is niet voor niets een workstation.

Acties:
  • 0 Henk 'm!

  • FutureCow
  • Registratie: December 2000
  • Laatst online: 15-09 16:53

FutureCow

(C) FutureCow

Wanneer komt nVidia weer met nieuwe mid-low range kaarten? Wil een leuke update voor mijn HTPC maar zit nu eerder te denken aan een HD4550 dan een 9500/9600. Komt er van de GT200 serie nog kleine kaartjes? of wordt dat pas de GT300(Q4 2009)?

Acties:
  • 0 Henk 'm!

  • trueKAMi
  • Registratie: Juni 2008
  • Niet online
Mektheb schreef op dinsdag 20 januari 2009 @ 17:07:
Morgen komt mijn Zotac GTX285 binnen

Ben van plan even een mooie revieuw te maken kwa geluid , prestatie 3dmark , geluid etc
dus die post ik in pricewatch natuurlijk :)
post wel ff een link zodra ik klaar ben
Ik lees je review graag straks, ik ben namelijk van plan em zeer binnenkort ook te kopen en ben wel erg benieuwd of alle positieve dingen waar je overal over hoort ook zo door een tweaker worden ervaren!
(Maar eerst maar eens mijn voeding vervangen, denk niet dat een standaard HP voeding een GTX285 gaat trekken :+ :X )

Nog een vraagje btw: weet iemand hier uit zijn hoofd of het verschil in PCI-e 1 en 2 erg groot is? Ik weet dat PCI-e 2 de dubbele bandbreedte heeft, maar heeft dat ook daadwerkelijk zo'n grote impact op de prestaties, of is het slechts theoretisch en scheelt het hooguit 2% aan daadwerkelijke prestaties?

"With a hammer like this, every problem looks like a nail!"


Acties:
  • 0 Henk 'm!

  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 09-07 22:10
Palit cuts Nvidia GPU orders

Graphics card manufacturer Palit Microsystems recently cut orders for about 400,000 Nvidia GPUs for first quarter of 2009 due to high inventory levels, according to industry sources. Inventory pile-up at graphics card makers from the second half of 2008 is expected to affect Nvidia's fiscal first quarter 2009 performance.

Nvidia has lowered its fourth-quarter (ended January 25, 2009) revenue guidance to a 40-50% sequential decline due to inventory reductions by its channel partners in the global PC supply chain.

Prior to Palit's order cuts, graphics card makers Asustek Computer, Micro-Star International (MSI), Gigabyte Technology and PC Partner have also reduced orders with Nvidia, according to the sources. Nvidia is estimated to have lost orders of almost 1.5 million GPUs, said the sources.

Nvidia declined the opportunity to comment.

Source

Acties:
  • 0 Henk 'm!

  • Rob1106
  • Registratie: November 2004
  • Laatst online: 22-04-2024
Daar komen de goedkope videokaarten :P. Neem aan dat dit last minute cancellations zijn. Oftewel die dingen zijn grotendeels al geproduceerd...

Core i7 920 | Asus P6T Deluxe V2 | OCZ 6GB | EVGA 260GT 216c | OCZ Vertex 3 60GB | WD vRaptor 150GB | Adaptec 5805 - RAID5: 5,4TB | Lian-Li PC-A7110


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
trueKAMi schreef op woensdag 21 januari 2009 @ 10:46:
[...]


Nog een vraagje btw: weet iemand hier uit zijn hoofd of het verschil in PCI-e 1 en 2 erg groot is? Ik weet dat PCI-e 2 de dubbele bandbreedte heeft, maar heeft dat ook daadwerkelijk zo'n grote impact op de prestaties, of is het slechts theoretisch en scheelt het hooguit 2% aan daadwerkelijke prestaties?
Voor dual kaarten zijn er hier en daar wel wat reviews te vinden dat het uitmaakt. Voor single kaarten is 16 X PCI-e 1.1 meer dan snel genoeg voor zover ik weet. Mijn GTX280 OC draait in ieder geval volgens verwachting op mn P35 bord met PCI-e 1.1.

anathema


Acties:
  • 0 Henk 'm!

  • TTD
  • Registratie: Februari 2004
  • Laatst online: 15-09 00:22

TTD

Modbreak:Dit heeft niets met nVidia nieuws of discussie te maken. Voor shops is de Shopsurvey van de Pricewatch en om te bespreken is er het [topic=Shopping Forum]Shopping Forum[/url].
En ik kan je zeggen dat 4AllClients volgens mij niet zonder reden uit die eerste verdwenen lijkt te zijn...

[ Voor 85% gewijzigd door Ultraman op 23-01-2009 02:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Rob1106 schreef op maandag 19 januari 2009 @ 00:34:
[...]

freezinghardware zei dat ze hem binnen 2 weken verwachten (echter niet met zekerheid).
Ik zie hem niet staan op de website, weet jij of je een pre-order kan plaatsen?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Opvallend:
meuk: Nvidia GeForce 181.22 bèta
20 januari 2009

meuk: Nvidia GeForce 181.22 WHQL
22 januari 2009

Er zit misschien nog een beetje extra tijdsvertraging tussen, maar... hoe kan het dat nV twee driversets lanceert binnen twee/drie dagen? Een WHQL-procedure duurt wel een tandje langer dan dat. Twee mogelijkheden dus:

- nVidia heeft de WHQL-drivers alláng naar MS gestuurd. Waarom dan 2 dagen vantevoren nog een beta?
- nVidia heeft voorrang bij WHQL-certificering.

Discuss.

Acties:
  • 0 Henk 'm!

Verwijderd

Installeren jullie zo'n nieuwe drivers trouwens gewoon over de oude heen? Ik deinstalleer altijd eerst de vorige, gebruik dan nog eens Driver Sweeper en dán installeer ik pas de nieuwe. Maar ik vind dat wel een gedoe... Kan het nou echt kwaad om gewoon hopla de nieuwe driver over de oude heen te plempen?

Heb gisteren trouwens m'n nieuwe GTX285 (samen met een i7 920) getest met Vantage. 3DMark Vantage score was 105060... en de GPU was iets van een dikke 8500. Lijkt me nogal laag... Jammergenoeg kon ik de scores niet vergelijken met andere scores omdat ik een te nieuwe driver gebruik. :X En op internet is vergelijkings materiaal moeilijk te vinden omdat dat allemaal overklokte resultaten zijn en ik allereerst alles op stock goed heb willen draaien. Iemand anders hier met een GTX285 en een i7 920 (stock) die al eens wat getest heeft?

[ Voor 46% gewijzigd door Verwijderd op 23-01-2009 08:46 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Installeren jullie zo'n nieuwe drivers trouwens gewoon over de oude heen? Ik deinstalleer altijd eerst de vorige, gebruik dan nog eens Driver Sweeper en dán installeer ik pas de nieuwe. Maar ik vind dat wel een gedoe... Kan het nou echt kwaad om gewoon hopla de nieuwe driver over de oude heen te plempen?
Ik installeer er altijd over, nog nooit problemen met gehad.
Heb gisteren trouwens m'n nieuwe GTX285 (samen met een i7 920) getest met Vantage. 3DMark Vantage score was 105060...
Een GTX285 met een i7 965 haalt doorgaans zo'n 14 000 punten.
3DMark Vantage score was 105060... en de GPU was iets van een dikke 8500. Lijkt me nogal laag...
Een i7 920 zou toch minstens 9000 punten moeten scoren.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • GWBoes
  • Registratie: Juni 2007
  • Nu online
Jejking schreef op vrijdag 23 januari 2009 @ 02:07:


- nVidia heeft de WHQL-drivers alláng naar MS gestuurd. Waarom dan 2 dagen vantevoren nog een beta?
- nVidia heeft voorrang bij WHQL-certificering.

Discuss.
Ik denk dat de WHQL versie al bijna gecertificeerd was toen de beta uit werd gebracht maar aangezien er spellen (fallout 3 als voorbeeld) helemaal niet werkte met de 181.20 drivers hebben ze eerst de beta maar uitgebracht om het publiek tevreden te stellen. Misschien waren deze beta drivers ook al wel eerder uitgedeeld aan mensen die contact hadden opgenomen met de helpdesk.

Flickr - Strava


Acties:
  • 0 Henk 'm!

Verwijderd

Wat misschien niet goed uit de fotos komt is dat die kaarten wel de volle lengte zijn en je wel moet oppassen voor ruimte (en airflow) in je kast.

En er werd al eerder gezegd dat de GTX285 lichter zou zijn dan de GTX280 maar die Asus is qua gewicht ook nog fors en het metalen frame is nog redelijk massief. En dat is dan wel prettig dat de koeling nog redelijk goed is uitgevoerd want hij is nog best wel stil. (En me dunkt ook nog wel wat te OC'en)

Vraag me trouwens wel af waarom er 2x een 6pins voeding op die kaart zit. Misschien omdat hij toch niet genoeg amperes door 1 12v voeding aankon? (Ben ik dus ook blij dat ik m'n voeding ook geupgraded)

Qua prestatie kan ik nu wel Crysis normaal spelen (Ipv een 8800GTS) met eyecandy aan zeg maar.
Reviewtje komt nog wel maar wil eerst even wat meer ervaring op doen.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

GWBoes schreef op vrijdag 23 januari 2009 @ 10:50:
[...]


Ik denk dat de WHQL versie al bijna gecertificeerd was toen de beta uit werd gebracht maar aangezien er spellen (fallout 3 als voorbeeld) helemaal niet werkte met de 181.20 drivers hebben ze eerst de beta maar uitgebracht om het publiek tevreden te stellen. Misschien waren deze beta drivers ook al wel eerder uitgedeeld aan mensen die contact hadden opgenomen met de helpdesk.
Dat zou kunnen, alhoewel ik het niet eens ben met de gedachte achter je ''misschien''. Zou jij een driverset krijgen als je even naar nVidia belde? Ik dacht het niet.

Iets anders interessants voor ''groene'' mensen:

nieuws: Evga onthult tooltje om spanning van videokaarten te tweaken
EVGA-medewerker Jacob Freeman kondigde de EVGA Voltage Tuner aan op het forum van het bedrijf. Met de software kan de standaardspanning van 1038mV worden aangepast naar een minimum van 450mV en een maximum van 1350mV. De kaarten kunnen dus ook ondergeklokt worden, wat met name interessant is om het energieverbruik omlaag te brengen. De meeste gebruikers zullen echter vooral geïnteresseerd zijn in het overklokken van hun videokaart. Dat zou met het programma zonder risico kunnen geschieden: Freeman wist te melden dat het gebruik van de nieuwe software geen invloed op de garantie heeft.
Voor de GTX2xx-series dus.

[ Voor 6% gewijzigd door Jejking op 23-01-2009 12:59 ]


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
Edit: nvm

[ Voor 90% gewijzigd door EdwardvGelder op 23-01-2009 14:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op vrijdag 23 januari 2009 @ 09:40:
Een GTX285 met een i7 965 haalt doorgaans zo'n 14 000 punten.


[...]


Een i7 920 zou toch minstens 9000 punten moeten scoren.
Ha! Ik ben erachter. Denk ik. Het blijkt dat ik de verkeerde driver-instellingen had... Ik had alles al ingesteld (Global) voor FSX, zoals FSAA op Combined 8x and Vsyn aan, etc. Veel quality dus! Maar het schijnt dat je de driver moet instellen op performance. Daarnaast heb ik alvast C1E en EIST uitgezet in het BIOS en ook PhysX in de driver (tijdelijk voor de test). En nu zijn mijn scores:

Vantage 12919
CPU 17570
GPU 11871

Dat lijkt er meer op! Die scores zijn zowat gelijk aan wat iemand anders hier vond:

http://forums.slizone.com/index.php?showtopic=32005

Dus after all lijkt alles goed te werken en had ik gewoon verkeerd getest...

Acties:
  • 0 Henk 'm!

  • CDRK
  • Registratie: September 2008
  • Laatst online: 17-08 10:13
ik heb beide geinstalleerd, zou je kunnen uitleggen wat ik precies moet doen? GPU-Z lijkt automatisch te gaan..kan dat kloppen?

Stay Frosty!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
CDRK schreef op zondag 25 januari 2009 @ 22:29:
ik heb beide geinstalleerd, zou je kunnen uitleggen wat ik precies moet doen? GPU-Z lijkt automatisch te gaan..kan dat kloppen?
Doe met ATiTool een Scan for Artifacs en kijk bij GPU-z in het kopje sensors volgens mij naar de temp.
Niet zo moeilijk toch? ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • CDRK
  • Registratie: September 2008
  • Laatst online: 17-08 10:13
Atitools http://img441.imageshack.us/img441/7286/atitoolsxv5.jpg

Dit is al vreemd, hij geeft gelijk al een foutmelding aan. En dit klopt maar dit vond ik ook zowieso al zo vreemd dat mijn laptop/kaart 2 beeldschermen aangeeft, terwijl ik voor de rest geen beeldscherm/tv heb aangesloten, klopt dit wel?

GPU-Z http://img136.imageshack.us/img136/3219/gpuzpi5.jpg
Hier geeft hij dus 82 graden aan..


ja mijn fout, ik zag dattie met GPU al bezig was, alleen met Atitools gaf die dus een fout aan. en heb maar ff een screenie van mijn bureaublad gemaakt zodat het niet al te saai word ;P

[ Voor 18% gewijzigd door CDRK op 25-01-2009 22:43 ]

Stay Frosty!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je kan inplaats van ATiTool ook rthdribl of Furmark proberen. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!