[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 43.157 views

Acties:
  • 0 Henk 'm!

Verwijderd

Bij Anandtech testen ze Age of Conan met AA erbij.En dan nog leverd het belachelijke lage framerates op.

Quake wars idem: weer getest met AA

Ik denk verder dat jouw en mijn opvatting over wat speelbaar is nogal verschillen. Framedrops komen altijd op het vervelendste moment, dus daar moet je er zo min mogelijk voor hebben. En vaak betekend dat lager zetten en dat helpt het gemiddelde vaak flink omhoog.

Verder speel ik eigenlijk alleen maar multiplayer, wat dus veel zwaarder is.

Ik heb een bril, die draag ik bijna altijd als ik wakker ben. Alleen onder het douchen niet, bij de kapper niet en als ik heel dicht op m'n laptop zit (want dan kan ik het scherp zien zonder bril).

Tja, de kartelrandjes: lelijk inderdaad. Maar ik de games niet voor de graphics. Ik speel een game omdat ik de gameplay leuk vind of omdat er veel teamwork bijzit, wat leuk is om met vrienden te spelen.

Zo speel ik de laatste tijd weer veel Age of Empires omdat ik dat gewoon ontzettend leuk vind om 2 tegen 2 te spelen. Verder nog wat Battlefield 2 (:SF), wat ik ook heel veel gespeeld heb. En voor BF2 voldoet een 7900GTX net op 1600x1200 :) . En ja, ik speel hem zonder AA. Ik haal liever m'n KDR wat omhoog dan dat ik strakke randjes zie :X

Call of Duty gaat ook nog wel op een lagere resolutie, maar Rainbow Six Vegas 2 gaat echt voor geen meter. En dat boeit me ook niet zo heel erg, want ik vind het toch niet zo leuk.

Ik gok dat als BF3 er komt ik m'n systeem weer flink ga upgraden. Zolang er geen game is waarvan ik en m'n vrieden zeggen "Dat is het!" (en die ook nog zwaar is), dan ga ik niet upgraden.

Derhalve wint de GTX260 dus wel in mijn definitie.

Combineer dat met het lagere energieverbruik en ik kies dus de GTX260 boven de HD4870.

Hier, uit jouw Anandtech review:

Afbeeldingslocatie: http://images.anandtech.com/graphs/1gb4870_092408101853/17399.png

Voor die 40W kun je 80 euro op jaarbasis besparen bij 24/7. Bij 6 uur per dag nog steeds 20 euro, wat 40 euro op de levensduur van de kaart is. Na, die stop ik dan liever ergens anders is. :+

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
Verwijderd schreef op dinsdag 14 oktober 2008 @ 01:51:

Combineer dat met het lagere energieverbruik en ik kies dus de GTX260 boven de HD4870.

Hier, uit jouw Anandtech review:

[afbeelding]

Voor die 40W kun je 80 euro op jaarbasis besparen bij 24/7. Bij 6 uur per dag nog steeds 20 euro, wat 40 euro op de levensduur van de kaart is. Na, die stop ik dan liever ergens anders is. :+
Voor mij is Afbeeldingslocatie: http://images.anandtech.com/graphs/1gb4870_092408101853/17400.png veel belanrijker, omdat ik mijn eigen 2D config gebruik, de 2D modus heeft ATi niet zo veel aandacht aan besteed, maar daar heb ik persoonlijk geen last van, als tweaker O-) .

(PS: Pappie betaald de stroom 8)7)

We kunnen hier eeuwig over door gaan, het ging mij er vooral om dat je je standpunten moet onderbouwen. Vooral over dit soort onderwerpen waar toch geen einde aan komt.

[ Voor 9% gewijzigd door Paprika op 14-10-2008 01:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op dinsdag 14 oktober 2008 @ 01:56:
[...]

Voor mij is [afbeelding] veel belanrijker, omdat ik mijn eigen 2D config gebruik, de 2D modus heeft ATi niet zo veel aandacht aan besteed, maar daar heb ik persoonlijk geen last van, als tweaker O-) .

(PS: Pappie betaald de stroom 8)7)

We kunnen hier eeuwig over door gaan, het ging mij er vooral om dat je je standpunten moet onderbouwen. Vooral over dit soort onderwerpen waar toch geen einde aan komt.
Lekker ego...

Betaald ie ook je airco?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
Alles, ik weet niet hoe het bij jou thuis was, maar hij zeurt nooit over de stroom inderdaad.

Acties:
  • 0 Henk 'm!

Verwijderd

Eigenlijk werk pure video ook helemaal niet he,
Bij wie werkt het eigenlijk wel perfect? ik heb het nooit goed aan de praat gekregen hoor. Ook omdat wmp heel weinig formaten kan afspelen. Ze moeten vlc supporten dat is het beste programma wat er is op video afspeel gebied.
Hoe speel je dan een .mkv bestand af?

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 15:19
PureVideo :') Eerst software kopen om een functionaliteit van m'n videokaart te gebruiken voor iets wat ik sowieso al bijna nooit gebruik :P

Maar je moet dus geen codecs installeren volgens NVIDIA (sowieso al klote imho), vervolgens kun je gewoon in PowerDVD hardware acceleration aanzetten en dan zou het als het goed is moeten werken. Moet je wel kijken welke PowerDVD, want ze kunnen niet allemaal met HD (.mkv) bestanden overweg.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 14 oktober 2008 @ 18:39:
Eigenlijk werk pure video ook helemaal niet he,
Bij wie werkt het eigenlijk wel perfect? ik heb het nooit goed aan de praat gekregen hoor. Ook omdat wmp heel weinig formaten kan afspelen. Ze moeten vlc supporten dat is het beste programma wat er is op video afspeel gebied.
Hoe speel je dan een .mkv bestand af?
Haha, idem dito hier :+

Al zuigt de huidige VLC wel. Duurt tien keer langer om op te starten en de volumecontrol van m'n laptop wil niet werken als het VLC window in geselecteerd.

Maar voor zover ik weet moet je PowerDVD of WinDVD hebben ofzo.

Misschien werkt Nero Showtime er ook nog wel mee.

In ieder geval. Het is allemaal wel vaag. nVidia verkoopt zelf ook nog het een en ander, maar heb je dat nou wel of niet nodig? :?

[ Voor 12% gewijzigd door Verwijderd op 14-10-2008 23:28 ]


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

VLC vind ik maar een irritant programma.
Ik gebruik veel liever Media Player Classic in combinatie met het Combined Community Codec Pack, de enige bestanden die deze combinatie niet afspeelt zijn QuickTime bestanden en MPC heeft soms wat moeite met DVD menu's (maar VLC heeft dat ook terwijl Windows Media Player juist hier wel goed zijn werk doet).

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Oh yeah baby, het volgende hoofdstuk in de nVidia Package rel is een feit:
NVIDIA GPU Problems Come to the Desktop

HP is reporting that issues with NVIDIA GPUs are affecting 38 models of their slimline PC range.
Actie: 12 maanden extra garantie.

Zouden de ''gevonden notities'' van The'Inq dan toch waar zijn? :z

Bron: http://technologyexpert.b...lems-come-to-desktop.html


Enne, gaat ons weer ontopic? Een codecdiscussie hoort hier niet thuis ;)

[ Voor 9% gewijzigd door Jejking op 15-10-2008 12:02 ]


Acties:
  • 0 Henk 'm!

  • Joep
  • Registratie: December 2005
  • Laatst online: 21:23
Vandaag zal nVidia als het goed is haar langverwachte MCP7a chipset uitbrengen. Er wordt gespeculeerd dat de IGP van deze chipset de grafische prestaties van HD3200/3300 zal evenaren/overtreffen. Hoewel ik dat ernstig betwijfel is het ook nog maar de vraag of ze hier gewoon de 3DMark score mee bedoelen. Aangezien nVidia de CPU-score beïnvloedt door hun physics, is de 3DMark score niet betrouwbaar. De GeForce 9300/9400 hebben in ieder geval qua grafische performance veel in te halen t.o.v. de HD3200/3300.

Gelukkig is de UVD die in de MCP7a chipset zit, naar verluidt beter dan die van de 780G/790GX chipset. De MCP7a ondersteunt naast DDR2 ook DDR3, heeft waarschijnlijk HybridPower en is bedoeld voor socket 775.

Dit betekent dat het eindelijk mogelijk is om de beter overclockbare Core 2 Duo's te combineren met een goedkope en fatsoenlijke IGP. Dit zal Intel en nVidia in staat stellen om beter met AMD/ATI te concurreren in de low-end range. AMD/ATI heeft het namelijk op dit moment het voor het zeggen met hun 780G/E4x50 combi die een zeer goede prijs/prestatie verhouding heeft.

Ik ben erg benieuwd naar deze chipset in combinatie met een E1200 of een E5200. Of moederborden met deze chipset genoeg overclockfuncties bieden en een FSB aankunnen van 400+ is nog maar de vraag, maar daar heeft de E5200 geen last van met z'n multi van 12,5.

Ik ben nog aan het twijfelen of ik een moederbord met deze chipset ga kopen. nVidia doet het namelijk zeer slecht met hun videokaarten en ATI ondersteunt nVidia's HybridPower natuurlijk niet, waardoor ik eigenlijk net zo goed een P35/45 mobo met een Core 2 Duo en een ATI HD4850 kan kopen. Maar het nadeel van die combi is het grotere Idle-verbruik en het ATX-formaat.

Er zijn al enkele moederborden met de MCP7a chipset gespot. Moederborden van fabrikanten:
ECS heeft er één laten zien.
MSI heeft er al twee laten zien.
ASUS heeft er al twee laten zien.
Gigabyte heeft er pas één laten zien.
DFI heeft er één laten zien.

http://www.hardspell.com/doc/hard/81635.htm
http://www.dvhardware.net/article28935.html
http://www.fudzilla.com/i...ion=com_content&task=view
http://www.tcmagazine.com...hp?shownews=21629&catid=2
http://www.fudzilla.com/i...sk=view&id=9936&Itemid=69

Acties:
  • 0 Henk 'm!

  • Lampuhkap
  • Registratie: Januari 2008
  • Laatst online: 19:27
welke desktop GPUs zijn er borked? G92 & G80? Zou een mooie wezen :D Hele generatie GPU's met slecht materiaal, gaat lekker daar dan bij Nvidia. Wat word er geregeld als vervanger/oplossing?

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 23:39
[quote]Jejking schreef op woensdag 15 oktober 2008 @ 12:01:
Oh yeah baby, het volgende hoofdstuk in de nVidia Package rel is een feit:


[...]

Actie: 12 maanden extra garantie.

Zouden de ''gevonden notities'' van The'Inq dan toch waar zijn? :z

Bron: http://technologyexpert.b...lems-come-to-desktop.html


Enne, gaat ons weer ontopic? Een codecdiscussie hoort hier niet thuis ;)
[/quote]

Niet alleen hp maar ook apple

laat maar. Spuit 11

[ Voor 41% gewijzigd door Blastpe op 15-10-2008 13:48 ]


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 00:12

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Jongens het is inmiddels nu wel bekend toch dat in iedergeval de gehele G84 en G86 lijn bugged is. Het is alleen zorgelijk om nu ook te vernemen dat de desktop varianten onder hetzelfde problem lijden. Overigens is dit niet HP en ook MAC/Apple lijd er onder, maar alle fabrikanten die deze chips gebruiken zullen problemen ondervinden Dell, XXODD, etc etc.

Ik hoop overigens niet dat de andere geruchten ook waar zijn, dat de nieuwe 9 serie ook dezelfde problemen kent. Voor mij heeft Nvidia dan echt afgedaan, helaas zit er in mijn paar maand oude Del XPS M1330 een G84, overigens denk ik er serieus over na om Dell te dwingen mijn beide M1330's terug te nemen voor een refund of te vervangen voor de komende opvolger. (kostenloos voor mij natuurlijk)

Er wordt op dit moment heel slecht omgegaan, met dit alles. Crappy BIOS update's welke ongewenste bij effecten hebben en marginale extended waranty's. De enige die het enigszins goed schijn te doen is HP, HP schijnt een replacement GPU aan te bieden uit de ATi/AMD stal welke vergelijkbaar is met de Nvidia GPU.

Ik was persoonlijk niet echt meer gecharmeed van Nvidia, maar na dit debacel komt er bij mij geen Nvidia produkten meer binnen, wat een slechte afhandeling van zaken.

P.s. Het heeft mij trouwens wel verbaasd dat het zo weinig is besproken in dit topic, terwijl er andere fora zijn welke er van overstromen.

[ Voor 5% gewijzigd door _Dune_ op 16-10-2008 08:12 ]

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Ik hoop niet dat dit ook geld voor de g94 desktop producten :|

Acties:
  • 0 Henk 'm!

  • Double-X-L
  • Registratie: Maart 2004
  • Laatst online: 18-07 18:42
Ik was me al helemaal aan het orienteren om een PhysX dual opstelling te gaan verzinnen maar kan niet anders stellen dan dat ik eigenlijk ook van Nvidia ga afstappen.
Dit heeft meer te maken met het continu strooien van zand in de ogen van consumenten met het steeds maar wijzigen van namen. Vooruitgang staat (IMHO) eigenlijk ook gewoon stil bij NV.

Ik zit daarbij ook te denken of dit deels te wijten kan zijn aan de MoBo zijde van het bedrijf?
Als men zich daar weer eens wat meer gaat wijden aan de core business, wat volgens mij nog steeds het VGA deel van NV is, hebben ze dat gluiperige relabelen van kaarten ook niet nodig.
De hele 9-serie van ze is toch echt geen nieuwe serie te noemen.
En dan de komende main en budget serie van de nieuwe GT serie is toch ook niets nieuws?
Dat is 2 series relabelen, oplichting is het niet te noemen maar met misleidend overdrijf ik niet.

Ati komt ijzersterk uit de hoek met hun 4000 serie en hetgeen ik ervan weet is dat toch echt een compleet nieuwe serie waar de vooruitgang vanaf spat.

Acties:
  • 0 Henk 'm!

  • Joep
  • Registratie: December 2005
  • Laatst online: 21:23
Sinds een paar minuten ofzo is de NDA over de MCP7a chipset verstreken. Anandtech, bit-tech en tomshardware hebben al een review geschreven over de chipset. Eigenlijk is alleen maar de review van anandtech interessant, omdat zij als enigen de IGP performance hebben meegenomen in hun review.

Conclusie: Geen HybridPower, hoge geheugen latency die nog wordt opgelost en een IGP die gehakt maakt van de 780G/790GX, laat staan de G45.

Reviews:
http://www.bit-tech.net/h...-9300-mcp7a-motherboard/1
http://www.bit-tech.net/h...a-geforce-9-series-mgpu/1
http://www.tomshardware.c...dia-nforce-730i,2044.html
http://anandtech.com/mb/showdoc.aspx?i=3432

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ah, heel mooi. Die Intel G45 gaat voor geen meter vooruit, ik ben blij dat er nu een fatsoenlijke IGP oplossing is voor het Intel platform.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 218213

_Dune_ schreef op woensdag 15 oktober 2008 @ 13:52:
Jongens het is inmiddels nu wel bekend toch dat in iedergeval de gehele G84 en G86 lijn bugged is. Het is alleen zorgelijk om nu ook te vernemen dat de desktop varianten onder hetzelfde problem lijden. Overigens is dit niet HP en ook MAC/Apple lijd er onder, maar alle fabrikanten die deze chips gebruiken zullen problemen ondervinden Dell, XXODD, etc etc.

Ik hoop overigens niet dat de andere geruchten ook waar zijn, dat de nieuwe 9 serie ook dezelfde problemen kent. Voor mij heeft Nvidia dan echt afgedaan, helaas zit er in mijn paar maand oude Del XPS M1330 een G84, overigens denk ik er serieus over na om Dell te dwingen mijn beide M1330's terug te nemen voor een refund of te vervangen voor de komende opvolger. (kostenloos voor mij natuurlijk)

Er wordt op dit moment heel slecht omgegaan, met dit alles. Crappy BIOS update's welke ongewenste bij effecten hebben en marginale extended waranty's. De enige die het enigszins goed schijn te doen is HP, HP schijnt een replacement GPU aan te bieden uit de ATi/AMD stal welke vergelijkbaar is met de Nvidia GPU.

Ik was persoonlijk niet echt meer gecharmeed van Nvidia, maar na dit debacel komt er bij mij geen Nvidia produkten meer binnen, wat een slechte afhandeling van zaken.

P.s. Het heeft mij trouwens wel verbaasd dat het zo weinig is besproken in dit topic, terwijl er andere fora zijn elke er vn overstromen.
tis niet alleen nvidia hoor, heb al met zoveel bedrijven gezeik gehad , met onze sharp tv ook al uren aan de lijn liggen bellen, wasmachine precies hetzelfde , winst daar denken ze aan , zo gouw je het product hebt gekocht , en er is iets mis, dan begint de ellende

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Joep Stoffels schreef op woensdag 15 oktober 2008 @ 17:52:
Conclusie: Geen HybridPower, hoge geheugen latency die nog wordt opgelost en een IGP die gehakt maakt van de 780G/790GX, laat staan de G45.
Misschien een beetje voorbarige conclusie gezien het feit dat het hier om twee verschillende platformen gaat... 780G/790GX is AMD Only, terwijl deze IGP van NV voor Intel is. De processoren verschillen dus en dat zal zich ook in de performance uiten.... wat je in de tests terug ziet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joep
  • Registratie: December 2005
  • Laatst online: 21:23
CJ schreef op woensdag 15 oktober 2008 @ 20:23:
[...]


Misschien een beetje voorbarige conclusie gezien het feit dat het hier om twee verschillende platformen gaat... 780G/790GX is AMD Only, terwijl deze IGP van NV voor Intel is. De processoren verschillen dus en dat zal zich ook in de performance uiten.... wat je in de tests terug ziet.
Dat klopt. Intel's processoren helpen een handje in real-life benchmarks, maar de 9300 IGP is sowieso sneller dan de HD3200.

Afbeeldingslocatie: http://media.bestofmicro.com/2/O/163392/original/image034.png

Dit is GPU-only en laat een winst van 50% zien t.o.v. de HD3200.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 23:39
Afbeeldingslocatie: http://images.anandtech.com/graphs/gf9300_101408230507/17639.png

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nu zijn de HD3200 en 9300 IGP natuurlijk geen directe concurrenten van elkaar. De 9300 IGP verslaat de G45 wat eigenlijk z'n enige concurrent is aangezien AMD geen Intel chipsets meer maakt... En maar voor zover ik kan zien uit de tests brengt de 9300 IGP eindelijk 780 performance naar het Intel platform, wat ook de conclusie is van Anand.
What NVIDIA has done however is effectively bring 780G-class performance to the Intel platform, which is better than nothing.
Wat betreft gaming, is het om en om, afhankelijk van de gespeelde games.... zeker wanneer je Sideport memory gebruikt bij de 790GX... dan maakt die het de nieuwe chipset nog aardig moeilijk zie bv Grid, Crysis, Company of Heroes. Je conclusie dat de 9300IGP "gehakt maakt" van de 780/790GX... daar kan ik me dan ook niet volledig in vinden. Dat is toch een beetje te veel credit. :) Heb je het over de G45.. tja, da's een ander verhaal.

Wat wel vervelend kan zijn voor AMD is dat veel mensen die in eerste instantie voor een Phenom HTPC box zouden gaan, nu een goed alternatief hebben met een Intel HTPC box in combinatie met deze 9300 IGP. Maar ja, that's life. Er staat altijd weer iets nieuws voor de deur (bij AMD dus de AMD 800 Chipset Series).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 24-07 18:07
WFT gaat er nu vantage op die dingen draaien :(
Voor HW decoding van HD content perfect, voor SIMS leuk.
Maar niemand gaat serieus zoiets overwegen om te gamen.

Acties:
  • 0 Henk 'm!

  • CDAAbeltje
  • Registratie: Maart 2007
  • Laatst online: 22-05 21:50

CDAAbeltje

Cool Down !

Ben eigenlijk eens beniewd naar iets :)

Zoals vanavond heb ik mijn systeem voorzien van de 178.24 driver ( update van de 178.13 driver).
Als ik het nvidia configuratie scherm open en mijn SLi activeer geeft de .24 driver een melding " Enkele programma's moeten worden afgesloten". Nou is dit natuurlijk geen probleem want voor zo ver ik kan zien word alleen het proces van WLM afgesloten, echter heb ik deze melding in de .13 niet voorbij zien komen... Wat zit er dan eigenlijk achter WLM waardoor deze een SLi inschakeling kan beinvloeden ?

Met WLM bedoel in Windows Live Messenger :Y)

Acties:
  • 0 Henk 'm!

  • Joep
  • Registratie: December 2005
  • Laatst online: 21:23
The Source schreef op woensdag 15 oktober 2008 @ 21:58:
WFT gaat er nu vantage op die dingen draaien :(
Voor HW decoding van HD content perfect, voor SIMS leuk.
Maar niemand gaat serieus zoiets overwegen om te gamen.
(PC Mark of 3DMark) Vantage geeft veel betrouwbaarder weer hoe krachtig hedendaagse gpu's zijn. Veel betrouwbaarder dan 3DMark 06 of PC Mark 05. Natuurlijk overweegt niemand een moerderbord te kopen omwille van de IGP die erin zit om CoD4 op welke resolutie dan ook te spelen, maar hoe wil je de grafische performance anders vergelijken?

Vergis je echter niet. IGP's zijn niet de ontzettend slome dingen meer die ze vroeger wel waren. Je kunt met een GeForce 9300 of een Radeon HD3200 makkelijk CoD/Warcraft 3/NFSU 2 spelen op high settings en een hoge resolutie met misschien zelfs met AA aan en meer dan 30 fps gemiddeld. CoD4 kun je zelfs spelen met een redelijke framerate op een resolutie van 1024x768 op low settings. Ik kan het weten, omdat mijn 128MB 6600GT al is ingehaald door de GeForce 9300 en de Radeon HD3200. En dat is een knappe prestatie.

In Q2 2009 komt AMD/ATI met de RS880 chipset met daarin een HD4300 en nVidia komt met de iGT209 IGP in Q1 2009. De grafische performance van de IGP's zullen dan waarschijnlijk (alweer) meer dan verdubbelen.

Acties:
  • 0 Henk 'm!

Anoniem: 277412

Gisteren mij Full HD philips 42" tv schermpje aangesloten op mijn pc(Medion MD8800) via een HDMI poortje van een nieuw N9400GT kaartje. Verder de audio aangesloten via de SPDIF van mijn pc op de SPDIF aansluiting van de N9400GT kaart. Dus het geluid en beeld gaat nu via HDMI kabel naar mijn tv en van de tv via SPDIF naar naar mijn homecinima. Nu vraag ik mij alleen af, is dit stereo geluid of 5.1 geluid? Een helft van de versterker van de homecinima is opgeblazen dus ik kan nu niet bepalen of dit 5.1 geluid of stereo geluid is. Maar het beeld is in iedergeval geweldig (tv 42PFL7603D).

Acties:
  • 0 Henk 'm!

  • Lampuhkap
  • Registratie: Januari 2008
  • Laatst online: 19:27
zoals jullie misschien gezien hebben op de site van gamekings, de nieuwe drivers zijn er. Alleen krijg ik ze niet geinstalleerd. Zelfs niet als ik die pshysx eruit haal, hij blijft janken dat ie t systeem niet heeft aangepast en daardoor rebot ie dus ook niet en heb ik ook geen idee of ze nu wel of niet draaien :S help?

Acties:
  • 0 Henk 'm!

Verwijderd

http://forums.guru3d.com/showthread.php?t=276341

Gelekte 180.10 drivers, alleen vista x64 voor nu met multi monitor support voor SLI :D ( Beta )

Kga ze ff checken met mn g80's

[ Voor 10% gewijzigd door Verwijderd op 16-10-2008 20:20 ]


Acties:
  • 0 Henk 'm!

  • Lampuhkap
  • Registratie: Januari 2008
  • Laatst online: 19:27
Ik krijg die driver (178.24) echt niet geinstalleerd :S Als ik via apparaatbeheer wil installen, gaat t balkje lopen en na een minuut of 10 a 15 gooit ie t op een timeout en installeert nix :S

EDIT wat een hopeloos ding zeg. Ik krijg ze niet geinstalleerd. Nvidia Config panel geeft wel de goeie versie aan, mn PshysX was al de laatste. Maar een bevestiging geven dat t geinstalleerd is en aangeven dat ie een reboot nodig heeft, ho maar. Waarom is t nu al met de laaste paar drivers van Nvidia dat zelfs de installer crappy aan t worden is? en is er iemand die hier een oplossing voor heeft?

[ Voor 51% gewijzigd door Lampuhkap op 17-10-2008 17:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Je moet die via de setup installen van de drivers, niet via apparaatbeheer.

Doe eerst eens je oude goed uninstallen, reboot en dan drivercleaner in windows safe mode erover, reboot en in windows die 178.24 installeren :> werkt bij mij altijd

( maar dit is nieuwsdiscussie he, je kan wss beter je eigen topic openen )

Acties:
  • 0 Henk 'm!

  • PowerUp
  • Registratie: Februari 2006
  • Laatst online: 18:08
Volgens Fudzilla blijven er maar zes nVidia partners over:

"Very well informed sources said that Nvidia will cut all but six partners. The ones to stay are EVGA, PC partner (Zotac), Asus, MSI, Palit and XFX.

We don't know anything more than the list and it looks that Nvidia will announce this very shortly.

Everyone else who is not on this list will be cut off and this will make much better breathing space for the remaining six partners. At press time we don't have any more details than that."

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wow, wat zijn ze van plan daar? Wat moet er met Sparkle, Point of View e.d. gebeuren? Die verkopen niet eens ATI kaarten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • PASware
  • Registratie: Juli 2001
  • Laatst online: 15:54
Hacku schreef op maandag 20 oktober 2008 @ 19:43:
Wow, wat zijn ze van plan daar? Wat moet er met Sparkle, Point of View e.d. gebeuren? Die verkopen niet eens ATI kaarten.
Die zullen dan wel overstappen op S3 ;)

Heheh, nee dat zal wel ATI/AMD worden. Nog meer kanalen voor AMD om hun spullen te kunnen verkopen :)

Tesla Model 3 SR+ | 4425wp (Dak) - 1920wp (platdak) - 840wp (gevel 90gr) | Panasonic 5kW warmtepomp | Hewalex WPB 200L boiler


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

Kunnen ze de prijzen weer wat mee opdrijven...

Minder "concurrentie" > hogere prijzen... :X

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • RoTro
  • Registratie: April 2006
  • Laatst online: 25-07 11:32
het was inderdaad omdat de onderlinge concurrentie (tussen Nvida-partners zelf) te 'groot' was..een prijsstijging is de bedoeling ja.
Ze kunnen nu wel AMD gaan leveren, maar dan zit die straks met hetzelfde probleem..te grote concurrentie tussen hun eigen partners

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
het was inderdaad omdat de onderlinge concurrentie (tussen Nvida-partners zelf) te 'groot' was..een prijsstijging is de bedoeling ja.
Akkoord, maar van ~20 partners naar 6 lijkt me nogal drastisch, niet? Dan lopen ze toch een grote omzet mis?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • RoTro
  • Registratie: April 2006
  • Laatst online: 25-07 11:32
tja, daar zal Nvidia toch wel naar gekeken hebben, neem ik aan?
Overigens leuke boel voor die partners... :| :|

Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
RoTro schreef op maandag 20 oktober 2008 @ 20:39:
het was inderdaad omdat de onderlinge concurrentie (tussen Nvida-partners zelf) te 'groot' was..een prijsstijging is de bedoeling ja.
...
Daar zit de consument ook echt op te wachten, met die eventuele recessie op komst... Goede timing van NV

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 22-07 17:19

Edmin

Crew Council

get on my horse!

Nu de GT200 serie wat tegen valt in de verkoopcijfers, drukken de partners elkaar uit de markt. De prijsdalingen heeft de marges zo laag gemaakt, dat er meer volume gemaakt moet worden om te compenseren. Ik denk niet dat het ten koste gaat van de prijs. Er moet tenslotte nog steeds tegen de ATI kaarten geknokt worden.

Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op maandag 20 oktober 2008 @ 20:40:
[...]


Akkoord, maar van ~20 partners naar 6 lijkt me nogal drastisch, niet? Dan lopen ze toch een grote omzet mis?
Ach, zolang EVGA bij die 6 zit vind ik het wel prima.

EVGA
Asus
MSI
Leadtek

En nog twee anderen :P

Acties:
  • 0 Henk 'm!

  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 29-06 12:08
Preview forceware 180 met SLI Multi monitor support
http://www.vr-zone.com/ar..._Series_Preview/6110.html

Verder zou nu het verhaal van dat er maar 6 leveranciers de kaarten mogen maken weer niet waar zijn.
"Officially


We got word from the director of Nvidia EMEA Public Relations Luciano Alibrandi and he said that our original news that you can read here, is absolutely not true.

Let us quote him: “This is absolutely not true” and we apologize for all the confusion that we might have created. These six will get special treatment, but it looks like the rest won’t be cut off. There will be cuts, but the holy six won't be the only ones to stay on board.

We are sure that this is not the last story about this special list, but some things might have been misinterpreted."
http://www.fudzilla.com/i...sk=view&id=10059&Itemid=1

[ Voor 75% gewijzigd door luckyjan op 21-10-2008 15:20 ]


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Je moet lid worden van de nieuwsbrief om de link te krijgen voor de driver download voor vista 32...
Als iemand de link heeft of een andere link voor de 180.** vista 32bits driver wil die hem dan hier plaatsen?

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 24-07 18:07
EdwardvGelder schreef op dinsdag 21 oktober 2008 @ 22:19:
Je moet lid worden van de nieuwsbrief om de link te krijgen voor de driver download voor vista 32...
Als iemand de link heeft of een andere link voor de 180.** vista 32bits driver wil die hem dan hier plaatsen?
http://downloads.guru3d.com/

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Dank je wel!

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat bericht dat nVidia naar 6 partners wil klopt niet, net bevestigd.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 24-07 18:07
Hacku schreef op donderdag 23 oktober 2008 @ 13:46:
Dat bericht dat nVidia naar 6 partners wil klopt niet, net bevestigd.
Het bericht dat NV iedereen behalve 6 partners eruit stampt klopt inderdaad niet. Echter gaat NV die 6 grootste spelers EVGA, Zotac, Asus, MSI, Palit and XFX speciale support krijgen zoals betere prijzen, meer allocatie, rebates voor het Grapics + programma, etc. Dus ze gaan het de overige partners wel moeilijker maken.

Waarom... Deze 6 spelers zorgen voor 80% van de turnover. Asus en MSI zijn hiervan veruit de grootste klanten van nVidia omdat zij naast VGA kaarten ook nog chipsets afnemen. Strategie van nVIdia in het verleden was om de kleinere spelers te supporten waardoor deze harder groeien als de grote jongens, waarom ze uiteindelijk 7, 8, 9 of 10 gelijkwaardige partners krijgen. Echter stappen ze hiervanaf omdat ze niet willen dat de grote 6 weglopen. Dit zou namelijk een enorm grote impact hebben op de omzet van nVidia.

[ Voor 12% gewijzigd door The Source op 24-10-2008 21:54 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 22-07 17:19

Edmin

Crew Council

get on my horse!

Klinkt mij in de oren als een noodmaatregel om de prijzen te kunnen drukken. Nu blijkt dat in een groot aantal segmenten de prijzen van NV niet met Ati kunnen concureren. NV heeft alle rek al uit haar eigen winst gehaald en kan niet verder zakken. Door de grote spelers te steunen hoopt men dat de consumentenprijzen nog verder kunnen dalen.

Maakt dit sense?

Acties:
  • 0 Henk 'm!

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 13-07 23:51
Beat me to death als dit al gpost was :P

Intel Badaboom. (video's omzetten naar ander formaten met behulp van je nVidia kaart).
http://www.nzone.com/object/nzone_badaboom_downloads.html

Ziet er wel strak uit of niet?
Afbeeldingslocatie: http://pc.watch.impress.co.jp/docs/2008/1024/elemental.jpg

Acties:
  • 0 Henk 'm!

  • HaseMike
  • Registratie: Augustus 2003
  • Niet online
Qua prijzen zie ik hier (duitsland) juist een stijging. Een paar weken terug was de gtx 260 te krijgen voor 199, nu is het al snel 225. Is toch een fors verschil. Ik kan maar 2 dingen bedenken :

1- De euro is gezakt t.o.v. de dollar
2- Kerst is in aantocht en dan verhogen de online shops altijd de prijzen

Zelf denk ik meer aan optie 2 omdat een aantal online shops ook ineens weer verzendkosten berekenen die tot voorkort verzendkostenvrij waren.

Maar even een 2 maandjes wachten na de kerst : Prijzen omlaag en wie weet een nieuwe generatie kaarten

Mijn 8800gt doet het nog goed, maar wil best een gtx 260 216 :)

Acties:
  • 0 Henk 'm!

Verwijderd

De euro zakt ook. Maar dat zou niet veel uit mogen maken zou ik zeggen. Dat trekt de prijzen eerder gelijk.

Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 15:54
De dollar (en de yen, mocht het er invloed op hebben) zijn de laatste tijd juist aan het stijgen in waarde. Zou een reden van de stijgende prijzen kunnen zijn.
Zou toch best lullig zijn als dat zo is, op het moment dat de dollar steeds verder en verder wegzakte merkte de Europese consument daar niet erg veel van, maar zodra de dollar stijgt voelen wij het meteen, het zal eens niet!

Acties:
  • 0 Henk 'm!

  • HaseMike
  • Registratie: Augustus 2003
  • Niet online
Ik bedoelde te zeggen dat de dollar stevig gestegen is, maar dat ik denk dat de grootste reden voor de recente prijsstijgingen de aanstormende kerst is. Hier is het jaarlijkse koek dat je beter niets kan kopen in nov-dec..

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 24-07 18:07
HaseMike schreef op dinsdag 28 oktober 2008 @ 21:59:
Ik bedoelde te zeggen dat de dollar stevig gestegen is, maar dat ik denk dat de grootste reden voor de recente prijsstijgingen de aanstormende kerst is. Hier is het jaarlijkse koek dat je beter niets kan kopen in nov-dec..
Dollar is de enige reden voor de prijsstijgingen. Meestal zie je met Kerst agressivere aanbeidingen om meer volume te doen. Door het grote volume maken ze uiteindelijk meer winst.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Nvidia to cut workforce by 6.5 percent

We have learned that Nvidia will shed 6.5 percent of its 5,500-strong global workforce—equating to approximately 360 employees—before the end of its third fiscal quarter.

The job cuts come following dramatic changes to the company's business outlook during the second quarter and will be company-wide cuts. There will be job losses in all business units, in all regions – because of this, there will be some internal reshuffling following the redundancies.

http://www.bit-tech.net/n...orkforce-by-6-5-percent/1

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

Was dit al eens voorbij gekomen?

http://www.techarp.com/showarticle.aspx?artno=594&pgno=0

Afbeeldingslocatie: http://i36.tinypic.com/icv2g9.jpg

Afbeeldingslocatie: http://i35.tinypic.com/2h5i8g0.jpg

Afbeeldingslocatie: http://i37.tinypic.com/a1u3rc.jpg

[ Voor 44% gewijzigd door Format-C op 31-10-2008 20:52 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Hmm best wel wat prestatie winst, van een paar % tot aan bijna 40%

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 22-07 17:19

Edmin

Crew Council

get on my horse!

Hebben we een ETA op die drivers?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

Ja. Volgens mij zijn dat de drivers die tegelijkertijd uitkomen met de X58 chipset.

http://www.techarp.com/showarticle.aspx?artno=594&pgno=6

Timeline:
Afbeeldingslocatie: http://i37.tinypic.com/8y71i0.jpg

En volgens mij zijn er zelfs zelfs al beta drivers van:

http://www.nvidia.com/object/winvista_x86_180.43_beta.html

http://www.nvidia.com/object/winvista_x64_180.43_beta.html

http://www.nvidia.com/object/winxp_180.43_beta.html

Het zijn de 180.43's. Of hier die perf winst al inzit weet ik niet. En of die er uberhaupt komt weet ik ook niet. Slides zijn leuk, maar nu moeten ze het waarmaken. ;)

[ Voor 33% gewijzigd door Format-C op 01-11-2008 00:17 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • geert1
  • Registratie: Maart 2006
  • Laatst online: 23:38
Iemand al ervaring met deze beta 180.43 driver? Zijn er problemen, en/of mooie performance verbeteringen? Ik heb net mijn 9800GTX+ binnen (nadat de eerste een defect had) en ik ga deze beta proberen. Ik zal mijn bevindingen hier even posten. Binnen enkele dagen verwacht ik ook de final trouwens, deze is van 24 oktober.

Edit: Hierboven was te lezen dat er 17 november een nieuwe final-versie gepland staat, de eerste 180 WHQL. Nog even iets langer wachten dus.

[ Voor 17% gewijzigd door geert1 op 01-11-2008 12:08 ]


Acties:
  • 0 Henk 'm!

  • SalimRMAF
  • Registratie: November 2005
  • Laatst online: 24-07 00:18

SalimRMAF

SpaceX - 4K

Ik heb een EVGA 9800GTX+, een tijdje geleden was er een neiuwsbericht dat meldde dat onder andere mijn kaart een stuk zuiniger zou zijn met nieuwe drivers/BIOS. Heeft iemand hier al meer over gehoord? Of zijn het de 180.** drivers die ervoor gaan zorgen?

Gulfstream G650


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 07-07 20:09
NVIDIA new dual chip flagship VGA is coming

http://en.hardspell.com/doc/showcont.asp?news_id=4345

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik ben benieuwd hoe ze dat qua stroomverbuik en koeling gaan oplossen :)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 07-07 20:09
Hacku schreef op maandag 03 november 2008 @ 12:33:
Ik ben benieuwd hoe ze dat qua stroomverbuik en koeling gaan oplossen :)
die zullen dan wel op 55nm gemaakt worden, en eventueel iets lagere clocks......

Acties:
  • 0 Henk 'm!

Verwijderd

Hacku schreef op maandag 03 november 2008 @ 12:33:
Ik ben benieuwd hoe ze dat qua stroomverbuik en koeling gaan oplossen :)
Bij de 9800GX2 is het ze toch ook gelukt? ;)

Acties:
  • 0 Henk 'm!

  • -_-
  • Registratie: Augustus 2008
  • Laatst online: 10-03 18:53

-_-

ff vraagje tussendoor.

Hoe kun je zien dat de GTX280 ook echt in 3d modus draait/werkt? In veel games vallen bij mij de prestaties toch wat tegen. Dunno of dit aan mijn instellingen of aan de kaart zelf ligt. Of zijn er sites waar vergelijkingsmateriaal is?

http://service.futuremark...ltId=499107&resultType=19 (mijn systeem)

In mijn handtekening (zie onderstaand) zie je de specs

[ Voor 32% gewijzigd door -_- op 03-11-2008 17:15 ]


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Er staat op de site dat jouw cpu op 1077mhz loopt...
CPU Speed 1077 MHz
Misschien is dat te laag ingesteld?

Acties:
  • 0 Henk 'm!

  • SalimRMAF
  • Registratie: November 2005
  • Laatst online: 24-07 00:18

SalimRMAF

SpaceX - 4K

EdwardvGelder schreef op maandag 03 november 2008 @ 17:41:
Er staat op de site dat jouw cpu op 1077mhz loopt...
CPU Speed 1077 MHz
Misschien is dat te laag ingesteld?
Hmm, schakel eens EIST/C1E uit in de Bios van je. Daarna installeer je de nieuwste RivaTuner , en daarnaan zie je wat de clocks zijn. Ook heb je een "slome" quadcore, maar daar ligt het niet aan.

Gulfstream G650


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Verwijderd schreef op maandag 03 november 2008 @ 15:37:
[...]


Bij de 9800GX2 is het ze toch ook gelukt? ;)
Die kaart had een TDP van ongeveer 230 watt ofzo. De GTX 280 doet in zijn eentje al 230 watt en een GTX 260 is ook nog steeds iets van 170 watt ofzo. Als je een 55nm dual gpu versie van de kaart wilt bouwen ga je al snel richting de 300 tot 350 watt. Misschien krijgen we dan eindelijk ;) eens een triple-slot videokaart met drie stroompluggen erop. Zou een leuke combi zijn voor Quad SLI en een Core i7 :)

Goud is geen geld


Acties:
  • 0 Henk 'm!

Anoniem: 265911

frankknopers schreef op maandag 03 november 2008 @ 18:57:
[...]

Die kaart had een TDP van ongeveer 230 watt ofzo. De GTX 280 doet in zijn eentje al 230 watt en een GTX 260 is ook nog steeds iets van 170 watt ofzo. Als je een 55nm dual gpu versie van de kaart wilt bouwen ga je al snel richting de 300 tot 350 watt. Misschien krijgen we dan eindelijk ;) eens een triple-slot videokaart met drie stroompluggen erop. Zou een leuke combi zijn voor Quad SLI en een Core i7 :)
En de hd 4870 dan? Die verbruikt ongeveer evenveel als een gtx 260...
Daarbij komt dat de hd4870 al op 55nm gebakken is terwijl er bij de gtx 260 nog een paar ''watjes'' vanaf kunnen als ze overstappen op 55nm dus ik denk dat het goed te doen is.
Probleem is wel dat nvidia het waarschijnlijk met twee pcb's wil doen en dat is volgens mij wat moeilijker(correct me if I'm wrong).

Acties:
  • 0 Henk 'm!

Verwijderd

frankknopers schreef op maandag 03 november 2008 @ 18:57:
[...]

Die kaart had een TDP van ongeveer 230 watt ofzo. De GTX 280 doet in zijn eentje al 230 watt en een GTX 260 is ook nog steeds iets van 170 watt ofzo. Als je een 55nm dual gpu versie van de kaart wilt bouwen ga je al snel richting de 300 tot 350 watt. Misschien krijgen we dan eindelijk ;) eens een triple-slot videokaart met drie stroompluggen erop. Zou een leuke combi zijn voor Quad SLI en een Core i7 :)
2x170 = 340, dus sowieso al geen 350Watt.

Verder kan er inderdaad nog wat van het verbruik af, dus eerder een krappe 300 Watt.

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Ik zat te denken over de gt206 en gt212, wat voor informatie is er al over?
Alleen dat hij rond december uitkomt en dat het waarschijnlijk de gtx260/280 op 55nm zijn.
Zou er niet wat speciaals uitkomen? (zie Dx 10.1 ofzoiets.)

Acties:
  • 0 Henk 'm!

  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 29-06 12:08
Nvidia doet het met SLI heel erg goed op de nieuwe intel X58 chipset in combinatie met de Core I7.
Echt een enorme prestatiewinst. Het lijkt erop dat er een flinke bottleneck zit in nivdia's eigen chipsets dus het is maar goed dat ze SLI nu hebben vrijgegeven.
http://www.guru3d.com/art...e-game-performance-review
Afbeeldingslocatie: http://img120.imageshack.us/img120/8924/nvidiamo3.jpg

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

frankknopers schreef op maandag 03 november 2008 @ 18:57:
[...]

Die kaart had een TDP van ongeveer 230 watt ofzo. De GTX 280 doet in zijn eentje al 230 watt en een GTX 260 is ook nog steeds iets van 170 watt ofzo. Als je een 55nm dual gpu versie van de kaart wilt bouwen ga je al snel richting de 300 tot 350 watt. Misschien krijgen we dan eindelijk ;) eens een triple-slot videokaart met drie stroompluggen erop. Zou een leuke combi zijn voor Quad SLI en een Core i7 :)
Misschien krijg je er wel een tafelventilator bij. En 2 losse extra 120mm fans met mounting kit. :+

[ Voor 3% gewijzigd door Format-C op 04-11-2008 12:06 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

luckyjan schreef op dinsdag 04 november 2008 @ 11:11:
Nvidia doet het met SLI heel erg goed op de nieuwe intel X58 chipset in combinatie met de Core I7.
Echt een enorme prestatiewinst. Het lijkt erop dat er een flinke bottleneck zit in nivdia's eigen chipsets dus het is maar goed dat ze SLI nu hebben vrijgegeven.
http://www.guru3d.com/art...e-game-performance-review
[afbeelding]
Die conclusie trekken heel veel mensen maar is dus enorme onzin aangezien er niet één variabele [de chipset], maar drie! variabelen veranderen [chipset, proc, mem].

Stel je vergelijkt:

E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + 790i chipset
met
E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + X58 chipset

En de X58 chipset scoort dan veel hoger, dan pas is de chipset de beperkende factor. Nu ligt er verdraaid een i7 en triple channel geheugen onder ... allicht dat de prestaties dan omhoog gaan :z . Dat is net zoals als een 7900GTX testen met een P4 op een P965 chipset en daarna testen met een C2D op een P35 chipset en zeggen dat de P35 echt veel sneller is omdat de spellen ineens sneller lopen 8)7 ...

De enige conclusie die we kunnen trekken uit die grafiek is dat krachtige SLi / XFire setups door de CPU gebottlenecked werden. Punt |:( .

[ Voor 5% gewijzigd door Cassius op 04-11-2008 12:21 ]

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Cassius schreef op dinsdag 04 november 2008 @ 12:20:
[...]
De enige conclusie die we kunnen trekken uit die grafiek is dat krachtige SLi / XFire setups door de CPU gebottlenecked werden. Punt |:( .
Ehh ja, het is dan ook een cpu review, geen review voor videokaarten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Hacku schreef op dinsdag 04 november 2008 @ 12:25:
[...]


Ehh ja, het is dan ook een cpu review, geen review voor videokaarten.
Hey dat zeg ik ook, maar dan moeten mensen niet zeggen dat SLi ineens geweldig schaalt, want dat slaat als een spreekwoordelijk geslachtsdeel op een drumstel ...

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Anoniem: 265911

Cassius schreef op dinsdag 04 november 2008 @ 12:20:
[...]


Die conclusie trekken heel veel mensen maar is dus enorme onzin aangezien er niet één variabele [de chipset], maar drie! variabelen veranderen [chipset, proc, mem].

Stel je vergelijkt:

E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + 790i chipset
met
E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + X58 chipset

En de X58 chipset scoort dan veel hoger, dan pas is de chipset de beperkende factor. Nu ligt er verdraaid een i7 en triple channel geheugen onder ... allicht dat de prestaties dan omhoog gaan :z . Dat is net zoals als een 7900GTX testen met een P4 op een P965 chipset en daarna testen met een C2D op een P35 chipset en zeggen dat de P35 echt veel sneller is omdat de spellen ineens sneller lopen 8)7 ...

De enige conclusie die we kunnen trekken uit die grafiek is dat krachtige SLi / XFire setups door de CPU gebottlenecked werden. Punt |:( .
Hij heeft nu ook een benchmark sessie gedaan met een qx9770 op een 790i sli moederbord. Beter dan dat kan het volgens mij niet. Er is namelijk geen beter moederbord/ processor verkrijgbaar voor socket 775.

http://www.guru3d.com/art...ame-performance-review/19

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Anoniem: 265911 schreef op dinsdag 04 november 2008 @ 14:15:
[...]

Hij heeft nu ook een benchmark sessie gedaan met een qx9770 op een 790i sli moederbord. Beter dan dat kan het volgens mij niet. Er is namelijk geen beter moederbord/ processor verkrijgbaar voor socket 775.

http://www.guru3d.com/art...ame-performance-review/19
Ja dat is ook zo, maar dan swapt hij de processor alsnog op dat bord natuurlijk. Daarbij kan je wel zeggen dat de processor inderdaad sneller is in die game aangezien hij de GPU sneller van data kan voorzien / deze kan verwerken. Maar je kan dus niet zeggen dat SLi ineens zo goed schaalt zoals ik al vaker gelezen heb :) , that's all.

Ik ben trouwens wel gestoord als ik 3 GTX280's ga kopen om een proc te benutten van de helft van het geld ... maar toch mooi dat je kan zien dat de nieuwe i7 best veel potentieel heeft voor de toekomstige games met sterkere GPU's :) . Want nu kunnen mensen wel zeggen dat de i7 geen vooruitgang brengt voor gamers; maar dat is nogal wiedus als mensen de i7 vergelijken met een 45nm quad en dezelfde videokaart ... ze zien geen verschil door de GPU bottleneck.

Dit zal zich dus ook bewijzen als de GPU's sneller en sneller worden, dan wordt het verschil steeds groter, simpel :) .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 29-06 12:08
Idd en ik kan me niet voorstellen dat die qx9770 op 100% processor load zit. Dat doet mijn Q6600 niet eens op 3GHZ met de nieuwste games (en dan bekijk ik het per core). Dus ik denk dat de nvidia chipset wel degelijk een beperkende factor is!

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Jammer dat mensen alleen naar de lengte van de staafjes en de hoogte van de grafiekjes kijkt en op basis daarvan en oordeel klaar heeft. Veel van die game benchmarks van de Core i7 zijn juist op lagere resolutie en met minder detail getest zodat de CPU de bottleneck gaat worden. Uiteraard zie je dan dat de fps veel hoger wordt.

Maar uiteindelijk speel je een spel op 1680x1050 of 1920x1200 (mag ik hopen met een GTX 280 of een HD4870 X2) en met maximale graphics. De reviews waarbij men ook naar deze settings heeft gekeken laten dan toch echt zien dat de verschillen niet zo groot meer zijn. En dan neem ik voor 10% minder fps ook wel genoegen met een 2x zo goedkope Core 2 Duo set.

[ Voor 7% gewijzigd door frankknopers op 04-11-2008 19:32 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Je begrijpt toch wel dat het hier om een cpu test gaat, en dat men daarom in lage resoluties test? Met hoge resoluties gaat de videokaart een bottleneck vormen, en dan krijg je een verkeerd beeld van de cpu.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Hacku schreef op dinsdag 04 november 2008 @ 19:39:
Je begrijpt toch wel dat het hier om een cpu test gaat, en dat men daarom in lage resoluties test? Met hoge resoluties gaat de videokaart een bottleneck vormen, en dan krijg je een verkeerd beeld van de cpu.
Ja maar zo'n test is dan nog steeds niet overbodig omdat je vooral met dual GPU's wilt weten of je er in hoge res +AA ook nog op vooruitgaat.'

De winst met de Nahalem is mogelijk te wijten aan een aanzienlijke reductie van de perf.hit tgv loadbalancing.
Hetzij door de CPU, het mobo en/of geheugen.
Ik ben erg benieuwd of daar nog eens een diepgaand onderzoek naar komt.

[ Voor 5% gewijzigd door edward2 op 04-11-2008 20:01 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Cassius schreef op dinsdag 04 november 2008 @ 12:20:
[...]


Die conclusie trekken heel veel mensen maar is dus enorme onzin aangezien er niet één variabele [de chipset], maar drie! variabelen veranderen [chipset, proc, mem].

Stel je vergelijkt:

E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + 790i chipset
met
E8400 + 4GB (2x2GB 1066MHz Dual Channel) + 2 of 3 x GTX280 + X58 chipset

En de X58 chipset scoort dan veel hoger, dan pas is de chipset de beperkende factor. Nu ligt er verdraaid een i7 en triple channel geheugen onder ... allicht dat de prestaties dan omhoog gaan :z . Dat is net zoals als een 7900GTX testen met een P4 op een P965 chipset en daarna testen met een C2D op een P35 chipset en zeggen dat de P35 echt veel sneller is omdat de spellen ineens sneller lopen 8)7 ...

De enige conclusie die we kunnen trekken uit die grafiek is dat krachtige SLi / XFire setups door de CPU gebottlenecked werden. Punt |:( .
Dat wil nog niet zeggen dat dit niet de oorzaak is, zeker aangezien met een single GTX280 het verschil veel minder is, ook op de lage reso's. Het moet IMHO echt in het multi GPU gebeuren worden gezocht. Er is iets wat SLI een gigantische boost geeft en ik laat voorlopig in het midden welke van de 3, eigenlijk hou ik er 2 voor ogen, Chipset en CPU (in combinatie met drivers) daar verantwoordelijk voor is.

nForce is zowieso RIP, niet alleen omdat hij evt zo minder presteert, maar met de X58 kan je 2 kanten op.

Overigens zal ATI ongetwijfeld waar mogelijk voor de Nahalem gaan optimaliseren. (Rappie, heb je je GTX280'en nog :X )

[ Voor 7% gewijzigd door edward2 op 04-11-2008 20:12 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

edward2 schreef op dinsdag 04 november 2008 @ 20:07:
(Rappie, heb je je GTX280'en nog :X )
Nee. :'( (Heb je al 2 GTX280's en een X58 in bestelling staan? >:) )

Maar dat boeit niet. Mijn huidige kaart is snel zat voor de huidige games. Alles draait perfect op 1920x1200 met AA en AF. Ik hoef niet per sé 8xAA. 2x (en eventueel 4x) AA is zat. Ik draai nu zelfs een hoop games op 8x AA, dus ik zie de noodzaak van meer grafische power momenteel niet in.

En in Q1 of Q2 2009 komt er vast wel weer iets snellers dan wat we nu hebben. Dat gaat toch wel door. En als er met kerst zware games uitkomen waarvoor ik wél meer power nogig heb, kan ik er nog altijd een single HD4870 1GB bij in prikken. :)

En misschien komt ATi ook nog wel met een leuke driver voor het X58 platform. En anders maar niet. :)

Ik heb iig al een i7 920 met een P6T Deluxe en 3x1GB OCZ in bestelling staan (eerst een i7 965, maar dat werd me te gek, en i7 920 op 3,4GHz oid is snel zat), en dan kan ik alle kanten op. Ideaal. Zowel SLi als CF op 1 bord. Super! _/-\o_

Wat scheelt dat een geld, tijd, energie, frustratie en installatiegemak.

Tja, de 790i kan idd wel EOL gaan. Die is met SLi volstrekt nutteloos en underperformend in vergelijking met de X58.

Edit_nummer_80:

De X58 rocked met SLi. En dat is mooi voor nu, en in de toekomst.

[ Voor 97% gewijzigd door Format-C op 04-11-2008 20:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

RappieRappie schreef op dinsdag 04 november 2008 @ 20:19:
[...]

Nee. :'( (Heb je al 2 GTX280's en een X58 in bestelling staan? >:) )

Maar dat boeit niet. Mijn huidige kaart is snel zat voor de huidige games. Alles draait perfect op 1920x1200 met AA en AF. Ik hoef niet per sé 8xAA. 2x (en eventueel 4x) AA is zat. Ik draai nu zelfs een hoop games op 8x AA, dus ik zie de noodzaak van meer grafische power momenteel niet in.

En in Q1 of Q2 2009 komt er vast wel weer iets snellers dan wat we nu hebben. Dat gaat toch wel door. En als er met kerst zware games uitkomen waarvoor ik wél meer power nogig heb, kan ik er nog altijd een single HD4870 1GB bij in prikken. :)

En misschien komt ATi ook nog wel met een leuke driver voor het X58 platform. En anders maar niet. :)

Ik heb iig al een i7 920 met een P6T Deluxe en 3x1GB OCZ in bestelling staan (eerst een i7 965, maar dat werd me te gek, en i7 920 op 3,4GHz oid is snel zat), en dan kan ik alle kanten op. Ideaal. Zowel SLi als CF op 1 bord. Super! _/-\o_

Wat scheelt dat een geld, tijd, energie, frustratie en installatiegemak.

Tja, de 790i kan idd wel EOL gaan. Die is met SLi volstrekt nutteloos en underperformend in vergelijking met de X58.

Edit_nummer_80:

De X58 rocked met SLi. En dat is mooi voor nu, en in de toekomst.
Nee, geen GTX280'en meer voor mij (ook al vond ik ze erg goed, zeker kwa iq ), maar ga wel zsm over naar een i7 Platform. Ik denk dat uiteindelijk (Quad)CF wel weer wat zal inlopen op een i7.

Ik ben zeer tevreden over de HD4-serie en de rek is er nog lang niet uit. (btw, (Q)CF X is nog steeds het snelst in überres. dus boven 1900x1200 ;) )
Ik ben momenteel zwaar CPU limited op de Q6600, zelfs op 1920x1440 met alle toeters en bellen aan.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Tja, de 790i kan idd wel EOL gaan. Die is met SLi volstrekt nutteloos en underperformend in vergelijking met de X58.
Waarom? :) X58 is enkel voor de Core i7, als je een Intel dual core met SLI wilt, dan kan je nog altijd bij de 790i terecht.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 24-07 22:25

Format-C

Tracing Rays

Hacku schreef op dinsdag 04 november 2008 @ 20:59:
[...]


Waarom? :) X58 is enkel voor de Core i7, als je een Intel dual core met SLI wilt, dan kan je nog altijd bij de 790i terecht.
Ja, dat is zo, maar met SLi zou ik nu alleen nog maar naar de X58 kijken. Door de performanceboost. Dan maar 100 eurie meer uitgeven. Een 790i kost 300, een E8400 150, en 790i is ook een DDR3 platform.

Voor 100 euro meer heb je een i7 platform. :) Mobo; 270, 920 CPU 275 + DDR3.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
edward2 schreef op dinsdag 04 november 2008 @ 20:51:
[...]
Ik ben momenteel zwaar CPU limited op de Q6600, zelfs op 1920x1440 met alle toeters en bellen aan.
Je zult dan wel een FPS hebben die ook hoog genoeg is dat je het niet meer merkt >:)

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Hacku schreef op dinsdag 04 november 2008 @ 19:39:
Je begrijpt toch wel dat het hier om een cpu test gaat, en dat men daarom in lage resoluties test? Met hoge resoluties gaat de videokaart een bottleneck vormen, en dan krijg je een verkeerd beeld van de cpu.
Ik begrijp het beter dan sommigen hier die op basis van een 1024x768 benchmark concluderen dat de Core i7 wel wat is.. Om vervolgens games te gaan spelen op 1920x1200 met 4x AA en erachter te komen dat het verschil met hun oude E8400 toch niet zo groot was....

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Paprika schreef op dinsdag 04 november 2008 @ 21:45:
[...]

Je zult dan wel een FPS hebben die ook hoog genoeg is dat je het niet meer merkt >:)
In veel spellen wel, maar in Crysis nog steeds niet en ik heb wat testen gedaan en de perf is op hoge res +aa nog steeds heel CPU afhankelijk (even de slechte CPU- en GPU-schaling daarbuiten gelaten). QCF heeft zowieso (soms) wat meer CPU-overhead.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 279342

frankknopers schreef op dinsdag 04 november 2008 @ 22:19:
[...]

Ik begrijp het beter dan sommigen hier die op basis van een 1024x768 benchmark concluderen dat de Core i7 wel wat is.. Om vervolgens games te gaan spelen op 1920x1200 met 4x AA en erachter te komen dat het verschil met hun oude E8400 toch niet zo groot was....
Kijk je hebt wel deels gelijk Frank, echter moet je wel even realiseren dat benchmarks ook in relatieve waardes kunnen worden uitgedrukt. Als het namelijk zo is dat ook de op 45nm C2D Penryn processors zoals de E8400 op dezelfde soort benchmark is getest, met een resolutie van bijvoorbeeld 1024x768 en een gelijkwaardig systeem moeten de idealen van de Core I7 toch wel blijken aan de hand van die vergelijking.

Bij het testen van de nieuwe Core I7 processors moet de nadruk zo veel mogelijk worden op de daadwerkelijke processorkracht, daarbij moet het ook zo zijn dat niet de videokaart maar de CPU de 'bottleneck' zal vormen. Als we bijvoorbeeld gaan spreken over benchmarks op 1920x1200 resoluties (4xAA, 16xAF) is de videokaart in zijn algemeenheid de bottleneck en is de score niet zo relevant.

Het lijkt dus ook logisch dat de ware kracht van de Core I7 processor het best kan worden getest op een systeem en resolutie waar ook CPUs uit de voorgaande Core serie succesvol op zijn getest. Dus is een resolutie van bijvoorbeeld 1024x768, of 1280x1024 zo gek nog niet.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

frankknopers schreef op dinsdag 04 november 2008 @ 22:19:
[...]

Om vervolgens games te gaan spelen op 1920x1200 met 4x AA en erachter te komen dat het verschil met hun oude E8400 toch niet zo groot was....
Dat geldt dus duidelijk niet voor een multi GPU-opstelling, zeker niet als je SLI hebt. Al zal het verschil niet overal zo groot zijn als bv. bij Far Cry2.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
edward2 schreef op dinsdag 04 november 2008 @ 22:50:
[...]


In veel spellen wel, maar in Crysis nog steeds niet en ik heb wat testen gedaan en de perf is op hoge res +aa nog steeds heel CPU afhankelijk (even de slechte CPU- en GPU-schaling daarbuiten gelaten). QCF heeft zowieso (soms) wat meer CPU-overhead.
Als je je cpu iets verder klot (of iets terug klokt), verandert je FPS dan? Anders blijft het misschien toch een HD limiet wat in 1 of andere benchmark een paar weken terug te voorschijn kwam (hoewel jouw harddisk setup er best leuk uit ziet. :P )

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik vind het allemaal heel leuk en aardig, maar of ik nu 120 (zoals nu) of 150 fps haal boeit me eerlijk gezegd helemaal niks meer, ik heb gewoon het geld niet over voor hardware die over een jaar voor minder dan de helft van het geld te krijgen is.

Daarbij komt ook nog dat die 8 threads nog abnormaal overkill zijn, mijn x3220 @ 3.6ghz wordt nauwelijks aan het werk gezet met wat ik met mijn pc doe (gamen/multimedia/school(aCAD))

Die processors zijn gewoon te goed voor dit moment, de amd procs liggen een aardig eind achter, en OEM systeembouwers kunnen niet veel met de i7, welke huisvrouw gaat nu een pc van 1500 euro kopen om een vakantie te boeken en wat foto's te bekijken? geen een, die kopen een pc van 400 euro en dat is al te veel van het goede, dat houdt de algemene vooruitgang aardig tegen.

En crysis is gewoon een bar slecht spel, dan maar niet, dat is me geen 1000 euro waard om het 2 dagen te spelen en dan opzij te plempen, ben ik blij dat ik van strategie hou :)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Paprika schreef op dinsdag 04 november 2008 @ 22:54:
[...]

Als je je cpu iets verder klot (of iets terug klokt), verandert je FPS dan? Anders blijft het misschien toch een HD limiet wat in 1 of andere benchmark een paar weken terug te voorschijn kwam (hoewel jouw harddisk setup er best leuk uit ziet. :P )
Elke 100 mhz (gerekend vanaf 3 ghz) meer of minder scheelt 1 fps op een schaal van 30 fps. En dat op 1920x1440 16xAF en 8xAA Max IQ in dx10 met Xtreme shadermods.
Ook in Oblivion (met texture- en drawdistancemods) zitten zulke stukken met een enorme CPU overhead.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
Anoniem: 263922 schreef op dinsdag 04 november 2008 @ 23:04:
Ik vind het allemaal heel leuk en aardig, maar of ik nu 120 (zoals nu) of 150 fps haal boeit me eerlijk gezegd helemaal niks meer, ik heb gewoon het geld niet over voor hardware die over een jaar voor minder dan de helft van het geld te krijgen is.
Daarom blijft de Q6600/X3220 ook een leuke processor. Als ik het goed heb wordt ie in januari 2 jaar oud? Dat is toch al redelijk wat in de pc wereld, vooral als je kijkt hoe leuk hij zijn taken nog doet voor gamers etc. :)

Wow, nu gaan we wel erg off-topic.... O-)

[ Voor 3% gewijzigd door Paprika op 04-11-2008 23:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Een Q6600 doet voor gamers niks meer dan een E6600. En minder dan een E8400.

[ Voor 20% gewijzigd door Verwijderd op 04-11-2008 23:56 ]


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Is er al wat nieuws over de gt206/gt212?
Of wordt dat niks speciaals en gewoon een verkleining van het procede?
En nog even een vraagje, zou ik tri-sli met de 9800gtx+ kunnen draaien icm de pricewatch: Zalman ZM750-HP ?
Voor de rest heb ik geen bijzondere onderdelen in mijn pc.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:54
Verwijderd schreef op dinsdag 04 november 2008 @ 23:56:
Een Q6600 doet voor gamers niks meer dan een E6600. En minder dan een E8400.
Ok, je hebt met een E8400 in CoD4 misschien 200 ipv 180 fps, yay? Echter kun je met die Quad in de tussentijd leuke dingen doen. Bv iets met een nieuwsserver downloaden en dan geen impact op je game performance hebben tijdens het unparren/rarren (ik zeg maar iets).
Clock voor Clock zal een E8400 ietsje sneller zijn in single/dual core applicaties, maar als jij me even een spel laat zien waar ik op een "gemiddelde" resolutie (1680x1050 denk ik?) meer aan een E8400 op 4.0-4.5GHz heb dan een Q6600 op 3.6GHz (dan heb ik het dus niet over 180 of 200 fps, maar een verschil van bv 30 naar 40 fps, dan geef ik je volkomen gelijk...
anders ligt het er puur aan of je verder nog iets doet met je pc (wat ik dus wel doe), misschien was gamen niet het beste voorbeeld... maar het blijft toch een van de betere van de afgelopen jaran, net als de 8800GTX onder de videokaarten.

[ Voor 4% gewijzigd door Paprika op 05-11-2008 00:30 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Downloaden / parren / rarren: ik heb het serieus nog van niemand gehoort dat ze dat daadwerkelijk doen. In de praktijk komt het er vaak op neer dat je game alsnog gaat stotteren en dat je het toch uitzet.

Op TeamSpeak / Outlook / MSN / Skype draait er verder helemaal niks tijdens het gamen. En meestal staan die laatste drie uit.

Ja, de Q6600 gaat lang mee, maar dat komt imo vooral omdat hij niet wordt vervangen door nieuwere. Of als dat gebeurd, de Q6600 in prijs zakt. In feite is een Q6600 twee aan elkaar geplakte E6600's

En met het punt uit mijn eerste alinea erbij kun je dus net zo goed zeggen dat een E6600 net zo succesvol is. Maar die is wel vervangen: E6600 > E6700 > E8400
Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!