Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
Max Hunt schreef op donderdag 06 oktober 2011 @ 20:16:
[...]
Dat lijkt me sterk, ik draai 2x GTX 580's op een Corsair HX750W. Ik meet het verbruik van de voeding en dat komt eigenlijk niet over de 700W tijdens games (met 90% efficiency is dat dus ongeveer 630W 'netto' verbruik). En dat i.c.m. een i7 950 op 4.1GHz + de rest.

Als het om een merk X voeding zou gaan zou te weinig 'power' mogelijk de oorzaak kunnen zijn. Een GTX260 verbruikt ook al zo'n 140-150W, en de 220W van de 570 is ook alleen tijdens pieken. Verbruikt ie dat tijdens booten?

Ik zou zeggen dat de videokaart kapot is, of mogelijk dat de videokaart verkeert geïnstalleerd is. Probeer eens de videokaart in 1 van de andere PCIe sloten of probeer het bovenste slot nogmaals.
mager mager ik zou het niet durven op een 750 okal is het een A voeding. Beetje overclocken op je 580's en het gaat snel erg krap worden. Ik zelf doe het lekker op 1000w voeding dat moet lukken met oc van proc geheugen en kaarten. Maar 550 voor een 570 zou best moeten kunnen (btw ik redde op 2x560ti SOC het niet met een 750 voeding dus dat was een beetje gaar)

Acties:
  • 0 Henk 'm!

Anoniem: 245699

naaitsab schreef op woensdag 05 oktober 2011 @ 22:49:
[...]

550W voor een 570 is een beetje aan de magere kant,
Hoe beredeneer je dit? Want een 550watt kan een enkele GTX570 echt wel aan hoor. We hebben het immers ook over een goede 550 watter.
Een GTX570 icm een overclockte i7 lynfield cpu neemt onder load zo'n 350-400watt tot zich en das aan het stopcontact gemeten, gaat dus nog efficientie verlies vanaf. Een goede 550watt voeding heeft dan echt marge genoeg hoor.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
Anoniem: 245699 schreef op vrijdag 07 oktober 2011 @ 16:21:
[...]

Hoe beredeneer je dit? Want een 550watt kan een enkele GTX570 echt wel aan hoor. We hebben het immers ook over een goede 550 watter.
Een GTX570 icm een overclockte i7 lynfield cpu neemt onder load zo'n 350-400watt tot zich en das aan het stopcontact gemeten, gaat dus nog efficientie verlies vanaf. Een goede 550watt voeding heeft dan echt marge genoeg hoor.
Ik heb geen idee wat voor hardware er verder achter hangt, stel er hangt een 1e generatie quadcore van intel in deze trekken aardig wat stroom.
En 400W in jouw geval naar 550 is toch mager? Mager is heel wat anders dan te weinig vermogen dat heb ik ook helemaal niet gezegd.

Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt. Dus die 350-400W die jij noemt geloof ik geen donder van, idle wellicht maar onder load zeker niet aangezien ik nog niet eens de rest heb meegerekend enkel de GPU en CPU.

offtopic:
Volgens corsair heeft die voeding slechts een 80 plus certificering dat is een instap model aangezien je in volgorde hebt:
80+, 80+ brons, 80+ zilver, 80+ goud en 80+ platina, 80+ titanium Wikipedia: 80 PLUS
Voor de niet kenners de 80+(incl achtervoegsels) staan voor het percentage stroom wat de voeding daadwerkelijk levert aan de pc kant.
Een voorbeeldje een voeding heeft aan de pc kant 400W nodig en door de 80+ certificering levert de voeding 80% vermogen dus zou de voeding 480W uit het stopcontact trekken omdat 20% verloren gaat vaak is dit warmte.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.

De voeding die ik heb is een 80+ goud daarvan durf ik wel te zeggen dat hij echt kan presteren, een voeding met enkel 80+ sorry maar dat noem ik echt geen A-klasse voeding.
Corsair maakt geen slechte voedingen dat zeker niet maar dit model zou ik persoonlijk links laten liggen gezien de mindere prestaties.

Ik zou eerst het vermogen per kanaal op de PCI-e lijn eens bekijken wanneer deze een zware kaart moet aansturen als deze full load draait.



Maargoed back ontopic, ik zou de kaart eerst eens in een andere pc testen dan kun je uitsluiten dat de kaart defect is of niet.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
[...]
Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt. Dus die 350-400W die jij noemt geloof ik geen donder van, idle wellicht maar onder load zeker niet aangezien ik nog niet eens de rest heb meegerekend enkel de GPU en CPU.[
Zo vreemd is dat niet hoor, in een potje BF3 waar mijn CPU 95% en beide GPU's 99% gestressed worden gebruikt mijn voeding 470 watt uit de muur.
i5 760 @ 3.8 + 6970 crossfire. Als ik reviews bekijk is het behoorlijk in lijn met wat daar verbruikt word.

350-400W voor 1 570 klopt ook wel aardig als ik dit mag geloven: http://www.guru3d.com/article/geforce-gtx-570-review/8

[ Voor 15% gewijzigd door unfor op 07-10-2011 20:45 ]


Acties:
  • 0 Henk 'm!
naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
Volgens corsair heeft die voeding slechts een 80 plus certificering dat is een instap model aangezien je in volgorde hebt:
80+, 80+ brons, 80+ zilver, 80+ goud en 80+ platina, 80+ titanium Wikipedia: 80 PLUS
Voor de niet kenners
Zoals jij?
de 80+(incl achtervoegsels) staan voor het percentage stroom wat de voeding daadwerkelijk levert aan de pc kant.
Een voorbeeldje een voeding heeft aan de pc kant 400W nodig en door de 80+ certificering levert de voeding 80% vermogen dus zou de voeding 480W uit het stopcontact trekken omdat 20% verloren gaat vaak is dit warmte.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.

De voeding die ik heb is een 80+ goud daarvan durf ik wel te zeggen dat hij echt kan presteren, een voeding met enkel 80+ sorry maar dat noem ik echt geen A-klasse voeding.
Corsair maakt geen slechte voedingen dat zeker niet maar dit model zou ik persoonlijk links laten liggen gezien de mindere prestaties.

Ik zou eerst het vermogen per kanaal op de PCI-e lijn eens bekijken wanneer deze een zware kaart moet aansturen als deze full load draait.
Wat is dit voor onzin? :X
Jasper 99 schreef op vrijdag 07 oktober 2011 @ 14:31:
[...]


mager mager ik zou het niet durven op een 750 okal is het een A voeding. Beetje overclocken op je 580's en het gaat snel erg krap worden. Ik zelf doe het lekker op 1000w voeding dat moet lukken met oc van proc geheugen en kaarten. Maar 550 voor een 570 zou best moeten kunnen (btw ik redde op 2x560ti SOC het niet met een 750 voeding dus dat was een beetje gaar)
En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat. :/

Twee GTX580's moet prima kunnen op een HX750 zolang de gebruiker geen extreme dingen doet.

Een GTX570 op een Corsair VX550 is ook geen probleem.

[ Voor 21% gewijzigd door -The_Mask- op 07-10-2011 20:52 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
In theorie zou zelfs 570 SLI kunnen op een 550 watt PSU.
Niet aan te raden, maar voor een test zou het wel eens grappig zijn.

[ Voor 38% gewijzigd door unfor op 07-10-2011 21:07 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
-The_Mask- schreef op vrijdag 07 oktober 2011 @ 20:49:
En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat. :/
Ehhm zoek eerst de betekenis van certificering eens op voor je zon opmerking gaat plaatsen waar "zo'n stickertje" voor staat, je weet dondersgoed dat het te maken heeft met de prestatie van de voeding.

Er is niks onzins aan het geeft puur aan welk deel van het ingaande vermogen wordt omgezet in bruikbaar vermogen. 80+ is echt een instap voeding aangezien 80+ brons de gangbare minimum prestatie index is van een kwaliteits voeding als je een beetje bij de knappe merken kijkt.
2 zaken maken een goede voeding:
1) Goede componenten er zijn een aantal merken die knappe onderdelen in hun voeding gebruiken oa corsair, be quiet.
2) De prestatie in dit geval de efficiency uitgedrukt in de 80+ standaard.
Punt 2 slaat natuurlijk direct op punt 1 zonder goede componenten geen goede efficiency.
Kijk je enkel naar het 1e punt dan ben je niet goed bezig, combinatie van 1 en 2 is wat een goede voeding maakt.

Maarja als jij een certificering ziet als enkel een stickertje dan moet je dat vooral zo blijven doen maar er zit wel degelijk een standaard achter die ook ergens op slaat en onderscheid maakt tussen een voeding en een goede voeding.
unfor schreef op vrijdag 07 oktober 2011 @ 20:39:
[...]

Zo vreemd is dat niet hoor, in een potje BF3 waar mijn CPU 95% en beide GPU's 99% gestressed worden gebruikt mijn voeding 470 watt uit de muur.
i5 760 @ 3.8 + 6970 crossfire. Als ik reviews bekijk is het behoorlijk in lijn met wat daar verbruikt word.

350-400W voor 1 570 klopt ook wel aardig als ik dit mag geloven: http://www.guru3d.com/article/geforce-gtx-570-review/8
470W is al een stuk meer dan de 350-400 die werd genoemd ;)
Jouw CPU is zuiniger en Nvidia staat er nou eenmaal om bekend niet zuinig te zijn met stroom.
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]

470W is al een stuk meer dan de 350-400 die werd genoemd ;)
Ja logisch, ik heb 2 GPU's.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
unfor schreef op vrijdag 07 oktober 2011 @ 21:17:
[...]

Ja logisch, ik heb 2 GPU's.
De 6870 in CF gebruikt even veel stroom als 1 570(volgens guru3D) dus zo vreemd is dat niet hoor :p

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
naaitsab schreef op vrijdag 07 oktober 2011 @ 21:23:
[...]

De 6870 in CF gebruikt even veel stroom als 1 570(volgens guru3D) dus zo vreemd is dat niet hoor :p
Das mooi, ik heb 2 6950 @ 6970, geen 6870.
Volgens reviews verbruikt de 570 net wat meer dan 200 watt stressed.

Acties:
  • 0 Henk 'm!

  • Mon
  • Registratie: November 2001
  • Laatst online: 04-05 06:23

Mon

Geupgrade en getest toevallig?

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
[...]Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt.
Volgens dit lijstje op het Atomic forum verbruikt een 570 maar zo'n 200W, dat is piek verbruik tijdens gamen. 2 van die kaarten in SLI verbruiken 'maar' ~370W op z'n max. Daar komt bij dat spellen meestal niet 100% CPU gebruiken (en als dat wel gebeurt knijpen ze mogelijk de GPU).
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
Waarschijnlijk:
- Beter iets te veel dan iets te weinig. Van te veel heb je geen last, wel van te weinig
- Rekening houden met merk X voedingen die 600W beloven maar dat alleen halen bij piek-verbruik.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
-The_Mask- schreef op vrijdag 07 oktober 2011 @ 20:49:
[...]
Zoals jij?
[...]

Wat is dit voor onzin? :X


[...]

En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat. :/

Twee GTX580's moet prima kunnen op een HX750 zolang de gebruiker geen extreme dingen doet.

Een GTX570 op een Corsair VX550 is ook geen probleem.
toon volledige bericht
Ik snap niet dat je mij quote en wil tegen spreken terwijl ik hetzelfde zeg?? Beetje raar ik heb een 1000watt A merk voeding en ja dat zegt wel wat zegt dat ik wat meer breathing room heb en dat zeg jij ook dus ik snap niet helemaal waar je naartoe wil... 2x 580 kan op die hx750 maar zoals ik al zei wordt je systeem overclocken ietsje enger zou ik zeggen, ik zeg niet dat hij een 1000 watt B merk moet halen die eigenlijk maar 600 w kan leveren. maarja

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
2x 580 kan op die hx750 maar zoals ik al zei wordt je systeem overclocken ietsje enger zou ik zeggen
Ik heb ook nog 4 HDD's, 1 geluidskaart, een Nvidia 8400 gs, (destijds) 3x2Gb RAM en 6 fans + fan controller erin zitten. Ik heb mijn i7 950 op 4.1GHz en ik heb mijn 580's overclocked tot 925MHz Core met maximaal toegestane voltage en daarmee heb ik benchmarks gedraaid (Heaven, 3DMark, AvP, Crysis). Mijn hoogste piek was netto ongeveer 800W. (en daar komt nog bovenop dat mijn voeding getest is en 900W sustained kan leveren.)

Ik denk dat je behoorlijk overschat wat voor voeding echt nodig is voor dit soort systemen.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
hmm ik heb die 1000 watt op aanraden van de mask genomen :) maar das best wat dat dat er veilig op draait vind ik netjes vooral met die overclocks! Maar inderdaad corsair is dan ook echt een prima merk :D !

Wel vreemd dat ik met mijn xfx750pro wat opzich prima dingen zijn niet 2x560 kon trekken al zou het ook iets anders kunnen zijn geweest maarja.

Terug naar waar de vraag en ja daar ben ik het mee eens moet makkelijk kunnen op die 550 :) !

Iemand ook met de nieuwe drivers soms geklooi met kaarten die niet in de 2de staat van 2d modus willen gaan bij afspelen van video (dus de half clock die soms op full clock blijft)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

IDD goed bezig!, waarom zou je ook het randje op willen zoeken en de voeding op volle toeren laten draaien.. ik vind het merkwaardig dat mensen voedingen aan raden die het allemaal net aan trekken, beter idd meteen 1000w of 1200w zodat je ruimte hebt in de toekomst en je voeding lekker stabiel en koel draait.


Het lijkt wel een sport om macho te doen om met een zon goedkoop mogelijke voeding + laag wattage een videokaart aan te sturen die eigenlijk net iets te weinig stroom krijgt en zo nog een slechte FPS neerzet ook 8)7 Dat die mensen op dit forum zitten is mij een raadsel.

Ik heb een 1000w voeding 80+ bronze nog onderuit gehaald met een paar videokaarten 2 GTX 480's met gemodde bios etc.

Uiteindelijk had ik de 1000w opgeblazen en ging RMA

Voor die paar tientjes meer heb ej tegenwoordig 300w erbij.
Natuurlijk werkt een shit voeding op een goede videokaart maar lekker als je fps dan opeens weg zakt naar 25 _/-\o_ waar het 80 hoort te zijn. Zo beginnen de meeste idd tot ze wakker worden.

Ik vraag me af wanneer ik hier mensen tegen kom die TRI SLI setups gaan draaien met een aldi 300w :F

[ Voor 63% gewijzigd door A87 op 11-10-2011 17:24 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!
unfor schreef op vrijdag 07 oktober 2011 @ 21:06:
In theorie zou zelfs 570 SLI kunnen op een 550 watt PSU.
Niet aan te raden, maar voor een test zou het wel eens grappig zijn.
Een 550W voeding? Dat zegt helemaal niks, zijn zoveel 550W voedingen waarbij de kans groot is dat die ontploft als je dat doet dan bestaat er ook een kans dat je de videokaarten kunt weggooien.

Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]

Ehhm zoek eerst de betekenis van certificering eens op voor je zon opmerking gaat plaatsen waar "zo'n stickertje" voor staat, je weet dondersgoed dat het te maken heeft met de prestatie van de voeding.
Wat? Zegt juist helemaal niks over de prestaties van een voeding alleen over het rendement en dan nog zijn er heel veel voedingen met niet kloppende 80PLUS certificeringen.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.
Denk dat jij hier trouwens ook eens moet Googlen hoe het nu werkt want ik weet niet hoe je hier bij komt.
Er is niks onzins aan het geeft puur aan welk deel van het ingaande vermogen wordt omgezet in bruikbaar vermogen. 80+ is echt een instap voeding aangezien 80+ brons de gangbare minimum prestatie index is van een kwaliteits voeding als je een beetje bij de knappe merken kijkt.
Ook onzin, als je gaat kijken naar het 80PLUS certificaat om een voeding te kiezen ga je heel veel miskopen doen. Er zijn zoveel bagger voedingen te krijgen met 80PLUS certificering. Coolermaster GX750 is een mooi voorbeeld, echt troep...
2 zaken maken een goede voeding:
1) Goede componenten er zijn een aantal merken die knappe onderdelen in hun voeding gebruiken oa corsair, be quiet.
Be Quiet? De eerste kwaliteits voeding van Be Quiet zal waarschijnlijk begint volgend jaar komen.
2) De prestatie in dit geval de efficiency uitgedrukt in de 80+ standaard.
Punt 2 slaat natuurlijk direct op punt 1 zonder goede componenten geen goede efficiency.
Onzin, efficientie staat los van kwaliteit en prestaties.

Kijk je enkel naar het 1e punt dan ben je niet goed bezig, combinatie van 1 en 2 is wat een goede voeding maakt.
Maarja als jij een certificering ziet als enkel een stickertje dan moet je dat vooral zo blijven doen maar er zit wel degelijk een standaard achter die ook ergens op slaat en onderscheid maakt tussen een voeding en een goede voeding.
Is het ook daarom hebben veel reviewers er ook een hekel aan. O.a. omdat er mee gesjoemel wordt, dat het niks zegt over de prestaties/kwaliteit en omdat je het meestal niet zal terug verdienen.
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
Omdat niets zeggen ook zo weinig is en de meeste mensen denken dat je naar een stickertje op de voeding moet kijken met een x aantal watt en dus laten ze die waan maar bestaan.
Max Hunt schreef op zondag 09 oktober 2011 @ 17:35:
[...]
Ik heb ook nog 4 HDD's, 1 geluidskaart, een Nvidia 8400 gs, (destijds) 3x2Gb RAM en 6 fans + fan controller erin zitten. Ik heb mijn i7 950 op 4.1GHz en ik heb mijn 580's overclocked tot 925MHz Core met maximaal toegestane voltage en daarmee heb ik benchmarks gedraaid (Heaven, 3DMark, AvP, Crysis). Mijn hoogste piek was netto ongeveer 800W. (en daar komt nog bovenop dat mijn voeding getest is en 900W sustained kan leveren.)
Dat die voeding daar dat kan betekend helemaal niet dat jouw voeding dat kan en het is sowieso af te raden om het te doen, de voeding is er niet voor berekend. Ook belast je de onderdelen niet maximaal met de programma's die jij noemt, maar met die max moet je wel rekening houden.
Lias schreef op dinsdag 11 oktober 2011 @ 17:13:
Het lijkt wel een sport om macho te doen om met een zon goedkoop mogelijke voeding + laag wattage een videokaart aan te sturen die eigenlijk net iets te weinig stroom krijgt en zo nog een slechte FPS neerzet ook 8)7 Dat die mensen op dit forum zitten is mij een raadsel.
Slechte FPS ga je niet krijgen.
Ik heb een 1000w voeding 80+ bronze nog onderuit gehaald met een paar videokaarten 2 GTX 480's met gemodde bios etc.

Uiteindelijk had ik de 1000w opgeblazen en ging RMA
Klinkt als een slechte voeding of pech.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • MEN-O
  • Registratie: Oktober 2006
  • Laatst online: 10:27
Kleine bjidrage aan het topic : doordat mijn HD4850 overleden was heb ik noodgedwongen een GTX560 gekocht, en die (tijdelijk) op een externe voeding aangesloten (bequiet 350watt).
Dit werkte, todat ik een game opstartte, na een minuut of 5 kreeg ik een reboot en begon alleen de fan van de kaart op vol vermogen te draaien. - direct uit gezet natuurlijk.

- Weet iemand of de fan door het mobo gevoed wordt ?

Nu overigens met een B merk(?) Recom Power Engine 0dB 80+ 580 Watt, schijnt uit nederland te komen.
dit icm met een Q6600 op 2,4 en 1 HD en 1 DVD brander, slechts 2 Gb intern en een cardreader.

Tot deze keuze gekomen omdat er standaard een 250 Watt (Acer) voeding in zat, en 3 jaar mijn 4850+Q6600 heeft gevoedt. (En 580 Watt dus ruim bemeten lijkt)

Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
Ik heb met mijn nieuwe gtx570 een vreemd probleem.

Systeem specs:

Intel I7 2600K
ASUS ENGTX570
ASUS P8H67-M EVO
Kingston HyperX 8 GB.
550 WATT voeding van corsair

op Desktop, photoshop en al die pc applicaties gaat het prima. Zodra er een zwaar spel, BF3 beta en 3Dmarks 11 uitgevoerd wordt

Afbeeldingslocatie: http://i53.tinypic.com/2lsi0j7.jpg

Gaat het beeld stil staan in BF3 en zie ik in 3dmarks af en toe het beeld stil staan, en/of er verschijnen van die parse tot groene felle kleuren in beeld (helaas geen screenshot van) wat lijkt op een artifact.

Afbeeldingslocatie: http://i54.tinypic.com/28rmtf6.jpg

- Heb de nieuwste stabiele drivers van Nvidia
- Videokaart al een keer erin en uit gedaan
- Hij wordt absoluut niet warm

[ Voor 5% gewijzigd door rudyman85 op 11-10-2011 19:53 ]


Acties:
  • 0 Henk 'm!

  • Bull
  • Registratie: December 2000
  • Laatst online: 11:21
550 watt voeding is wat aan de krappe kant, zelfs al is ie van Corsair.

600+ zit je wel goed met jouw configuratie.

https://tweakers.net/gallery/18583/inventaris/


Acties:
  • 0 Henk 'm!
Is sowieso niet de voeding en zal ook niks helpen deze te vervangen.

Is of driver probleem of een kapotte videokaart hoogstwaarschijnlijk. Als je nog een oude HD hebt zou je daar Windows opnieuw op kunnen installeren zien als het dan wel werkt. Videokaart testen in een andere PC kun je ook proberen, dan weet je zeker of die stuk is of niet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
-The_Mask- schreef op dinsdag 11 oktober 2011 @ 20:48:
Is sowieso niet de voeding en zal ook niks helpen deze te vervangen.

Is of driver probleem of een kapotte videokaart hoogstwaarschijnlijk. Als je nog een oude HD hebt zou je daar Windows opnieuw op kunnen installeren zien als het dan wel werkt. Videokaart testen in een andere PC kun je ook proberen, dan weet je zeker of die stuk is of niet.
Ga ik proberen. bedankt !

[ Voor 14% gewijzigd door rudyman85 op 11-10-2011 22:04 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Update ook even windows en alle andere drivers als je toch bezig bent. Dit om zoveel mogelijk uit te sluiten..

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
Format-C schreef op dinsdag 11 oktober 2011 @ 22:27:
Update ook even windows en alle andere drivers als je toch bezig bent. Dit om zoveel mogelijk uit te sluiten..
Gedaan inderdaad. Heb nu net een schone Win7 erop met alle updates.

Heb de kaart nu een weekje. Eerst ging het wel goed met spellen. Bad company 2 nog een aantal uur kunnen spelen bijvoorbeeld. Nu ik de singelplayer opstart is het al mis, blijft hangen, artifacts geven en vervolgens maar weer terug naar het bureaublad. Oudere drivers geprobeerd van de cd. Heeft ook niet geholpen.

Maar weer terug met dat ding.

[ Voor 4% gewijzigd door rudyman85 op 11-10-2011 22:36 ]


Acties:
  • 0 Henk 'm!
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
-The_Mask- schreef op dinsdag 11 oktober 2011 @ 22:41:
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.
Zou kunnen. Heb nog een 260gtx liggen, ga ik die eens proberen.

Deze kreeg ik net nog: Afbeeldingslocatie: http://i52.tinypic.com/2a677zp.jpg

Gaat prima hier :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
-The_Mask- schreef op dinsdag 11 oktober 2011 @ 22:41:
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.
Ik zou het niet uitsluiten, toevallig had ik een soortgelijk probleem met mijn laatste videokaart. Eerst deed ie het perfect, toen opeens 1 op de 2-3 reboots en daarna helemaal niet meer. Omdat de kaart het eerst wel gewoon goed deed ging ik er niet vanuit dat het aan de kort kon liggen, ik heb me toen 3 dagen suf gezocht tot ik uiteindelijk bij de kaart terug kwam.

Acties:
  • 0 Henk 'm!
Ik zeg ook niet dat het niet zijn videokaart is, maar ik zou denken dat het de Asus software is die niet helemaal goed werkt met de nVidia software of andersom, aangezien de BSOD daar naar wijst.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
dit is ook de eerste keer dat deze melding voor komt. Zal de Asus Auite 2, smartdocter en gamerOSD eens uninstalleren.

edit: Inmiddels gedaan, zonder goed resultaat. Ik weet eerst voldoende. hartstikke bedankt voor het helpen !

[ Voor 32% gewijzigd door rudyman85 op 11-10-2011 23:04 ]


Acties:
  • 0 Henk 'm!

Anoniem: 245699

naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]
470W is al een stuk meer dan de 350-400 die werd genoemd ;)
Jouw CPU is zuiniger en Nvidia staat er nou eenmaal om bekend niet zuinig te zijn met stroom.
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
Sorry dat ik hier nog over doorga, maar je begrijpt er volgens mij helemaal niks van...

Ik zeg dat een gemiddelde setup met een enkele GTX570 350-400 uit de muur trekt, Unfor trekt met zijn HD6970CF serup 470 watt uit de muur. Dan toont dat alleen maar aan dat mijn indicatie correct is. En die schatting heb ik niet zomaar gedaan, dat kan je redelijk makkelijk vergelijken met tig reviews van de GTX570...

Die 600watt die de fabrikant aanhoudt heeft ook te maken met het feit dat ze rekening moeten houden met gebruikers die echt zware crap voedingen hebben. Daarbij zegt wattage niks, maar ampere die geleverd kan worden op de 12V rail des te meer. Of dacht je dat een Sweex 600 watt voeding evenveel vermogen kan leveren als een Corsair 550watt voeding?

Verder heeft the mask ook al wel toegelicht dat het 80plus stikkertje weinig zegt over de kwaliteit van een voeding, het kan enigszins een indicatie geven, maar ook niet meer dan dat... Want net of een 80plus gold voeding per definitie beter van kwaliteit is dan een Silver of Bronze, das allerminst waar.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
-The_Mask- schreef op dinsdag 11 oktober 2011 @ 18:03:
[...]

Een 550W voeding? Dat zegt helemaal niks, zijn zoveel 550W voedingen waarbij de kans groot is dat die ontploft als je dat doet dan bestaat er ook een kans dat je de videokaarten kunt weggooien.

Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
Lezen is niet je sterkste punt.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.

Acties:
  • 0 Henk 'm!

  • rudyman85
  • Registratie: Augustus 2002
  • Laatst online: 08:23
unfor schreef op woensdag 12 oktober 2011 @ 19:58:
[...]

Lezen is niet je sterkste punt.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.
Inmiddels een 850 watt van corsair erbij gekocht, zonder resultaat. Dus terug sturen. Heb er nu een 260GTX in zitten, die werkt prima :) (even niet letten op framerates in spellen :))

[ Voor 5% gewijzigd door rudyman85 op 12-10-2011 21:02 ]


Acties:
  • 0 Henk 'm!
unfor schreef op woensdag 12 oktober 2011 @ 19:58:
[...]

Lezen is niet je sterkste punt.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.
Lezen kan ik prima, maar jouw theorie klopt niet. Als je het namelijk gaat uitrekenen hoeveel iets max verbruikt kom je bijna altijd hoger uit dan dat je in de praktijk maximaal haalt. Dus in theorie kan het juist nog veel minder snel.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • ötzi
  • Registratie: Januari 2007
  • Laatst online: 17-06 20:33

ötzi

eclecticus

Leuke discussie jongens , maar altijd een feest The_Mask te lezen...

ontopic:
Waarom zou 550W niet genoeg zijn als Nvidia dit zelf opgeeft voor een GTX570?
Denk dat de vraag eerder moet zijn welke fabrikant van de voeding?
Een Q-Tek is nu eenmaal niet hetzelfde als laten we zeggen een Seasonic voeding ;)

[ Voor 43% gewijzigd door ötzi op 13-10-2011 00:39 ]


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:45
-The_Mask- schreef op dinsdag 11 oktober 2011 @ 18:03:
[...]

Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
http://www.ocia.net/reviews/asusgtx580/page3.shtml

GTX580 review op een pricewatch: FSP Aurum 500 met overklok.

FSP was toch slecht? Of is deze serie van hun goed?

Acties:
  • 0 Henk 'm!

Anoniem: 91626

Niet bekend mee maar een gold 80plus cert. heeft wel enige waarde natuurlijk. Maar waarom zou je het risico nemen om met zo weinig stroom de kaart te laten draaien? Ik kreeg al ruzie met een 500W Silentmaxx (W.C. PSU) en een Nvidia ENGTX285. Deze viel tijdens de extreme momenten ingame gewoon compleet uit met system en al maar nu met 850W nooit meer problemen gehad. Het is leuk dat het werkt maar hou je aan de specs dan ben je altijd beter af!

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:45
Risico? Ik zie nergens dat het systeem ontploft.

Waarschijnlijk is dat een testsysteem voor de reviews en zat die voeding er toevallig in en deed ie het gewoon dus dan zal ie wel goed genoeg zijn. Of in ieder geval voldoende voor de genoemde onderdelen. Hij zegt er ook bij dat als je zwaardere onderdelen hebt of SLI gaat gebruiken, die voeding niet meer zal voldoen, maar dat lijkt me logisch.

En 850W voor een GTX285 lijkt me dat je iets verkeerd doet.

Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 09-06 13:42
Door al die voeding discuties begin ik ook een klein beetje te twijfelen, krijg dit weekend men 2de GTX570

als ik men cpu (i7 875k) stevig overclock (1.4v ) onder wc en men 2 gpu's ( evga classifieds) ook goed boost, (met stock kooler) ga ik er dan nog komen met mijn Coolermaster Silent pro m 850w atx2 ( 85% eff)

Vooral als ik het max uit mijn systeem vraag met even furmark te draaien, vrees ik dat ik er misschien niet meer raak?

Wat denken jullie ervan?

[ Voor 3% gewijzigd door BitchCrew op 13-10-2011 10:22 ]


Acties:
  • 0 Henk 'm!

Anoniem: 91626

Gezien het feit dat het mogelijk is om een GTX580 werkend en overklocked te krijgen is met een 500W voeding zou ik zeggen dat SLI met 2 x GTX570 geen probleem moet zijn zeker niet voor een 850W Coolermaster.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
@mask, een officiële certificering waar een efficiëntie in procent staat vermeld afgeven op een product welke deze certificering niet waar maakt mag officieel niet, dus als een voeding met 80+ variant met het daartoe behorende efficiëntie niet haalt dan kun je een rechtszaak aanspannen dat je voorgelogen bent omdat de voeding niet aan de eisen voldoet of je daar moeite en geld in wilt steken is een 2e.

Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.

Be Quiet maakt al jaren goede voedingen zeker de Dark Power lijn maar de pure power lijn moet je links laten liggen zoals bij elk merk, budget voedingen zijn nou eenmaal niet van hoge kwaliteit maar daar is de prijs ook naar. Wij verkopen al 4 jaar in elke pc een Be Quiet voeding en daarvan zijn de RMA gevallen met 2 handen te tellen, dus sorry maar je uiting dat er geen goede Be Quiet voeding is neem ik met een hele grote korrel zout.

Maar genoeg hierover, zullen we de voeding discussie verder afwerken in het daarvoor bestemde topic?
[BBG aanschaf] Voedingen - Deel 28

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Anoniem: 245699

naaitsab schreef op donderdag 13 oktober 2011 @ 12:49:
Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Toch is je stelling wat te makkelijk.. Want zo is bijv. een Scythe Chouriki 2 Plug-in 650W (80plus Silver) zeker niet beter dan een Seasonic M12II bronze 620watt (80 plus bronze). Het geeft een indicatie, maar niet meer dan dat...
Wat betreft Be Quiet, wat the Mask denk ik wil zeggen is dat de Dark Power serie opzich wel goed is, maar heeft een vrij hoge riple vergeleken met andere voedingen uit hetzelfde segment die zelfs nog goedkoper zijn.

Je hebt verder wel gelijk dat deze discussie hier niet verder gevoerd hoeft te worden. ;)

[ Voor 12% gewijzigd door Anoniem: 245699 op 13-10-2011 22:05 ]


Acties:
  • 0 Henk 'm!

  • Jaapoes
  • Registratie: September 2006
  • Laatst online: 02-06 15:29
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?

EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken }:O

[ Voor 14% gewijzigd door Jaapoes op 14-10-2011 08:47 ]

[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]


Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 09-06 13:42
Uit de Review van de GTX 570:

GeForce GTX 570
On your average system the card requires you to have a 600 Watt power supply unit.

GeForce GTX 570 in SLI

A second card requires you to add another 225 Watts. You need a 850+ Watt power supply unit if you use it in a high-end system (1 KiloWatt recommended if you plan on any overclocking).

Ik vermoed wel dat dit met marge genomen is kwa kwaliteit van een voedig en harde schijven enz.

Ik kan me niet goed inbeelden dat tegenwoordig een 1KW voeding al nodig is 8)7

Acties:
  • 0 Henk 'm!

  • Jaapoes
  • Registratie: September 2006
  • Laatst online: 02-06 15:29
Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet.. :s

Ik denk zelf dat het wel moet kunnen aangezien de Corsair voedingen bekend staan als kwalitatief goede voedingen alleen denk ik dat hij dan wel voortdurend op zn max/piek draait met games zeg maar.. Dat lijkt me niet echt wenselijk?

[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]


Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 09-06 13:42
ja maar in een andere zeggen ze 850+ ( zie post erboven, is c/p uit guru review).
heb het even gevraagd voor mijn situatie in de voeding topic.

ook vooral omdat ik ver wil oc'en en toch een belasting zal krijgen die zich eigenlijk nooit voordoet ( furmark, prime, ...)

Het laatste wat ik wil is dat de voeding er dan uitklapt ze :-)

[ Voor 13% gewijzigd door BitchCrew op 14-10-2011 10:04 ]


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Jaapoes schreef op vrijdag 14 oktober 2011 @ 09:59:
Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet.. :s

Ik denk zelf dat het wel moet kunnen aangezien de Corsair voedingen bekend staan als kwalitatief goede voedingen alleen denk ik dat hij dan wel voortdurend op zn max/piek draait met games zeg maar.. Dat lijkt me niet echt wenselijk?
Bij Guru3d trekken zo onder full-stress 578 watt uit de muur;
- http://www.guru3d.com/article/geforce-gtx-570-sli-review/13
Dit is met een vrij onzuinige i7 965 @ 3.75Ghz.

Trekken we daar efficientieverlies vanaf (uitgaande van 88%), dan zit je zo op de (578*0.88=) 510 watt, dat werkelijk van de PSU gevraagd wordt.

Zolang jij je videokaarten niet extreem gaat overclocken en overvolten gaat die HX750 het echt (makkelijk) houden.

EDIT; Natuurlijk is één voorbeeld niet heel accuraat, maar al zou je er 50-100watt bij op tellen, dan nog heb je redelijk wat marge over. Bedenk ook dat een HX750 tot iets van 900watt kan leveren en stabiel blijft...

[ Voor 11% gewijzigd door Anoniem: 245699 op 14-10-2011 11:24 ]


Acties:
  • 0 Henk 'm!

  • Jaapoes
  • Registratie: September 2006
  • Laatst online: 02-06 15:29
Anoniem: 245699 schreef op vrijdag 14 oktober 2011 @ 11:14:
[...]

Bij Guru3d trekken zo onder full-stress 578 watt uit de muur;
- http://www.guru3d.com/article/geforce-gtx-570-sli-review/13
Dit is met een vrij onzuinige i7 965 @ 3.75Ghz.

Trekken we daar efficientieverlies vanaf (uitgaande van 88%), dan zit je zo op de (578*0.88=) 510 watt, dat werkelijk van de PSU gevraagd wordt.

Zolang jij je videokaarten niet extreem gaat overclocken en overvolten gaat die HX750 het echt (makkelijk) houden.

EDIT; Natuurlijk is één voorbeeld niet heel accuraat, maar al zou je er 50-100watt bij op tellen, dan nog heb je redelijk wat marge over. Bedenk ook dat een HX750 tot iets van 900watt kan leveren en stabiel blijft...
Volgens mij klopt je verhaal niet helemaal want boven dat guru3d stuk staat:
We'll be calculating the GPU power consumption here, not the total PC power consumption.

[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Jaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?

EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken }:O
Ik heb dezelfde HX750w Corsair voeding. Ik heb 0-3 pagina's terug wat over mijn systeem verteld (zie ook mijn inventaris) en voor mij is deze voeding goed genoeg. Pas toen ik mijn 2 GTX 580's enorm ging overvolten en overclocken was de vraag iets meer dan de voeding volgens de specs aan zou kunnen.

Tijdens games wordt meestal hooguit 600W verbruikt, dat is dus een load va 80%. Ik heb zo'n 9 maand bijgehouden wat mijn PC aan stroom verbruikt. In het begin dacht ik ook dat ik een zwaardere voeding nodig had, nu zie ik dat puur als geldverspilling.

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Jaapoes schreef op vrijdag 14 oktober 2011 @ 15:11:
[...]

Volgens mij klopt je verhaal niet helemaal want boven dat guru3d stuk staat:
We'll be calculating the GPU power consumption here, not the total PC power consumption.
Nee, zie;
Measured power consumption

1. System in IDLE = 218W
2. System Wattage with GPU in FULL Stress = 578W
3. Difference (GPU load) = 360W
4. Add average IDLE wattage ~ 50W
5. Subjective obtained GPU power consumption = ~ 410 Watts
Systeem totaal is dus 578watt. GPU's is ~410watt

[ Voor 37% gewijzigd door Anoniem: 245699 op 14-10-2011 17:19 ]


Acties:
  • 0 Henk 'm!
naaitsab schreef op donderdag 13 oktober 2011 @ 12:49:
@mask, een officiële certificering waar een efficiëntie in procent staat vermeld afgeven op een product welke deze certificering niet waar maakt mag officieel niet, dus als een voeding met 80+ variant met het daartoe behorende efficiëntie niet haalt dan kun je een rechtszaak aanspannen dat je voorgelogen bent omdat de voeding niet aan de eisen voldoet of je daar moeite en geld in wilt steken is een 2e.
Nou er zijn tientallen voedingen met neppe 80PLUS certificaties dus ik wens je succes met je rechtzaken. Heb nog wel zo'n voeding hier thuis liggen.
Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Nee heeft er vrij weinig mee te maken ik zou zeggen lees je in voordat je dingen roept waar je niks vanaf weet. Er zijn genoeg voedingen met 80PLUS Gold certificaat die minder zijn dan voedingen met 80PLUS standaard, ook logisch want rendement staat los van kwaliteit en prestaties.
Be Quiet maakt al jaren goede voedingen zeker de Dark Power lijn maar de pure power lijn moet je links laten liggen zoals bij elk merk, budget voedingen zijn nou eenmaal niet van hoge kwaliteit maar daar is de prijs ook naar. Wij verkopen al 4 jaar in elke pc een Be Quiet voeding en daarvan zijn de RMA gevallen met 2 handen te tellen, dus sorry maar je uiting dat er geen goede Be Quiet voeding is neem ik met een hele grote korrel zout.
Kan je doen, maar dat van mij is iig op feiten gebaseerd en dat van jouw is een mening.
Aantal goede reviews zijn er niet heel veel, Be Quiet! zend maar weinig review samples uit. Maar de reviews die er zijn zeggen wel genoeg prestaties en kwaliteit is niet al te hoog en de prijs die Be Quiet! vraagt is gewoon altijd te hoog.
http://www.overclock3d.ne...wer_pro_p8_1000w_review/3
Waar is dan de hoge kwaliteit van de voeding? Ik zie maar redelijke of beter gezegd matige kwaliteit voor een voeding van zijn prijs.

http://www.overclock3d.ne...wer_pro_p8_1000w_review/4
Ik zie geen bijzonder stabiele spanningen, jij wel?

http://www.overclock3d.ne...wer_pro_p8_1000w_review/5
Rimple van de 12V en 3,3V niet eens binnen de ATX specificaties dat is gewoon slecht.
Maar genoeg hierover, zullen we de voeding discussie verder afwerken in het daarvoor bestemde topic?
[BBG aanschaf] Voedingen - Deel 28
Ik lees het topic wel dus als je er nog wat over kwijt wil zie ik het wel verschijnen.
Ging over SLi hè, niet een enkele kaart.
FSP was toch slecht? Of is deze serie van hun goed?
Meestal rond matig/redelijk, FSP Aurum is wel leuk geprijst als je graag een efficiente voeding wil, maar ze hebben ook nadelen. Niet echt stil, geen hoge kwaliteit en prestaties.
Jaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?

EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken }:O
Voor de meestal zal het wel voldoen, maar ligt een beetje aan de overkloks die geplanned staan.
Jaapoes schreef op vrijdag 14 oktober 2011 @ 09:59:
Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet.. :s
Guru3D moet je niet serieus nemen, vooral niet met voedingen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Anoniem: 245699 schreef op vrijdag 14 oktober 2011 @ 17:18:
[...]
[...]
Systeem totaal is dus 578watt. GPU's is ~410watt
Op het Atomic forum komen ze uit op ~370W voor SLI GTX 570, dat komt dus behoorlijk precies overeen. Het gaat dan ook om piek waarden, tijdens gamen kom je vrijwel nooit boven die waarde en zit je vrijwel altijd daar onder (bij mij is dat meestal tussen de 50-100W).

Voor overclocken geven ze op het Atomic forum een soort vuistregel, voor elke 1% snelheidswinst stijgt het stroomverbruik met iets minder dan 1%, voor de zekerheid kun je het wat ruimer nemen en is elke 1% meer snelheid 1% meer stroomverbruik.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

edit

[ Voor 123% gewijzigd door A87 op 14-10-2011 21:50 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • darkphoenix
  • Registratie: November 2002
  • Laatst online: 21-04 06:55

darkphoenix

Chikara

Jaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?

EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken }:O
Ik heb dit systeem nu draaien sinds een maand en draait als een zonnetje! nergens geen probleem op max instellingen, zoals crysis2 met dx11 en highres,of metro 2033. rage. enz! voeding trekt dit prima

Sli werkt super!

1 x Zalman CNPS10X Performa
2 x MSI 1.2 D5 X N570GTX Twin FrozrIII PE/OC
1 x MS Windows 7 Ul 64b Alternate NL SP1
1 x Int Core i7-2600K 3400 1155 BOX
1 x Enermax 800EWT Modu87+ 800W ATX
1 x CooMas CM690II Advanced
1 x *** 2 jaar on-site garantie ***
1 x SonyNec 24x SA 7260S BlB
1 x SSD 120GB 275/285 Vertex2 35 SA2 OCZ
1 x LG BH10LS 10x SA LS Bk R
1 x Asus P8Z68-V Z68 FRG SA
1 x Sams 1TB HD103SJ F3 SA2
1 x D3 8GB 1600-999 RipjawsX K2 GSK
1 x Crea X-Fi Xtreme Audio PCIe R

Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver


Acties:
  • 0 Henk 'm!
Max Hunt schreef op vrijdag 14 oktober 2011 @ 21:21:
[...]
Op het Atomic forum komen ze uit op ~370W voor SLI GTX 570, dat komt dus behoorlijk precies overeen. Het gaat dan ook om piek waarden, tijdens gamen kom je vrijwel nooit boven die waarde en zit je vrijwel altijd daar onder (bij mij is dat meestal tussen de 50-100W).
In principe komen ze daar nergens op uit, want ze meten niks er wordt gekeken naar andere reviews. Maar de 370W is wel iets wat je kan halen in veel games, 500W is iets wat alleen met Furmark lukt, maar wel iets om rekening mee te houden als je dit gaat gebruiken.
Voor overclocken geven ze op het Atomic forum een soort vuistregel, voor elke 1% snelheidswinst stijgt het stroomverbruik met iets minder dan 1%, voor de zekerheid kun je het wat ruimer nemen en is elke 1% meer snelheid 1% meer stroomverbruik.
Vuistregel:
Frequentie stijgt linear met het verbruik
Spanning stijgt exponentieel met het verbruik.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jaapoes
  • Registratie: September 2006
  • Laatst online: 02-06 15:29
Als ik er een 2de gtx naast prik dan worden die niet overgeklokt, alleen mn cpu blijft op 4.5 lopen. Ik ga het gewoon proberen, als ik er 1tje bij heb post ik mijn ervaringen hier! :)

[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]


Acties:
  • 0 Henk 'm!

  • Streepje
  • Registratie: Augustus 2006
  • Laatst online: 23-01-2024

Streepje

noem me maar Streepje

Mensen ik wou even vragen of er mensen zijn die mij even hun mening kunnen geven.

Ik draai in mijn systeem 2x een Asus GTX580 pricewatch: Asus ENGTX580/2DI/1536MD5 . Nou word mijn 1ste kaart tijdens het gamen al gauw 80graden en de 2e kaart loopt op tot de 85-90 graden en ik heb al wel eens een paar keer gehad dat games gewoon vastlopen(weet niet of dit aan de kaarten kan liggen)

Nou lijkt het mij dat een standaard kaart de fan harder laat draaien bij hogere temperaturen maar de ventilatoren van mijn kaarten komen nooit boven de 2400 toeren uit dus moest ik met smartdoctor een manueel fan profiel aanmaken zodat me fans harder gaan draaien als de kaart warmer wordt.

En hier wou ik graag jullie mening over horen.Als er mensen zijn die soort gelijke ervaringen hebbenhoor ik dat ook graag

Het lijkt mij dus niet de bedoeling dat men een zelf een profiel moet aanmaken om je kaarten koel te houden!!

p.s. systeem specs hieronder

inventaris: Game pctje

[ Voor 3% gewijzigd door Streepje op 16-10-2011 13:52 ]

Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Het kan zijn dat met het originele profiel de fan pas echt hard gaat draaien bij nog hogere temperaturen. Ik heb zelf met MSI Afterburner een nieuw profiel gemaakt waarmee de fans tijdens idle niet te horen zijn, maar tijdens gamen snel hard gaan blazen. Tijdens het gamen heb je meestal genoeg geluid om je heen en hoor je de fans toch niet, maar zo blijven je kaarten wel kouder.

Zelf heb ik ook de bracket van de achterkant van mijn 580's eraf gehaald, dat scheelde ook nogal wat qua temperatuur. Tijdens gamen komt de warmste 580 nu niet boven de 75 graden uit, meestal is ie zelfs zo rond de 70.

Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
Afbeeldingslocatie: http://www.bioinf.nl/~maxily/pc_a_k_1.jpg

Acties:
  • 0 Henk 'm!

  • Streepje
  • Registratie: Augustus 2006
  • Laatst online: 23-01-2024

Streepje

noem me maar Streepje

ik heb het een poosje aangekeken en de fans komen echt nooit boven de 2400 toeren waardoor dus mijn kaarten echt warm worden. De enigste manier om de fans harder te laten draaien was met een fan profiel.
Ik heb zelfs 1 kaart nog een slot opgeschoven zodat hij wat meer frisse lucht zou krijgen

Ik zal je tip over de brackets eens proberen als me nieuwe SSD er is moet ik toch de halve pc slopen (meteen wat kleine mods doen)

[ Voor 12% gewijzigd door Streepje op 16-10-2011 14:45 ]

Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!

Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800

[ Voor 24% gewijzigd door A87 op 16-10-2011 21:18 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Astratuner
  • Registratie: December 2004
  • Laatst online: 17-06 19:56
Ik heb net een MSI N570GTX Twin Frozr III Power Edition/OC besteld en ik kom van een EVGA GTX260 core 216. Dus ik ben al een beetje bekend met het Precision tool van EVGA dat eigenlijk heel hard op die Afterburner van MSI lijkt.

Nu vroeg ik mij af als ik deze kaart wil overclocken, op welk gedeelte moet ik mij het meeste focussen om de beste prestaties van mijn kaart naar boven te brengen? Alles op core MHz zetten of proberen een goeie balans te vinden tussen Core,Shader en Memory MHz'n?

Als ik het goed heb kan je met je core te oc'n de meeste prestaties unlocken niet?

Bedankt.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-06 21:35

Deathchant

Don't intend. Do!

ja, core geeft de meeste impact ;) Shader gaat automatisch mee omhoog he ;)
Mooie kaart, ik heb em zelf ook. Stil en zeer koel in full load. Wat ook fijn is aan deze kaart is dat hij even lang is als de GTX560Ti of ietsje langer. Dus hij is net niet evenlang als een standaard ATX mobo.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • CopyCatz
  • Registratie: September 2000
  • Laatst online: 17-06 22:15
Lias schreef op zondag 16 oktober 2011 @ 21:18:
Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!

Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
De mijne komt morgen binnen, goed om te zien dat er zulke resultaten mee behaald kunnen worden :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Lias schreef op zondag 16 oktober 2011 @ 21:18:
Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!

Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
Hoe kom je eigenlijk eraan dat ie 40% sneller is dan een normale 580? Je Core is 158MHz sneller en je geheugen 400MHz sneller dan een stock 580. Als ik bijv. kijk naar de verschillende 3DMark 11 GPU scores die ik krijg met stock of op 925/4200 dan is dat ongeveer 11.700 vs 13.100, totale score gaat dan om 10.000 vs 11.400. (Dat is dan ook meteen mijn max. overclock)

Acties:
  • 0 Henk 'm!

  • Arsenius
  • Registratie: November 2005
  • Niet online
Deze MSI N580GTX Twin Frozr II/OC op 823MHz lijkt me wel wat. Jammer dat hij nog iets te duur is. 430 / 440 euro is mij iets te veel van het goeie, als hij onder de 400 komt dan neem ik 'm.. 8)

Acties:
  • 0 Henk 'm!

  • Streepje
  • Registratie: Augustus 2006
  • Laatst online: 23-01-2024

Streepje

noem me maar Streepje

Max Hunt schreef op zondag 16 oktober 2011 @ 14:26:
Het kan zijn dat met het originele profiel de fan pas echt hard gaat draaien bij nog hogere temperaturen. Ik heb zelf met MSI Afterburner een nieuw profiel gemaakt waarmee de fans tijdens idle niet te horen zijn, maar tijdens gamen snel hard gaan blazen. Tijdens het gamen heb je meestal genoeg geluid om je heen en hoor je de fans toch niet, maar zo blijven je kaarten wel kouder.

Zelf heb ik ook de bracket van de achterkant van mijn 580's eraf gehaald, dat scheelde ook nogal wat qua temperatuur. Tijdens gamen komt de warmste 580 nu niet boven de 75 graden uit, meestal is ie zelfs zo rond de 70.

Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
[afbeelding]
Nog even een vraagje over het verwijderen van de brackets, Hoe zet je je kaarten nou vast aan je case? of laat je ze gewoon loshangen?

Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI


Acties:
  • 0 Henk 'm!

  • Imprezzion
  • Registratie: Juni 2010
  • Laatst online: 11-06 07:14

Imprezzion

E92 320i & 307CC

Zit me af te vragen hé.. Is een Zalman VF-3000N / Arctic Accelero Xtreme+ beter dan een MSI Twin Frozr II koeler?

Ik kom van een HD6870 met VF-3000A af naar een GTX560 Ti TF-II/OC en vind de TF-II toch wat lawaaierig en warm. met een kleine overvolt naar 1050mv en 950Mhz op de core raakt hij al 70c aan met ~70% fanspeed in-game. En dan is hij dus niet bepaald stil vergeleken met die VF-3000A. Die was op 100% nog stiller dan die TF-II op 60%.

Als ik zo de beide PCB's van de reference GTX560 Ti en die van de MSI erbij pak zijn die vrijwel identiek qua mounting en ruimte om de core heen dus de koelers zullen zeker passen.

~ 9800X3D @ 5.5Ghz eCLK + PBO ~ Arctic LF2 240 CPU ~ Crosshair X670E Gene ~ 32GB Dominator Titanium @ 6400C26 FCLK 2200 ~ Zotac RTX 5080 SOLID OC @ 3285 core 18000 VRAM ~ Corsair 2500X ~ Dark Power Pro 11 1000w ~


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Max Hunt schreef op maandag 17 oktober 2011 @ 15:10:
[...]
Hoe kom je eigenlijk eraan dat ie 40% sneller is dan een normale 580? Je Core is 158MHz sneller en je geheugen 400MHz sneller dan een stock 580. Als ik bijv. kijk naar de verschillende 3DMark 11 GPU scores die ik krijg met stock of op 925/4200 dan is dat ongeveer 11.700 vs 13.100, totale score gaat dan om 10.000 vs 11.400. (Dat is dan ook meteen mijn max. overclock)
Tel gewoon de ruwe theorie cijfers bij elkaar op dus core + geheugen overclock is in totaal 40% sneller dan stock 580. Praktisch is het per spel of benchmark anders..

percentages zeg je gewoon in theorie 20% theortisch is sowieso een flink pak sneller.
Een praktisch cijfer bestaat niet omdat het steeds verschild per applicatie

core+geheugen snelheid is nog steeds wel de basis zegmaar.

dus 60% sneller dan een GTX 480 theoretisch.. en dat klopt wel ongeveer want ik haal nu met metro 2033 53 fps in benchmark en met een 480 was dat 35/40.

IIG qua gevoel in games vind ik het wel kloppen allemaal.. en de 480 was al snel dus moet je nagaan wat nu kan op 1 chip

[ Voor 28% gewijzigd door A87 op 18-10-2011 01:04 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 11:45
Als je core 20% sneller loopt en je geheugen ook 20%, loopt ie 20% sneller en niet 40%...

De gtx560ti sli was goedkoper, en kun je ook overklokken.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

mitsumark schreef op dinsdag 18 oktober 2011 @ 01:07:
Als je core 20% sneller loopt en je geheugen ook 20%, loopt ie 20% sneller en niet 40%...

De gtx560ti sli was goedkoper, en kun je ook overklokken.
klopt ook niet omdat geheugen voor andere zaken zorgt zoals AA.
het is toch theorie :P

geheugen speelt een eigen rol dus daarom individueel vergelijken.
geheugen snelheid verschil + core verschil bij elkaar op tellen.. en je hebt een makkelijk cijfer
als de core 20% sneller is en het geheugen 8% zit je al met een probleem dan

Als je een benchmark draait kun je wel zeggen dat het echt x percentage is omdat dat harder cijfers zijn.

Hoe goedkoop de 560 ti ook is ik werd doof van de tering herrie.. klein rot kaartje kan geen warmte kwijt ook niet in ene antec 1200 met fans op max :S.
Zelfs de GTX 480 maakte minder herrie :D.

Alser iet sis wat ik haat is het wel een stoepkrijtje bord achttige herrie in mijn pc :P

Ik ondervind ook dikke stuttering met SLI ik vind 1 kaart veel fijner draaien zeker als je op hoog niveua speelt in shooters ga je dit extreem merken

[ Voor 57% gewijzigd door A87 op 18-10-2011 01:21 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:45
-The_Mask- schreef op vrijdag 14 oktober 2011 @ 21:02:
[...]


Ging over SLi hè, niet een enkele kaart.
Klopt, maar het ging mij om de specs van dat testsysteem dat het gewoon draait.
[...]

Meestal rond matig/redelijk, FSP Aurum is wel leuk geprijst als je graag een efficiente voeding wil, maar ze hebben ook nadelen. Niet echt stil, geen hoge kwaliteit en prestaties.
OK, maar dat systeem draait dus gewoon SB + GTX580 + overklok op een matige 500W voeding. Dat viel me gewoon op. Dus een enkele kaart zou kunnen op een goede 500W voeding.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
IlIlIlIlIl schreef op maandag 17 oktober 2011 @ 18:59:
[...]Nog even een vraagje over het verwijderen van de brackets, Hoe zet je je kaarten nou vast aan je case? of laat je ze gewoon loshangen?
Ik heb een HAF-X kast en daarbij kwam deze "videokaart houder" die ik vast kan schroeven aan de kast en daar steunen de videokaarten dan op. Zonder dit ding zou je met bijv. hout op de bodem van je kast tot je videokaart de kaart omhoog kunnen houden.

Als het gewoon geen optie is om het zonder brackets te doen dan heb je nog wat andere mogelijkheden. EVGA verkoopt brackets met grotere openingen erin, je zou je eigen brackets kunnen "aanpassen" (je knipt er wat grotere gaten in bijv.) of je kan dat doen met de brackets van EVGA.

Acties:
  • 0 Henk 'm!

  • Berreber
  • Registratie: Juni 2011
  • Laatst online: 09:29
Over hoe je ze in de kast hangt, ik laat ze los hangen.

If it ain't broke, don't fix it


Acties:
  • 0 Henk 'm!

Anoniem: 425191

he gtx5xx kenners

ik heb me oog laten vallen op deze kaart http://nl.msi.com/product...Ti-Twin-Frozr-II-SOC.html
ik ben van plan om deze in een sli op stelling te zetten
nu ben ik voor deze kaarten 450 euro kwijt
ik speel echter allen maar bf3 op 180x1920
doe ik hier goed aan of kan ik beter een andere kaart kiezen

greeds aj

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
180x1920 bestaat niet ;) het is waarschijnlijk 1920x1080 (1920pixels breed en 1080px hoog aka Full-HD)

Ik zou gewoon een enkele GTX570 pakken dan dat kost 300 euro en is voor BF3 snel zat.
pricewatch: MSI GTX570 Twin Frozr III Power Edition/OC
Deze overgeklokte versie met andere koeler heb ik zelf in gebruik, prima ding en loopt als een trein.
BF3 gaat ook erg soepel op 1920x1200.

Wat voor systeem heb je verder? aangezien de moderne games vaak ook redelijk zwaar op de CPU leunen.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
Volgens mij moet BF3 op een enkele GTX560 (zonder TI dus) ook prima lopen. Kost de helft minder als die 570 die hierboven genoemd wordt.. Hier thuis liep de Beta in ieder geval retestrak op mijn nieuwe 560. Operation Metro buiten 40-70 fps, in de tunnels 70-90 fps. Ik speel wel (nog) op 1440x900 alles op ultimate dus dat zal wellicht nog wel wat uitmaken itt 1920x1080... Verder gewoon niet overgeklockt AMD phenom x4 systeempje. half jaar/jaar oud.
Ik heb begrepen dat de graphic settings in BF3 dus in de beta nog niet fully optimized waren, dus je kan er echt pas wat van zeggen als de official release uit is denk ik. maar ik vind het een fors verschil 150 of 300 eu...

Acties:
  • 0 Henk 'm!

Anoniem: 425191

@naaitsab

idd bedoel ik 1080x1920
systeem:
Motherboard: ex58-ud5
Processor: Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz (8 CPUs), ~2.8GHz
Memory: 6144MB RAM
voeding 850w

oja wat ik zelf een groot voor deel vind van N560GTX-Ti Twin Frozr II/SOC
is dat de PEG connectors aan de achterkant zitten.
ik heb namelijk een Window en je ziet altijd die pci stekers en met sli vind ik dat gewoon te veel
oja en als het ff kan wil ik het wel op ultra draaien

Acties:
  • 0 Henk 'm!

Anoniem: 91397

Max Hunt schreef op zondag 16 oktober 2011 @ 14:26:

Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
[afbeelding]
Verlies je garantie als je dit uitvoert? Kan je de brackets makkelijk verwijderen en weer terug plaatsen zonder merkbare schade?

Ik heb namelijk het idee dat mijn hawk nooit oud gaat worden als ik de fans zo hoor, en heb geen zin om garantie geneuzel te krijgen als ze binnen een jaar het loodje leggen.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
GeeEs schreef op dinsdag 25 oktober 2011 @ 09:34:
Volgens mij moet BF3 op een enkele GTX560 (zonder TI dus) ook prima lopen. Kost de helft minder als die 570 die hierboven genoemd wordt.. Hier thuis liep de Beta in ieder geval retestrak op mijn nieuwe 560. Operation Metro buiten 40-70 fps, in de tunnels 70-90 fps. Ik speel wel (nog) op 1440x900 alles op ultimate dus dat zal wellicht nog wel wat uitmaken itt 1920x1080... Verder gewoon niet overgeklockt AMD phenom x4 systeempje. half jaar/jaar oud.
Ik heb begrepen dat de graphic settings in BF3 dus in de beta nog niet fully optimized waren, dus je kan er echt pas wat van zeggen als de official release uit is denk ik. maar ik vind het een fors verschil 150 of 300 eu...
Ik vind het sterk als je met een 560 hogere fps krijgt dan ik met een 570 met tot nu toe de snelste S1155 CPU en 16 Gig ram erachter. Dus met de 1080P die genoemd is zul je dat met ultra-high settings echt niet gaan halen.

Als ajwolterink voor een 560 in SLI 450 euro betaald is dat 225 en geen 150 per GPU, voor 150 kom je niet verder dan een 460.
Anoniem: 425191 schreef op dinsdag 25 oktober 2011 @ 10:19:
@naaitsab

idd bedoel ik 1080x1920
systeem:
Motherboard: ex58-ud5
Processor: Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz (8 CPUs), ~2.8GHz
Memory: 6144MB RAM
voeding 850w

oja wat ik zelf een groot voor deel vind van N560GTX-Ti Twin Frozr II/SOC
is dat de PEG connectors aan de achterkant zitten.
ik heb namelijk een Window en je ziet altijd die pci stekers en met sli vind ik dat gewoon te veel
oja en als het ff kan wil ik het wel op ultra draaien
Systeem zelf ziet er goed uit, de 560 is weliswaar goedkoper maar de 570 heeft meer pit en zal dus langer mee gaan met de hi-end games.
Het zijn beide goeie kaarten maar de 560 vind ik persoonlijk net te mager.

Voor de powerpins kun je zelf 90graden adaptortjes maken, als je beetje rondkijkt zijn er een aantal modders die dat doen.

Als je scherm 1080x1920 is dan staat deze rechtop :+ De breedte wordt als 1e aangeduid en de hoogte als 2e dus 1920x1080 ;)

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
Ik ben inderdaad benieuwd wat de GTX560 op een 1920x1080 resolutie gaat doen, dit zal ik ergens volgende wek kunnen gaan testen als ik mn nieuwe scherm binnenheb en BF3 uit is. Toch lieg ik echt niet over mn prestaties. En als je meer dan €159,- voor een GTX560 betaalt ben je gewoon bedonderd! Kijk maar in de pricewatch ook, staatie voor €149,- als goedkoopste model. Ik heb deze bij de Paradigit gehaald, ligt daar voor 159, en heb een 10tje erafgeluld nog. De TI versie is echter wel een stuk duurder! vergis je daar niet in! Deze prijzen liggen inderdaad boven de €200,- maar dat vond ik het prijs/prestatiegewijs geen slimme keuze.

Dit is mijn systeempje nu... gallery: GeeEs

[ Voor 7% gewijzigd door GeeEs op 25-10-2011 11:28 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
Je weet dat een standaard 560 veel langzamer en goedkoper is dan de 560 TI TF2 950mhz waar ajwolterink naar linkte?

De 560 TI op 1ghz komt een beetje richting de stock 570, al is deze erg warm/luidruchtig en daarom zou ik deze ook niet aanraden.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Anoniem: 425191

MSI N560GTX-Ti Twin Frozr II/OC deze zijn toch 20% koeler dan de stock kaarten
nu begin ik weer te twijfelen

of de hier boven genoemde MSI N560GTX-Ti Twin Frozr II/OC

of een singel MSI N570GTX Twin Frozr III Power Edition/OC
1 ding weet ik wel dit is de laatste upgrading aan me systeem
dus in de toekomst geen 2e 570
dus kies ik voor MSI N560GTX-Ti Twin Frozr II/OC sli ben ik wel duurder uit maar wel sneller
en moet ik makkelijk op 1920X1080;) ultra kunnen gamen

ik heb bij me dealer gevraagd naar de SOC versie maar die konden ze voorlopig nog niet leveren
jammer genoeg. deze vond ik toch wel een zeer goed kaart of weet iemand van jullie een adresje \

Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
een standaard 560 is inderdaad fors goedkoper, 25% ongeveer, maar niet evenzo veel langzamer hoor. Wat ik me van mijn aankoop/info zoektocht kan herinneren is 1 vd 8 (als ik me niet vergis) streaming cores disabled. En ik vraag me eerlijk waar af of daar 25% snelheidswinst valt te scoren... Misschien wel natuurlijk ?!? Uit verschillende benchmarks zijn de verschillen in werkelijke snelheid maar enkele procenten tot een uitschieter naar 20% (GFLOPS) ... Voor mij rechtvaardigt dit het prijsverschil echter (nog) niet.

GTX560 Ti = 384 shader cores
GTX560 = 336 shader cores

Snelheden heb je van beide modellen verschillende variaties in. Wel of niet OCed.. etc... Je hebt bijvoorbeeld standaard 560's op 900+ MHZ en Ti's op 880 MHz, dus snelheden zegt niet zoveel. (Lees: daar kan je vaak wel wat mee spelen nog) Het grootste verschil zit'm in die shader cores. Tenminste dat is wat ik eruithaal.

[ Voor 12% gewijzigd door GeeEs op 25-10-2011 11:48 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Je kan beter 2 HD6850's (250 euro) of HD6870's (300 euro) in CFX zetten.

Sneller dan een GTX580, en goedkoper dan een GTX570.

[ Voor 9% gewijzigd door Format-C op 25-10-2011 11:54 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Aemstel
  • Registratie: November 2001
  • Laatst online: 01-06 14:17
Ik heb ook crashes met deze videokaart sinds ik hem in SLI opstelling heb, met name bij Crysis 2 dx11, die crashed al na een paar minuten. Temperaturen werden niet te hoog (zo'n 72 graden max na uren Heaven te draaien).

Toen ik nog 1 videokaart in mijn systeem had, had ik mijn core i7 2600k overklokt naar 4,4Ghz en dat liep stabiel, maar nu ik de 2e erbij heb geplaatst, moest ik de CPU overklok terugzetten naar 4,0Ghz. Toen had ik aanzienlijk minder crashes. Maar Crysis 2 crashte alsnog (na een langere tijd). Toen heb ik de kaarten ook terug geklokt naar 822Mhz en nu lijkt alles wel goed te werken.

Beetje belachelijk natuurlijk, want temperaturen zijn goed (zowel GPU's als CPU), en de kaarten horen op stock op 900Mhz stabiel te zijn. Ik hoop dan ook dat die nieuwe bios de oplossing is.

Maar daar komt een ander vraagje bij. De flashtool die bij die bios-download komt, flashed maar 1 kaart. Die andere kan ik wel flashen met de Gigabyte Easy Boost tool, maar welke bios moet ik dan kiezen, want er zijn er 4 in die ene download: F6、F13、F22 of F31?
Ik neem aan F22 want die geeft hij nu aan als geinstalleerd op de met de tool geflashte kaart. Maar is F31 niet nieuwer..?

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
Format-C schreef op dinsdag 25 oktober 2011 @ 11:53:
Je kan beter 2 HD6850's (250 euro) of HD6870's (300 euro) in CFX zetten.

Sneller dan een GTX580, en goedkoper dan een GTX570.
Daar wil ik nog wel eens benchmarks van zien, ik zou persoonlijk echter nooit een ATI kopen omdat ze nog steeds half bakke drivers uitbrengen :z
Aemstel schreef op dinsdag 25 oktober 2011 @ 11:54:
[...]


Ik heb ook crashes met deze videokaart sinds ik hem in SLI opstelling heb, met name bij Crysis 2 dx11, die crashed al na een paar minuten. Temperaturen werden niet te hoog (zo'n 72 graden max na uren Heaven te draaien).

Toen ik nog 1 videokaart in mijn systeem had, had ik mijn core i7 2600k overklokt naar 4,4Ghz en dat liep stabiel, maar nu ik de 2e erbij heb geplaatst, moest ik de CPU overklok terugzetten naar 4,0Ghz. Toen had ik aanzienlijk minder crashes. Maar Crysis 2 crashte alsnog (na een langere tijd). Toen heb ik de kaarten ook terug geklokt naar 822Mhz en nu lijkt alles wel goed te werken.
Is je voeding wel sterk genoeg? Als je de CPU en GPU terug moet klokken dan lijkt me dat meer een moederbord probleempje/limitatie of een voeding die niet genoeg vermogen heeft voor full load.

Mijn 2600K loopt met stock Vcore stabiel op 4.3, op 4.4 heb ik af en toe vastlopers.

[ Voor 56% gewijzigd door naaitsab op 25-10-2011 12:13 ]

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
Ik lees net in een benchmark dat bv een 570 maar 15% beter presteert in games dan een 560.. (kost dus ruim het dubbele !!) Dat rechtvaardigt toch niet die prijs dan ?! Of ben ik nou gek... Ik vervang liever over 1 jaar mn GPU voor een dan goedkoper model, dan dat ik denk.. oew.. ik hoop dat ik 2-3 jaar volhou op deze peperdure GPU... En laten we wel zijn.. die paar FPS aan de bovenmarge.. die merk je toch niet? Of denk ik te simpel ?!

Ik heb voor mezelf altijd de stelregel,.. alles boven de 60 fps is soiso bullshit.. (ok.. behalve als je misschien 3D wil gamen ?!?) Maar als het tussen de 40 en 60 zweeft ist gewoon prima. Dan ga ik nu geen extra snelle graka aanschaffen of het dubbele uitgeven voor 20 fps meer als deze het al meer dan prima trekt. SLI is soiso voor mij geen optie. Belachelijk veel geld, stroomverbruik en herrie en warmte voor iets dat ook prima op 1 kaart kan. (OK, als het echt heel goedkoop is om bv 100% winst te gaan boeken met een 2e graka.. tuurlijk doe je het dan, maar dat is in de praktijk nooit zo)

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
Ruim het dubbele nog wel, een 560 TI is maximaal 90 euro goedkoper dan een 570.

De 570 heeft 280mb extra Vram iets wat op hogere resoluties veel baat heeft met laadtijden en FPS.

Game je op 1280x1024 dan is het verschil niet bijster groot nee maar speel je bijv Crysis2 of BF3 op 1200P of 1440P dan trekt de 560 dat lange na niet zo goed als een 570.
Of een kaart die 90 euro extra waard is moet je zelf weten maar ik heb liever een kaart die zeker 3 jaar mee gaat dan een ver overgeclokte 560 TI die in verhouding een partij herrie maakt en waarvan de levensduur beduidend lager is dan een ietsjes overgeclocte 570.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Ik heb een overklokte ASUS GTX560Ti TOP, en deze maakt geen lawaai...

En als je boven de 1080P gamed kan je zowieso beter een snellere kaart kopen dan de GTX560ti of GTX570. Dan zou ik al SLi, CFX of een GTX580/ 590 of 6990 pakken.

De GTX570 is maar een fractie sneller dan een overklokte GTX560Ti. Uiteraard kan je een GTX570 ook weer overklokken, maar mijn ervaring is dat een GTX560Ti op 1920x1200 vandaag de dag ruim voldoende is.

Begin volgend jaar komt AMD (of eerder?) weer met wat nieuws, dus ik zou nu echt niet meer zwaar inversteren in VGA's. Mja, je zou het kunnen doen voor BF3, echter kan je ook de settings een stukje verlagen... gameplay boven graphics zeg ik dan.

En dat AMD drivers zo slecht zijn is ook BS.

O ja; en 3 jaar met een kaart doen? Welke gamer doet dat nou? Ik koop (tegenwoordig) zelf 1x per jaar een nieuwe, en kan alles maxed spelen. Edit; en door alle consoleports heb ik niet eens een snellere kaart nodig dan een GTX560Ti. Ik verbaasde me er zelf over, maar met wat tweakwerk kan je bijna elke game maxed op 1920x1200 spelen. Met 60FPS! niet altijd met 8x AA, soms met 2xAA, maar who cares?

Edit2; ik ben iig niet langer zo gek om voor 1 luizige game honderden euro's extra te investeren. Dan maar wat minder AA. Dan maar wat minder schaduwen. Dan maar wat minder SSAO. Lekker boeiend. Ik heb op een XBOX360 met shitty graphics net zoveel fun als op mijn PC.

De dikste VGA kaart isover het algemeen maar een jaartje de dikste VGA kaart. Na dat jaar is hij geen stuiver meer waard en is een mid end kaartje van 200 euro sneller dan die kaart... Die kaart van 600 euro... :O

[ Voor 48% gewijzigd door Format-C op 25-10-2011 13:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
@Naaitsab.. ik vergelijk een gewone 560 (zonder ti) met de prijs van een 570.. dat is wel degelijk €150 vs €300 (give or take 10-20 eu bij bepaalde modellen)

en dan nog.. zouden 2x een 560 in SLI niet sneller/beter presteren dan een enkele 570?? Ik heb hier geen ervaring mee, dus misschien bral ik maar wat.. Maar het prijsverschil zit me gewoon dwars (en ja, dit is iets persoonlijks en niet echt objectief dus). Als ik nou met een 570 (op dit moment, in deze tijd anno 2011) nou 2x zoveel performance zou halen, of in ieder geval meer dan 75%.. ja, dan wordt het wel interessant... Maar dat schijnt dus lang niet zo te zijn (het is maar 15% winst met een 570 blijkbaar). Een benchmark en of je een paar FPS meer of minder hebt in een game zijn nogal verschillend namelijk...

Maar stel dat ik met een 560 (zonder TI dus) nou 40 fps haal (ondergrens), en met een 570 dus omgerekend 46 fps.. is dat dus voor mij het prijsverschil echt niet waard. Dan koop ik liever over een jaar wel een 570 voor weer €150,- of nog minder... of een 2e 560 voor nog heel veel minder erbij...

Wat hierboven ook gezegd wordt.. ik denk dat de meesten hier wel minimaal 1x per jaar of hooguit 1x per 2 jaar alles vervangen, dus waarom inkopen op de hoop dat het over 3 jaar nog werkt/presteert, dan ligt dat spul allang weer in de prullenbak ;-) en zit je achter je nieuwste syteem van dat moment.

[ Voor 12% gewijzigd door GeeEs op 25-10-2011 13:11 ]


Acties:
  • 0 Henk 'm!

  • Inflatable
  • Registratie: Oktober 2002
  • Laatst online: 01:51
Tegenwoordig doe ik juist langer met mijn videokaarten.. Waar het vroeger hooguit 1-2 jaar was is het nu al bijna 3 jaar.. Dat komt omdat er nog maar weinig games uitkomen die je echt tot upgraden dwingen, bijna alles is gericht op de consoles qua development en aangezien die ook gewoon 6+ jaar stilstaan qua hardware..

Deze week toevallig mijn Gainward GTX275 vervangen voor een EVGA GTX 570 HD OC, puur alleen voor BF3.. Ik wil die game minimaal kunnen spelen op 1920x1080 met alles op high, met een overklokte 570 (draai hem op 850Mhz en zit rond 580 performance) moet dat geen probleem zijn.. Eindelijk weer een game die het waard is om te upgraden.. De 275 was meer dan 2,5 jaar oud (april 2009 gekocht), maar om nou te zeggen dat het echt noodzakelijk was om te upgraden, nee.. Met de 275 had ik BF3 ook nog wel kunnen spelen, alleen niet in DX11 en waarschijnlijk niet met alles op high/ultra.. Dus je kan tegenwoordig wel makkelijk 3 jaar met een videokaart doen (helaas zou ik zeggen), tenzij je echt helemaal nooit consessies wilt doen qua max settings..

[ Voor 12% gewijzigd door Inflatable op 25-10-2011 13:20 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
Format-C schreef op dinsdag 25 oktober 2011 @ 12:51:
Ik heb een zwaar overklokte ASUS GTX560Ti TOP, en deze maakt geen lawaai...

En als je boven de 1080P gamed kan je zowieso beter een snellere kaart kopen dan de GTX560ti of GTX570.
Dit baseer je op? 60 FPS halen beide vaak toch wel, hoger als 60 is toch de reinste onzin.
Zonder 3D en/of multi-screen gaming setup is een 570 prima geschikt daarvoor.
De GTX570 is maar een fractie sneller dan een overklokte GTX560Ti. Uiteraard kan je een GTX570 ook weer overklokken, maar mijn ervaring is dat een GTX560Ti op 1920x1200 vandaag de dag ruim voldoende is.
Een kaart met flinke oc(anders haal je de 570 stock snelheid niet) loopt wel even een stuk onstabieler en
warmer->meer herrie als een stock 570, dat lijkt me duidelijk.
Begin volgend jaar komt AMD (of eerder?) weer met wat nieuws, dus ik zou nu echt niet meer zwaar inversteren in VGA's. Mja, je zou het kunnen doen voor BF3, echter kan je ook de settings een stukje verlagen... gameplay boven graphics zeg ik dan.
Wat denk je van kepler van Nvidia? Elke fabrikant komt "binnekort" wel met wat nieuws dat is gemeengoed in pc land.
En dat AMD drivers zo slecht zijn is ook BS.
Daarom halen wij op het werk altijd die ccc troep van de pc af omdat het vastlopers veroorzaakt en voor gamers ook ultieme support heeft mbt nieuwste games..not. Ik heb die ATI rommel in mn laptop zitten helaas, die gui is ook zon feest, de logica daarachter is me nog steeds niet duidelijk.
Maargoed dat is mijn mening en aangezien dit geen ATI topic is zal ik hier verder ook niet meer op ingaan.
O ja; en 3 jaar met een kaart doen? Welke gamer doet dat nou? Ik koop zelf 1x per jaar een nieuwe, en kan alles maxed spelen.
Dat jij elk jaar ~200-300€ kan en wil uitgeven is prima maar we kunnen en willen niet allemaal zoveel geld uitgeven aan een pc.
Ik heb met mn 9800GTX+ TOP ook 3 jaar gedaan gaat prima, als je nu gaat bezuinigen op een mindere kaart dan ben je eerder aan de beurt ja.
GeeEs schreef op dinsdag 25 oktober 2011 @ 13:05:
@Naaitsab.. ik vergelijk een gewone 560 (zonder ti) met de prijs van een 570.. dat is wel degelijk €150 vs €300 (give or take 10-20 eu bij bepaalde modellen)

en dan nog.. zou een 560in SLI niet sneller/beter presteren dan een enkele 570?? Ik heb hier geen ervaring mee, dus misschien bral ik maar wat.. Maar het prijsverschil zit me gewoon dwars (en ja, dit is iets persoonlijks en niet echt objectief dus). Als ik nou met een 570 (op dit moment, in deze tijd anno 2011) nou 2x zoveel performance zou halen, of in ieder geval meer dan 75%.. ja, dan wordt het wel interessant... Maar dat schijnt dus lang niet zo te zijn (het is maar 15% winst met een 570 blijkbaar). Een benchmark en of je een paar FPS meer of minder hebt in een game zijn nogal verschillend namelijk...

Maar stel dat ik met een 560 (zonder TI dus) nou 40 fos haal (ondergrens), en met een 570 dus omgerekend 46 fps.. is dat dus voor mij het prijsverschil echt niet waard. Dan koop ik liever over een jaar wel een 570 voor weer €150,- of nog minder... of een 2e 560 voor nog heel veel minder erbij...
In benchmarks wordt vaak de TI gebruikt maar laten ze dit soms achterwege(guru3d bijv) de 560 (non TI) is echt een stuk langzamer dan een 570 maar daar is inderdaad de prijs ook naar.

Een 560 non TI zal in SLI vast beter presteren als een enkele 570 maar bij SLI komen altijd een hoop nadelen zoals extra stroom verbruik-herrie-warmte.

SLI en CFX is nog steeds niet optimaal dus je moet niet denken dat 2 kaarten 200% snelheid geven tov 1 kaart, zeker bij SLI is het de laaste jaren flink verbeterd maar je moet rekening houden met ongeveer 180-185% dit verschilt per kaart en spel.

Ik heb nu een enkele 570 in fabrieks OC(dus garantie) en als de nieuwe lijn van Nvidia komt prik ik er wellicht een 2e voor een lagere prijs.
De reden dat ik deze heb gekocht tov een 560 TI hawk oid is dat deze kaarten op zon hoge OC lopen dat er veel klachten zijn zowel stabiliteit als warmte en herrie dat ik liever 70 euro extra betaal voor een kaart die lekker loopt en deze problemen totaal niet heeft.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
Wat zijn je FPS scores in BF3 als ik vragen mag met de GTX570 ?? (en wat voor systeem heb je daar verder aanhangen?)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Anoniem: 91397 schreef op dinsdag 25 oktober 2011 @ 10:48:
[...]Verlies je garantie als je dit uitvoert? Kan je de brackets makkelijk verwijderen en weer terug plaatsen zonder merkbare schade?

Ik heb namelijk het idee dat mijn hawk nooit oud gaat worden als ik de fans zo hoor, en heb geen zin om garantie geneuzel te krijgen als ze binnen een jaar het loodje leggen.
De brackets zaten met 1 schroefje vast. Je kan ook andere brackets kopen voor videokaarten. De enige schade die je zou kunnen oplopen is als je de kaarten puur aan je PCIe sloten laat hangen zonder extra ondersteuning.

Acties:
  • 0 Henk 'm!

  • Aemstel
  • Registratie: November 2001
  • Laatst online: 01-06 14:17
Tips voor problemen met de Gigabyte GTX560ti OC (specifiek voor SLI opstelling).

Sinds ik deze kaart in SLI heb, heb ik last van crashes. En ik ben zeker niet de enige die hier last van heeft: http://forums.nvidia.com/...cb6&showtopic=193106&st=0. Redelijk schokkend om te zien hoeveel van die fabrieks-overklokte kaarten dus problemen geven (de Gigabyte 560ti OC lijkt het meest problematisch te zijn). Na extensief testen en tweaken aan de hand van tips in die thread en andere sites, heb ik de problemen (voor zover ik nu kan beoordelen) weten op te lossen. Ik dacht ik type de stappen hieronder even uit voor andere mensen die ook problemen hebben met deze kaart. Wellicht helpt het iemand anders ook.

1. Check of je geen hitte probleem hebt. In het begin had ik die wel. Bij het draaien van Heaven bleef de temperatuur maar stijgen om uiteindelijk te crashen bij 85 graden (GPU). CPU bleef wel koel genoeg. Ik heb toen een extra (outtake) casefan bovenin geplaatst (dus boven de cpu koeler). Nu heb ik 1 casefan voor-onderin (intake) en 2 (outtake) casefans achter, boven aan de achterkant en bovenin, omhoog blazend. Mijn GPU's worden nu nooit meer warmer dan 72 a 73 graden. (een extra casefan aan de zijkant (intake) had overigens totaal geen effect)

2. Ik had mijn i7 2600k overklokt naar 4.4Ghz. Dit liep 100% stabiel toen ik nog 1 GTX560ti had. Na installatie van de 2e bleek deze overklok wel problemen te geven, ook al werden de GPU's en de CPU niet te heet. Het terugzetten van de CPU naar 4.0Ghz verminderde het aantal crashes aanzienlijk. Wellicht is de combinatie van de kaarten in SLI en de overklokte CPU een andere stress op het systeem. Probeer dus je CPU wat terug te klokken als je deze overklokt hebt. Het leek mij trouwens geen PSU probleem, want de Antec 750 watt die ik heb zou toch ruim voldoende moeten zijn.

3. Het lijkt erop dat de videokaarten een te laag voltage leveren om op de fabrieksoverklok van 900 Mhz stabiel te draaien. Na het terugklokken op 822Mhz liep mijn systeem wel stabiel. Je koopt echter niet voor niets een OC versie, dus terugklokken is geen optie! Het blijkt dat Gigabyte een nieuwe bios heeft uitgebracht die het voltage verhoogd naar 1.037v. Hier te downloaden: http://www.gigabyte.co.nl...e.aspx?pid=3707&dl=1#bios. Gebruik de flashtool en 1 videokaart wordt geflashed. De andere kan je flashen met bijvoorbeeld Gigabyte Easy Boost (http://www.gigabyte.co.nl...spx?pid=3707&dl=1#utility). Je moet dan even zelf de correcte bios file kiezen uit de uitgepakte bios download. Er zijn er echter 4. Nu kan je met Gigabyte Easy Boost zien welke de tool heeft geflashed. Flash deze zelfde bios ook op de andere kaart (bij mij was dit F22).
NB. Als je niet wilt flashen, dan kan je ook met een tool als MSI Afterburner zelf het voltage verhogen naar 1.037. De nieuwe bios heeft zo te zien echter ook wat meer verbeteringen, dus flashen is wel aan te raden (op eigen risico ;))

4. Ik gebruik de nieuwste NVidia drivers (285.62 op dit moment). Ik las dat meerdere mensen problemen ondervinden met de "Power Management Mode" instelling op Adaptive. In NVidia Control Panel heb ik deze instelling dan ook op "Prefer maximum performance" gezet.

5. Als na testen je geen crashes meer ondervindt, en je hebt je CPU teruggeklokt, dan zou je kunnen proberen deze weer terug te zetten op de oude overklok (en opnieuw testen). In mijn geval vind ik 4.0Ghz echter wel zat, dus ik laat het daar maar bij :)


De boel draait nu op 900Mhz (beide GPU's) en 4.0Ghz (CPU). Alles blijft mooi koel en ik heb geen crashes meer waargenomen. Dit is geen garantie dat het voor iedereen werkt. Het is een combinatie van veel factoren, maar ik denk dat deze tips wel zeker het proberen waard zijn. Succes!

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
GeeEs schreef op dinsdag 25 oktober 2011 @ 14:00:
Wat zijn je FPS scores in BF3 als ik vragen mag met de GTX570 ?? (en wat voor systeem heb je daar verder aanhangen?)
Rond de 60-90 FPS (excl. uitschieters) in de beta, final weet ik over een dag of 2 dan komt ie binnen.

Specs
Op 1920x1200 met maximale settings en beta drivers.
Max Hunt schreef op dinsdag 25 oktober 2011 @ 14:04:
[...]
De brackets zaten met 1 schroefje vast. Je kan ook andere brackets kopen voor videokaarten. De enige schade die je zou kunnen oplopen is als je de kaarten puur aan je PCIe sloten laat hangen zonder extra ondersteuning.
Controleer wel regelmatig dat de PCB van je GPU niet krom trekt als er een zwarte koeler aan hangt als hij enkel in het PCI slot vast zit en niet in je kast.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
naaitsab schreef op dinsdag 25 oktober 2011 @ 14:32:
[...]

Rond de 60-90 FPS (excl. uitschieters) in de beta, final weet ik over een dag of 2 dan komt ie binnen.

Specs
Op 1920x1200 met maximale settings en beta drivers.
Klinkt zeker nice! Ik ben ook heel erg benieuwd naar de final release van BF3 de 27e!.. ;-)

Maar dan zit je dus wel extreem ruim in je fps.. ik bedoel, als je nu al steady 60-90 fps haalt... op alles maxed out op die megaresolutie van 1920x1200... :-) (wel heel nice natuurlijk!)

Dat zal het geld vast waard zijn voor jou, maar als ik je setup zie, dan denk ik wel.. tering, relatief een hoop geld geinvesteerd voor (en dit bedoel ik absoluut niet negatief!) die performance, terwijl je eigenlijk alleen frames wint boven het maximale wat je scherm aankan... om over je ogen nog maar te zwijgen.

Ik neem aan dat je natuurlijk veel meer dan alleen gamen doet op je bak (16 GB geheugen ?! damn!) , maar het is in mijn ogen dus echt alleen maar overkill, het extra geld dat je geinvesteerd hebt. Want met een wat mindere setup had je misschien 50-60 fps gehaald, en had je het verschil niet gezien... Vanuit mijn positie bekijk ik het zo.. Ik kan dus nu wel €150,- meer uitgeven aan een gtx570... maar dan zie ik geen verschil! En dat vind ik dan zonde zegmaar. Dan liever op een later tijdstip nog's 150 euro erbij als dit echt niet meer presteert. Alles wat je nu investeert in overkill ga je er never nooit niet meer uithalen, omdat je waarschijnlijk sneller nieuw koopt dan je hardware verouderd is. En je het dus nooit optimaal benut. Deze redenering zal uiteraard niet voor iedereen opgaan! Persoonlijk speel liever nu budget op uiteraard wel acceptabele prestaties, zonder overclock, zodat ik eventueel nog wat headroom heb indien echt nodig... dan 150% safe tegen de hoofdprijs, met waarschijnlijk overkill.

Voor mij persoonlijk ben ik heel benieuwd hoeveel 1920x1080 (2073600 pixels) gaat schelen tegenover mn oude 21" 1440x900 (1296000 pixels) schermpje....:X
Ik ben idd wel zo realistisch dat ik weet dat het een stuk minder performance zal gaan halen. Het is namelijk nogal een fors aantal meer pixels dat FullHD !

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:54
De FPS schommelt nogal omdat de maps verschillen(open vs binnen bij metro bijv)
Het zal soms lager zijn en soms hoger ligt klopt maar 60-90 is beetje wat ik zag in de beta.

Ik gebruik mn pc ook vaak voor fotoshop en soms video bewerking dus vandaar de zware CPU en 16 Gig ram

De keren dat ik game niet zo heel vaak vond ik het zonde om een GTX580 aan te schaffen niet dat ik het geld niet heb maar dat vond ik een beetje zonde.

Voor de grap eens 1920x1080(zwarte vlak) tegen 1440x900(witte vlak) uitgezet.
Afbeeldingslocatie: http://i.imgur.com/7X1QC.jpg
Zit nog redelijk wat verschil in ;) en dan game ik op 1200p ipv 1080p

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • GeeEs
  • Registratie: December 2007
  • Laatst online: 11:19
Inderdaad.. als je de pixels telt is het echt absurd veel meer, nog net geen 2x, maar wat scheelt het! :P
Op het plaatje zie je het inderdaad ook heel goed!

Moet zeggen dat ik er ook wel aan toe ben... Mooi doel voor die €150 die ik uitspaarde :)

Even nog wat leuks :P... Ultimate Battlefield 3 Simulator - Build & Test (Full Video) - The Gadget Show

YouTube: Ultimate Battlefield 3 Simulator - Build & Test (Full Video) - The Gadget Show

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik denk dat je gewoon 1.5 GB op je videokaart moet hebben.
met crysis 2 haal ik al 1450 mb in gebruik bij de GTX 580 op 930/230gbps.

Voor BF3 minimaal1.5GB denk ik - high settings

Ik heb nu TIG videokaarten gehad 470,480... 480 in SLI 560 tihawk en ook dat in SLI...
bij 1 GB had ik een enorm gebrek aan geheugen gestotter en frustraties .. 1GB is nu echt te weinig.. 1.2 trouwens ook imo.

Alles op 1080P had met lle spelen wel ellende met 1GB

Volgend jaar loopt het grebuik in games alleen nog maar meer op

[ Voor 104% gewijzigd door A87 op 25-10-2011 21:43 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ

Pagina: 1 ... 8 ... 11 Laatste