mager mager ik zou het niet durven op een 750 okal is het een A voeding. Beetje overclocken op je 580's en het gaat snel erg krap worden. Ik zelf doe het lekker op 1000w voeding dat moet lukken met oc van proc geheugen en kaarten. Maar 550 voor een 570 zou best moeten kunnen (btw ik redde op 2x560ti SOC het niet met een 750 voeding dus dat was een beetje gaar)Max Hunt schreef op donderdag 06 oktober 2011 @ 20:16:
[...]
Dat lijkt me sterk, ik draai 2x GTX 580's op een Corsair HX750W. Ik meet het verbruik van de voeding en dat komt eigenlijk niet over de 700W tijdens games (met 90% efficiency is dat dus ongeveer 630W 'netto' verbruik). En dat i.c.m. een i7 950 op 4.1GHz + de rest.
Als het om een merk X voeding zou gaan zou te weinig 'power' mogelijk de oorzaak kunnen zijn. Een GTX260 verbruikt ook al zo'n 140-150W, en de 220W van de 570 is ook alleen tijdens pieken. Verbruikt ie dat tijdens booten?
Ik zou zeggen dat de videokaart kapot is, of mogelijk dat de videokaart verkeert geïnstalleerd is. Probeer eens de videokaart in 1 van de andere PCIe sloten of probeer het bovenste slot nogmaals.
Anoniem: 245699
Hoe beredeneer je dit? Want een 550watt kan een enkele GTX570 echt wel aan hoor. We hebben het immers ook over een goede 550 watter.naaitsab schreef op woensdag 05 oktober 2011 @ 22:49:
[...]
550W voor een 570 is een beetje aan de magere kant,
Een GTX570 icm een overclockte i7 lynfield cpu neemt onder load zo'n 350-400watt tot zich en das aan het stopcontact gemeten, gaat dus nog efficientie verlies vanaf. Een goede 550watt voeding heeft dan echt marge genoeg hoor.
Ik heb geen idee wat voor hardware er verder achter hangt, stel er hangt een 1e generatie quadcore van intel in deze trekken aardig wat stroom.Anoniem: 245699 schreef op vrijdag 07 oktober 2011 @ 16:21:
[...]
Hoe beredeneer je dit? Want een 550watt kan een enkele GTX570 echt wel aan hoor. We hebben het immers ook over een goede 550 watter.
Een GTX570 icm een overclockte i7 lynfield cpu neemt onder load zo'n 350-400watt tot zich en das aan het stopcontact gemeten, gaat dus nog efficientie verlies vanaf. Een goede 550watt voeding heeft dan echt marge genoeg hoor.
En 400W in jouw geval naar 550 is toch mager? Mager is heel wat anders dan te weinig vermogen dat heb ik ook helemaal niet gezegd.
Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt. Dus die 350-400W die jij noemt geloof ik geen donder van, idle wellicht maar onder load zeker niet aangezien ik nog niet eens de rest heb meegerekend enkel de GPU en CPU.
offtopic:
Volgens corsair heeft die voeding slechts een 80 plus certificering dat is een instap model aangezien je in volgorde hebt:
80+, 80+ brons, 80+ zilver, 80+ goud en 80+ platina, 80+ titanium Wikipedia: 80 PLUS
Voor de niet kenners de 80+(incl achtervoegsels) staan voor het percentage stroom wat de voeding daadwerkelijk levert aan de pc kant.
Een voorbeeldje een voeding heeft aan de pc kant 400W nodig en door de 80+ certificering levert de voeding 80% vermogen dus zou de voeding 480W uit het stopcontact trekken omdat 20% verloren gaat vaak is dit warmte.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.
De voeding die ik heb is een 80+ goud daarvan durf ik wel te zeggen dat hij echt kan presteren, een voeding met enkel 80+ sorry maar dat noem ik echt geen A-klasse voeding.
Corsair maakt geen slechte voedingen dat zeker niet maar dit model zou ik persoonlijk links laten liggen gezien de mindere prestaties.
Ik zou eerst het vermogen per kanaal op de PCI-e lijn eens bekijken wanneer deze een zware kaart moet aansturen als deze full load draait.
Volgens corsair heeft die voeding slechts een 80 plus certificering dat is een instap model aangezien je in volgorde hebt:
80+, 80+ brons, 80+ zilver, 80+ goud en 80+ platina, 80+ titanium Wikipedia: 80 PLUS
Voor de niet kenners de 80+(incl achtervoegsels) staan voor het percentage stroom wat de voeding daadwerkelijk levert aan de pc kant.
Een voorbeeldje een voeding heeft aan de pc kant 400W nodig en door de 80+ certificering levert de voeding 80% vermogen dus zou de voeding 480W uit het stopcontact trekken omdat 20% verloren gaat vaak is dit warmte.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.
De voeding die ik heb is een 80+ goud daarvan durf ik wel te zeggen dat hij echt kan presteren, een voeding met enkel 80+ sorry maar dat noem ik echt geen A-klasse voeding.
Corsair maakt geen slechte voedingen dat zeker niet maar dit model zou ik persoonlijk links laten liggen gezien de mindere prestaties.
Ik zou eerst het vermogen per kanaal op de PCI-e lijn eens bekijken wanneer deze een zware kaart moet aansturen als deze full load draait.
Maargoed back ontopic, ik zou de kaart eerst eens in een andere pc testen dan kun je uitsluiten dat de kaart defect is of niet.
if (!coffee) {
Work = false; }
Zo vreemd is dat niet hoor, in een potje BF3 waar mijn CPU 95% en beide GPU's 99% gestressed worden gebruikt mijn voeding 470 watt uit de muur.naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
[...]
Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt. Dus die 350-400W die jij noemt geloof ik geen donder van, idle wellicht maar onder load zeker niet aangezien ik nog niet eens de rest heb meegerekend enkel de GPU en CPU.[
i5 760 @ 3.8 + 6970 crossfire. Als ik reviews bekijk is het behoorlijk in lijn met wat daar verbruikt word.
350-400W voor 1 570 klopt ook wel aardig als ik dit mag geloven: http://www.guru3d.com/article/geforce-gtx-570-review/8
[ Voor 15% gewijzigd door unfor op 07-10-2011 20:45 ]
Zoals jij?naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
Volgens corsair heeft die voeding slechts een 80 plus certificering dat is een instap model aangezien je in volgorde hebt:
80+, 80+ brons, 80+ zilver, 80+ goud en 80+ platina, 80+ titanium Wikipedia: 80 PLUS
Voor de niet kenners
Wat is dit voor onzin?de 80+(incl achtervoegsels) staan voor het percentage stroom wat de voeding daadwerkelijk levert aan de pc kant.
Een voorbeeldje een voeding heeft aan de pc kant 400W nodig en door de 80+ certificering levert de voeding 80% vermogen dus zou de voeding 480W uit het stopcontact trekken omdat 20% verloren gaat vaak is dit warmte.
Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.
De voeding die ik heb is een 80+ goud daarvan durf ik wel te zeggen dat hij echt kan presteren, een voeding met enkel 80+ sorry maar dat noem ik echt geen A-klasse voeding.
Corsair maakt geen slechte voedingen dat zeker niet maar dit model zou ik persoonlijk links laten liggen gezien de mindere prestaties.
Ik zou eerst het vermogen per kanaal op de PCI-e lijn eens bekijken wanneer deze een zware kaart moet aansturen als deze full load draait.

En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat.Jasper 99 schreef op vrijdag 07 oktober 2011 @ 14:31:
[...]
mager mager ik zou het niet durven op een 750 okal is het een A voeding. Beetje overclocken op je 580's en het gaat snel erg krap worden. Ik zelf doe het lekker op 1000w voeding dat moet lukken met oc van proc geheugen en kaarten. Maar 550 voor een 570 zou best moeten kunnen (btw ik redde op 2x560ti SOC het niet met een 750 voeding dus dat was een beetje gaar)

Twee GTX580's moet prima kunnen op een HX750 zolang de gebruiker geen extreme dingen doet.
Een GTX570 op een Corsair VX550 is ook geen probleem.
[ Voor 21% gewijzigd door -The_Mask- op 07-10-2011 20:52 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
In theorie zou zelfs 570 SLI kunnen op een 550 watt PSU.
Niet aan te raden, maar voor een test zou het wel eens grappig zijn.
Niet aan te raden, maar voor een test zou het wel eens grappig zijn.
[ Voor 38% gewijzigd door unfor op 07-10-2011 21:07 ]
Ehhm zoek eerst de betekenis van certificering eens op voor je zon opmerking gaat plaatsen waar "zo'n stickertje" voor staat, je weet dondersgoed dat het te maken heeft met de prestatie van de voeding.-The_Mask- schreef op vrijdag 07 oktober 2011 @ 20:49:
En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat.
Er is niks onzins aan het geeft puur aan welk deel van het ingaande vermogen wordt omgezet in bruikbaar vermogen. 80+ is echt een instap voeding aangezien 80+ brons de gangbare minimum prestatie index is van een kwaliteits voeding als je een beetje bij de knappe merken kijkt.
2 zaken maken een goede voeding:
1) Goede componenten er zijn een aantal merken die knappe onderdelen in hun voeding gebruiken oa corsair, be quiet.
2) De prestatie in dit geval de efficiency uitgedrukt in de 80+ standaard.
Punt 2 slaat natuurlijk direct op punt 1 zonder goede componenten geen goede efficiency.
Kijk je enkel naar het 1e punt dan ben je niet goed bezig, combinatie van 1 en 2 is wat een goede voeding maakt.
Maarja als jij een certificering ziet als enkel een stickertje dan moet je dat vooral zo blijven doen maar er zit wel degelijk een standaard achter die ook ergens op slaat en onderscheid maakt tussen een voeding en een goede voeding.
470W is al een stuk meer dan de 350-400 die werd genoemdunfor schreef op vrijdag 07 oktober 2011 @ 20:39:
[...]
Zo vreemd is dat niet hoor, in een potje BF3 waar mijn CPU 95% en beide GPU's 99% gestressed worden gebruikt mijn voeding 470 watt uit de muur.
i5 760 @ 3.8 + 6970 crossfire. Als ik reviews bekijk is het behoorlijk in lijn met wat daar verbruikt word.
350-400W voor 1 570 klopt ook wel aardig als ik dit mag geloven: http://www.guru3d.com/article/geforce-gtx-570-review/8
Jouw CPU is zuiniger en Nvidia staat er nou eenmaal om bekend niet zuinig te zijn met stroom.
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
if (!coffee) {
Work = false; }
Ja logisch, ik heb 2 GPU's.naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]
470W is al een stuk meer dan de 350-400 die werd genoemd
De 6870 in CF gebruikt even veel stroom als 1 570(volgens guru3D) dus zo vreemd is dat niet hoor
if (!coffee) {
Work = false; }
Das mooi, ik heb 2 6950 @ 6970, geen 6870.naaitsab schreef op vrijdag 07 oktober 2011 @ 21:23:
[...]
De 6870 in CF gebruikt even veel stroom als 1 570(volgens guru3D) dus zo vreemd is dat niet hoor
Volgens reviews verbruikt de 570 net wat meer dan 200 watt stressed.
Geupgrade en getest toevallig?Anoniem: 263284 schreef op donderdag 06 oktober 2011 @ 21:56:
Nieuwe bios voor de GV-N560OC-1GI versie F13:
http://www.gigabyte.co.nl...e.aspx?pid=3707&dl=1#bios
Volgens dit lijstje op het Atomic forum verbruikt een 570 maar zo'n 200W, dat is piek verbruik tijdens gamen. 2 van die kaarten in SLI verbruiken 'maar' ~370W op z'n max. Daar komt bij dat spellen meestal niet 100% CPU gebruiken (en als dat wel gebeurt knijpen ze mogelijk de GPU).naaitsab schreef op vrijdag 07 oktober 2011 @ 19:39:
[...]Ik zou je meting nog maar eens doen aangezien de TDP van een i7 socket1156 stock onder load 90-100W vraagt en de GTX570 stock onder load 330W gebruikt.
Waarschijnlijk:En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
- Beter iets te veel dan iets te weinig. Van te veel heb je geen last, wel van te weinig
- Rekening houden met merk X voedingen die 600W beloven maar dat alleen halen bij piek-verbruik.
Ik snap niet dat je mij quote en wil tegen spreken terwijl ik hetzelfde zeg?? Beetje raar ik heb een 1000watt A merk voeding en ja dat zegt wel wat zegt dat ik wat meer breathing room heb en dat zeg jij ook dus ik snap niet helemaal waar je naartoe wil... 2x 580 kan op die hx750 maar zoals ik al zei wordt je systeem overclocken ietsje enger zou ik zeggen, ik zeg niet dat hij een 1000 watt B merk moet halen die eigenlijk maar 600 w kan leveren. maarja-The_Mask- schreef op vrijdag 07 oktober 2011 @ 20:49:toon volledige bericht
[...]
Zoals jij?
[...]
Wat is dit voor onzin?
[...]
En hoeveel zegt zo'n stickertje op een voeding behalve helemaal niks? Dan mensen nog steeds denken dat het gaat om een stickertje waar x aantal watt op staat.
Twee GTX580's moet prima kunnen op een HX750 zolang de gebruiker geen extreme dingen doet.
Een GTX570 op een Corsair VX550 is ook geen probleem.
Ik heb ook nog 4 HDD's, 1 geluidskaart, een Nvidia 8400 gs, (destijds) 3x2Gb RAM en 6 fans + fan controller erin zitten. Ik heb mijn i7 950 op 4.1GHz en ik heb mijn 580's overclocked tot 925MHz Core met maximaal toegestane voltage en daarmee heb ik benchmarks gedraaid (Heaven, 3DMark, AvP, Crysis). Mijn hoogste piek was netto ongeveer 800W. (en daar komt nog bovenop dat mijn voeding getest is en 900W sustained kan leveren.)2x 580 kan op die hx750 maar zoals ik al zei wordt je systeem overclocken ietsje enger zou ik zeggen
Ik denk dat je behoorlijk overschat wat voor voeding echt nodig is voor dit soort systemen.
hmm ik heb die 1000 watt op aanraden van de mask genomen
maar das best wat dat dat er veilig op draait vind ik netjes vooral met die overclocks! Maar inderdaad corsair is dan ook echt een prima merk
!
Wel vreemd dat ik met mijn xfx750pro wat opzich prima dingen zijn niet 2x560 kon trekken al zou het ook iets anders kunnen zijn geweest maarja.
Terug naar waar de vraag en ja daar ben ik het mee eens moet makkelijk kunnen op die 550
!
Iemand ook met de nieuwe drivers soms geklooi met kaarten die niet in de 2de staat van 2d modus willen gaan bij afspelen van video (dus de half clock die soms op full clock blijft)
Wel vreemd dat ik met mijn xfx750pro wat opzich prima dingen zijn niet 2x560 kon trekken al zou het ook iets anders kunnen zijn geweest maarja.
Terug naar waar de vraag en ja daar ben ik het mee eens moet makkelijk kunnen op die 550
Iemand ook met de nieuwe drivers soms geklooi met kaarten die niet in de 2de staat van 2d modus willen gaan bij afspelen van video (dus de half clock die soms op full clock blijft)
IDD goed bezig!, waarom zou je ook het randje op willen zoeken en de voeding op volle toeren laten draaien.. ik vind het merkwaardig dat mensen voedingen aan raden die het allemaal net aan trekken, beter idd meteen 1000w of 1200w zodat je ruimte hebt in de toekomst en je voeding lekker stabiel en koel draait.
Het lijkt wel een sport om macho te doen om met een zon goedkoop mogelijke voeding + laag wattage een videokaart aan te sturen die eigenlijk net iets te weinig stroom krijgt en zo nog een slechte FPS neerzet ook
Dat die mensen op dit forum zitten is mij een raadsel.
Ik heb een 1000w voeding 80+ bronze nog onderuit gehaald met een paar videokaarten 2 GTX 480's met gemodde bios etc.
Uiteindelijk had ik de 1000w opgeblazen en ging RMA
Voor die paar tientjes meer heb ej tegenwoordig 300w erbij.
Natuurlijk werkt een shit voeding op een goede videokaart maar lekker als je fps dan opeens weg zakt naar 25
waar het 80 hoort te zijn. Zo beginnen de meeste idd tot ze wakker worden.
Ik vraag me af wanneer ik hier mensen tegen kom die TRI SLI setups gaan draaien met een aldi 300w
Het lijkt wel een sport om macho te doen om met een zon goedkoop mogelijke voeding + laag wattage een videokaart aan te sturen die eigenlijk net iets te weinig stroom krijgt en zo nog een slechte FPS neerzet ook

Ik heb een 1000w voeding 80+ bronze nog onderuit gehaald met een paar videokaarten 2 GTX 480's met gemodde bios etc.
Uiteindelijk had ik de 1000w opgeblazen en ging RMA
Voor die paar tientjes meer heb ej tegenwoordig 300w erbij.
Natuurlijk werkt een shit voeding op een goede videokaart maar lekker als je fps dan opeens weg zakt naar 25
Ik vraag me af wanneer ik hier mensen tegen kom die TRI SLI setups gaan draaien met een aldi 300w

[ Voor 63% gewijzigd door A87 op 11-10-2011 17:24 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Een 550W voeding? Dat zegt helemaal niks, zijn zoveel 550W voedingen waarbij de kans groot is dat die ontploft als je dat doet dan bestaat er ook een kans dat je de videokaarten kunt weggooien.unfor schreef op vrijdag 07 oktober 2011 @ 21:06:
In theorie zou zelfs 570 SLI kunnen op een 550 watt PSU.
Niet aan te raden, maar voor een test zou het wel eens grappig zijn.
Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
Wat? Zegt juist helemaal niks over de prestaties van een voeding alleen over het rendement en dan nog zijn er heel veel voedingen met niet kloppende 80PLUS certificeringen.naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]
Ehhm zoek eerst de betekenis van certificering eens op voor je zon opmerking gaat plaatsen waar "zo'n stickertje" voor staat, je weet dondersgoed dat het te maken heeft met de prestatie van de voeding.
Denk dat jij hier trouwens ook eens moet Googlen hoe het nu werkt want ik weet niet hoe je hier bij komt.Kijk ook altijd goed uit hoe het wattage wordt aangegeven als een 500W psu een 80+ heeft zou deze dus ook 500W kunnen trekken en maar 80% leveren(400W) deze "naaierij" komt vaak voor bij de goedkope modellen/merken.
Ook onzin, als je gaat kijken naar het 80PLUS certificaat om een voeding te kiezen ga je heel veel miskopen doen. Er zijn zoveel bagger voedingen te krijgen met 80PLUS certificering. Coolermaster GX750 is een mooi voorbeeld, echt troep...Er is niks onzins aan het geeft puur aan welk deel van het ingaande vermogen wordt omgezet in bruikbaar vermogen. 80+ is echt een instap voeding aangezien 80+ brons de gangbare minimum prestatie index is van een kwaliteits voeding als je een beetje bij de knappe merken kijkt.
Be Quiet? De eerste kwaliteits voeding van Be Quiet zal waarschijnlijk begint volgend jaar komen.2 zaken maken een goede voeding:
1) Goede componenten er zijn een aantal merken die knappe onderdelen in hun voeding gebruiken oa corsair, be quiet.
Onzin, efficientie staat los van kwaliteit en prestaties.2) De prestatie in dit geval de efficiency uitgedrukt in de 80+ standaard.
Punt 2 slaat natuurlijk direct op punt 1 zonder goede componenten geen goede efficiency.
Kijk je enkel naar het 1e punt dan ben je niet goed bezig, combinatie van 1 en 2 is wat een goede voeding maakt.
Is het ook daarom hebben veel reviewers er ook een hekel aan. O.a. omdat er mee gesjoemel wordt, dat het niks zegt over de prestaties/kwaliteit en omdat je het meestal niet zal terug verdienen.Maarja als jij een certificering ziet als enkel een stickertje dan moet je dat vooral zo blijven doen maar er zit wel degelijk een standaard achter die ook ergens op slaat en onderscheid maakt tussen een voeding en een goede voeding.
Omdat niets zeggen ook zo weinig is en de meeste mensen denken dat je naar een stickertje op de voeding moet kijken met een x aantal watt en dus laten ze die waan maar bestaan.En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
Dat die voeding daar dat kan betekend helemaal niet dat jouw voeding dat kan en het is sowieso af te raden om het te doen, de voeding is er niet voor berekend. Ook belast je de onderdelen niet maximaal met de programma's die jij noemt, maar met die max moet je wel rekening houden.Max Hunt schreef op zondag 09 oktober 2011 @ 17:35:
[...]
Ik heb ook nog 4 HDD's, 1 geluidskaart, een Nvidia 8400 gs, (destijds) 3x2Gb RAM en 6 fans + fan controller erin zitten. Ik heb mijn i7 950 op 4.1GHz en ik heb mijn 580's overclocked tot 925MHz Core met maximaal toegestane voltage en daarmee heb ik benchmarks gedraaid (Heaven, 3DMark, AvP, Crysis). Mijn hoogste piek was netto ongeveer 800W. (en daar komt nog bovenop dat mijn voeding getest is en 900W sustained kan leveren.)
Slechte FPS ga je niet krijgen.Lias schreef op dinsdag 11 oktober 2011 @ 17:13:
Het lijkt wel een sport om macho te doen om met een zon goedkoop mogelijke voeding + laag wattage een videokaart aan te sturen die eigenlijk net iets te weinig stroom krijgt en zo nog een slechte FPS neerzet ookDat die mensen op dit forum zitten is mij een raadsel.
Klinkt als een slechte voeding of pech.Ik heb een 1000w voeding 80+ bronze nog onderuit gehaald met een paar videokaarten 2 GTX 480's met gemodde bios etc.
Uiteindelijk had ik de 1000w opgeblazen en ging RMA
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kleine bjidrage aan het topic : doordat mijn HD4850 overleden was heb ik noodgedwongen een GTX560 gekocht, en die (tijdelijk) op een externe voeding aangesloten (bequiet 350watt).
Dit werkte, todat ik een game opstartte, na een minuut of 5 kreeg ik een reboot en begon alleen de fan van de kaart op vol vermogen te draaien. - direct uit gezet natuurlijk.
- Weet iemand of de fan door het mobo gevoed wordt ?
Nu overigens met een B merk(?) Recom Power Engine 0dB 80+ 580 Watt, schijnt uit nederland te komen.
dit icm met een Q6600 op 2,4 en 1 HD en 1 DVD brander, slechts 2 Gb intern en een cardreader.
Tot deze keuze gekomen omdat er standaard een 250 Watt (Acer) voeding in zat, en 3 jaar mijn 4850+Q6600 heeft gevoedt. (En 580 Watt dus ruim bemeten lijkt)
Dit werkte, todat ik een game opstartte, na een minuut of 5 kreeg ik een reboot en begon alleen de fan van de kaart op vol vermogen te draaien. - direct uit gezet natuurlijk.
- Weet iemand of de fan door het mobo gevoed wordt ?
Nu overigens met een B merk(?) Recom Power Engine 0dB 80+ 580 Watt, schijnt uit nederland te komen.
dit icm met een Q6600 op 2,4 en 1 HD en 1 DVD brander, slechts 2 Gb intern en een cardreader.
Tot deze keuze gekomen omdat er standaard een 250 Watt (Acer) voeding in zat, en 3 jaar mijn 4850+Q6600 heeft gevoedt. (En 580 Watt dus ruim bemeten lijkt)
Ik heb met mijn nieuwe gtx570 een vreemd probleem.
Systeem specs:
Intel I7 2600K
ASUS ENGTX570
ASUS P8H67-M EVO
Kingston HyperX 8 GB.
550 WATT voeding van corsair
op Desktop, photoshop en al die pc applicaties gaat het prima. Zodra er een zwaar spel, BF3 beta en 3Dmarks 11 uitgevoerd wordt

Gaat het beeld stil staan in BF3 en zie ik in 3dmarks af en toe het beeld stil staan, en/of er verschijnen van die parse tot groene felle kleuren in beeld (helaas geen screenshot van) wat lijkt op een artifact.

- Heb de nieuwste stabiele drivers van Nvidia
- Videokaart al een keer erin en uit gedaan
- Hij wordt absoluut niet warm
Systeem specs:
Intel I7 2600K
ASUS ENGTX570
ASUS P8H67-M EVO
Kingston HyperX 8 GB.
550 WATT voeding van corsair
op Desktop, photoshop en al die pc applicaties gaat het prima. Zodra er een zwaar spel, BF3 beta en 3Dmarks 11 uitgevoerd wordt

Gaat het beeld stil staan in BF3 en zie ik in 3dmarks af en toe het beeld stil staan, en/of er verschijnen van die parse tot groene felle kleuren in beeld (helaas geen screenshot van) wat lijkt op een artifact.

- Heb de nieuwste stabiele drivers van Nvidia
- Videokaart al een keer erin en uit gedaan
- Hij wordt absoluut niet warm
[ Voor 5% gewijzigd door rudyman85 op 11-10-2011 19:53 ]
550 watt voeding is wat aan de krappe kant, zelfs al is ie van Corsair.
600+ zit je wel goed met jouw configuratie.
600+ zit je wel goed met jouw configuratie.
Is sowieso niet de voeding en zal ook niks helpen deze te vervangen.
Is of driver probleem of een kapotte videokaart hoogstwaarschijnlijk. Als je nog een oude HD hebt zou je daar Windows opnieuw op kunnen installeren zien als het dan wel werkt. Videokaart testen in een andere PC kun je ook proberen, dan weet je zeker of die stuk is of niet.
Is of driver probleem of een kapotte videokaart hoogstwaarschijnlijk. Als je nog een oude HD hebt zou je daar Windows opnieuw op kunnen installeren zien als het dan wel werkt. Videokaart testen in een andere PC kun je ook proberen, dan weet je zeker of die stuk is of niet.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ga ik proberen. bedankt !-The_Mask- schreef op dinsdag 11 oktober 2011 @ 20:48:
Is sowieso niet de voeding en zal ook niks helpen deze te vervangen.
Is of driver probleem of een kapotte videokaart hoogstwaarschijnlijk. Als je nog een oude HD hebt zou je daar Windows opnieuw op kunnen installeren zien als het dan wel werkt. Videokaart testen in een andere PC kun je ook proberen, dan weet je zeker of die stuk is of niet.
[ Voor 14% gewijzigd door rudyman85 op 11-10-2011 22:04 ]
Update ook even windows en alle andere drivers als je toch bezig bent. Dit om zoveel mogelijk uit te sluiten..
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Gedaan inderdaad. Heb nu net een schone Win7 erop met alle updates.Format-C schreef op dinsdag 11 oktober 2011 @ 22:27:
Update ook even windows en alle andere drivers als je toch bezig bent. Dit om zoveel mogelijk uit te sluiten..
Heb de kaart nu een weekje. Eerst ging het wel goed met spellen. Bad company 2 nog een aantal uur kunnen spelen bijvoorbeeld. Nu ik de singelplayer opstart is het al mis, blijft hangen, artifacts geven en vervolgens maar weer terug naar het bureaublad. Oudere drivers geprobeerd van de cd. Heeft ook niet geholpen.
Maar weer terug met dat ding.
[ Voor 4% gewijzigd door rudyman85 op 11-10-2011 22:36 ]
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zou kunnen. Heb nog een 260gtx liggen, ga ik die eens proberen.-The_Mask- schreef op dinsdag 11 oktober 2011 @ 22:41:
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.
Deze kreeg ik net nog:

Gaat prima hier
Ik zou het niet uitsluiten, toevallig had ik een soortgelijk probleem met mijn laatste videokaart. Eerst deed ie het perfect, toen opeens 1 op de 2-3 reboots en daarna helemaal niet meer. Omdat de kaart het eerst wel gewoon goed deed ging ik er niet vanuit dat het aan de kort kon liggen, ik heb me toen 3 dagen suf gezocht tot ik uiteindelijk bij de kaart terug kwam.-The_Mask- schreef op dinsdag 11 oktober 2011 @ 22:41:
Als die het eerst wel deed, zou ik niet zo snel denken dat die nu wel stuk is, dan is het waarschijnlijker dat het software/drivers zijn.
Ik zeg ook niet dat het niet zijn videokaart is, maar ik zou denken dat het de Asus software is die niet helemaal goed werkt met de nVidia software of andersom, aangezien de BSOD daar naar wijst.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
dit is ook de eerste keer dat deze melding voor komt. Zal de Asus Auite 2, smartdocter en gamerOSD eens uninstalleren.
edit: Inmiddels gedaan, zonder goed resultaat. Ik weet eerst voldoende. hartstikke bedankt voor het helpen !
edit: Inmiddels gedaan, zonder goed resultaat. Ik weet eerst voldoende. hartstikke bedankt voor het helpen !
[ Voor 32% gewijzigd door rudyman85 op 11-10-2011 23:04 ]
Anoniem: 245699
Sorry dat ik hier nog over doorga, maar je begrijpt er volgens mij helemaal niks van...naaitsab schreef op vrijdag 07 oktober 2011 @ 21:09:
[...]
470W is al een stuk meer dan de 350-400 die werd genoemd
Jouw CPU is zuiniger en Nvidia staat er nou eenmaal om bekend niet zuinig te zijn met stroom.
En als zo goed als elke fabrikant een 600W voeding als minimaal aangeeft voor een GTX570 zal dat echt wel een reden hebben.
Ik zeg dat een gemiddelde setup met een enkele GTX570 350-400 uit de muur trekt, Unfor trekt met zijn HD6970CF serup 470 watt uit de muur. Dan toont dat alleen maar aan dat mijn indicatie correct is. En die schatting heb ik niet zomaar gedaan, dat kan je redelijk makkelijk vergelijken met tig reviews van de GTX570...
Die 600watt die de fabrikant aanhoudt heeft ook te maken met het feit dat ze rekening moeten houden met gebruikers die echt zware crap voedingen hebben. Daarbij zegt wattage niks, maar ampere die geleverd kan worden op de 12V rail des te meer. Of dacht je dat een Sweex 600 watt voeding evenveel vermogen kan leveren als een Corsair 550watt voeding?
Verder heeft the mask ook al wel toegelicht dat het 80plus stikkertje weinig zegt over de kwaliteit van een voeding, het kan enigszins een indicatie geven, maar ook niet meer dan dat... Want net of een 80plus gold voeding per definitie beter van kwaliteit is dan een Silver of Bronze, das allerminst waar.
Lezen is niet je sterkste punt.-The_Mask- schreef op dinsdag 11 oktober 2011 @ 18:03:
[...]
Een 550W voeding? Dat zegt helemaal niks, zijn zoveel 550W voedingen waarbij de kans groot is dat die ontploft als je dat doet dan bestaat er ook een kans dat je de videokaarten kunt weggooien.
Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.
Inmiddels een 850 watt van corsair erbij gekocht, zonder resultaat. Dus terug sturen. Heb er nu een 260GTX in zitten, die werkt primaunfor schreef op woensdag 12 oktober 2011 @ 19:58:
[...]
Lezen is niet je sterkste punt.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.
[ Voor 5% gewijzigd door rudyman85 op 12-10-2011 21:02 ]
Lezen kan ik prima, maar jouw theorie klopt niet. Als je het namelijk gaat uitrekenen hoeveel iets max verbruikt kom je bijna altijd hoger uit dan dat je in de praktijk maximaal haalt. Dus in theorie kan het juist nog veel minder snel.unfor schreef op woensdag 12 oktober 2011 @ 19:58:
[...]
Lezen is niet je sterkste punt.
Ik zeg in theorie zou het kunnen, maar in de praktijk is het niet zo'n goed idee.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Leuke discussie jongens , maar altijd een feest The_Mask te lezen...
ontopic:
Waarom zou 550W niet genoeg zijn als Nvidia dit zelf opgeeft voor een GTX570?
Denk dat de vraag eerder moet zijn welke fabrikant van de voeding?
Een Q-Tek is nu eenmaal niet hetzelfde als laten we zeggen een Seasonic voeding
ontopic:
Waarom zou 550W niet genoeg zijn als Nvidia dit zelf opgeeft voor een GTX570?
Denk dat de vraag eerder moet zijn welke fabrikant van de voeding?
Een Q-Tek is nu eenmaal niet hetzelfde als laten we zeggen een Seasonic voeding
[ Voor 43% gewijzigd door ötzi op 13-10-2011 00:39 ]
http://www.ocia.net/reviews/asusgtx580/page3.shtml-The_Mask- schreef op dinsdag 11 oktober 2011 @ 18:03:
[...]
Er is maar één 550W voeding te koop waarbij het fatsoenlijk zou kunnen en dat is een Super Flower Golden King van 550W.
GTX580 review op een pricewatch: FSP Aurum 500 met overklok.
FSP was toch slecht? Of is deze serie van hun goed?
Anoniem: 91626
Niet bekend mee maar een gold 80plus cert. heeft wel enige waarde natuurlijk. Maar waarom zou je het risico nemen om met zo weinig stroom de kaart te laten draaien? Ik kreeg al ruzie met een 500W Silentmaxx (W.C. PSU) en een Nvidia ENGTX285. Deze viel tijdens de extreme momenten ingame gewoon compleet uit met system en al maar nu met 850W nooit meer problemen gehad. Het is leuk dat het werkt maar hou je aan de specs dan ben je altijd beter af!
Risico? Ik zie nergens dat het systeem ontploft.
Waarschijnlijk is dat een testsysteem voor de reviews en zat die voeding er toevallig in en deed ie het gewoon dus dan zal ie wel goed genoeg zijn. Of in ieder geval voldoende voor de genoemde onderdelen. Hij zegt er ook bij dat als je zwaardere onderdelen hebt of SLI gaat gebruiken, die voeding niet meer zal voldoen, maar dat lijkt me logisch.
En 850W voor een GTX285 lijkt me dat je iets verkeerd doet.
Waarschijnlijk is dat een testsysteem voor de reviews en zat die voeding er toevallig in en deed ie het gewoon dus dan zal ie wel goed genoeg zijn. Of in ieder geval voldoende voor de genoemde onderdelen. Hij zegt er ook bij dat als je zwaardere onderdelen hebt of SLI gaat gebruiken, die voeding niet meer zal voldoen, maar dat lijkt me logisch.
En 850W voor een GTX285 lijkt me dat je iets verkeerd doet.
Door al die voeding discuties begin ik ook een klein beetje te twijfelen, krijg dit weekend men 2de GTX570
als ik men cpu (i7 875k) stevig overclock (1.4v ) onder wc en men 2 gpu's ( evga classifieds) ook goed boost, (met stock kooler) ga ik er dan nog komen met mijn Coolermaster Silent pro m 850w atx2 ( 85% eff)
Vooral als ik het max uit mijn systeem vraag met even furmark te draaien, vrees ik dat ik er misschien niet meer raak?
Wat denken jullie ervan?
als ik men cpu (i7 875k) stevig overclock (1.4v ) onder wc en men 2 gpu's ( evga classifieds) ook goed boost, (met stock kooler) ga ik er dan nog komen met mijn Coolermaster Silent pro m 850w atx2 ( 85% eff)
Vooral als ik het max uit mijn systeem vraag met even furmark te draaien, vrees ik dat ik er misschien niet meer raak?
Wat denken jullie ervan?
[ Voor 3% gewijzigd door BitchCrew op 13-10-2011 10:22 ]
Anoniem: 91626
Gezien het feit dat het mogelijk is om een GTX580 werkend en overklocked te krijgen is met een 500W voeding zou ik zeggen dat SLI met 2 x GTX570 geen probleem moet zijn zeker niet voor een 850W Coolermaster.
@mask, een officiële certificering waar een efficiëntie in procent staat vermeld afgeven op een product welke deze certificering niet waar maakt mag officieel niet, dus als een voeding met 80+ variant met het daartoe behorende efficiëntie niet haalt dan kun je een rechtszaak aanspannen dat je voorgelogen bent omdat de voeding niet aan de eisen voldoet of je daar moeite en geld in wilt steken is een 2e.
Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Be Quiet maakt al jaren goede voedingen zeker de Dark Power lijn maar de pure power lijn moet je links laten liggen zoals bij elk merk, budget voedingen zijn nou eenmaal niet van hoge kwaliteit maar daar is de prijs ook naar. Wij verkopen al 4 jaar in elke pc een Be Quiet voeding en daarvan zijn de RMA gevallen met 2 handen te tellen, dus sorry maar je uiting dat er geen goede Be Quiet voeding is neem ik met een hele grote korrel zout.
Maar genoeg hierover, zullen we de voeding discussie verder afwerken in het daarvoor bestemde topic?
[BBG aanschaf] Voedingen - Deel 28
Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Be Quiet maakt al jaren goede voedingen zeker de Dark Power lijn maar de pure power lijn moet je links laten liggen zoals bij elk merk, budget voedingen zijn nou eenmaal niet van hoge kwaliteit maar daar is de prijs ook naar. Wij verkopen al 4 jaar in elke pc een Be Quiet voeding en daarvan zijn de RMA gevallen met 2 handen te tellen, dus sorry maar je uiting dat er geen goede Be Quiet voeding is neem ik met een hele grote korrel zout.
Maar genoeg hierover, zullen we de voeding discussie verder afwerken in het daarvoor bestemde topic?
[BBG aanschaf] Voedingen - Deel 28
if (!coffee) {
Work = false; }
Anoniem: 245699
Toch is je stelling wat te makkelijk.. Want zo is bijv. een Scythe Chouriki 2 Plug-in 650W (80plus Silver) zeker niet beter dan een Seasonic M12II bronze 620watt (80 plus bronze). Het geeft een indicatie, maar niet meer dan dat...naaitsab schreef op donderdag 13 oktober 2011 @ 12:49:
Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Wat betreft Be Quiet, wat the Mask denk ik wil zeggen is dat de Dark Power serie opzich wel goed is, maar heeft een vrij hoge riple vergeleken met andere voedingen uit hetzelfde segment die zelfs nog goedkoper zijn.
Je hebt verder wel gelijk dat deze discussie hier niet verder gevoerd hoeft te worden.
[ Voor 12% gewijzigd door Anoniem: 245699 op 13-10-2011 22:05 ]
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?
EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken
EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken
[ Voor 14% gewijzigd door Jaapoes op 14-10-2011 08:47 ]
[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]
Uit de Review van de GTX 570:
GeForce GTX 570
On your average system the card requires you to have a 600 Watt power supply unit.
GeForce GTX 570 in SLI
A second card requires you to add another 225 Watts. You need a 850+ Watt power supply unit if you use it in a high-end system (1 KiloWatt recommended if you plan on any overclocking).
Ik vermoed wel dat dit met marge genomen is kwa kwaliteit van een voedig en harde schijven enz.
Ik kan me niet goed inbeelden dat tegenwoordig een 1KW voeding al nodig is
GeForce GTX 570
On your average system the card requires you to have a 600 Watt power supply unit.
GeForce GTX 570 in SLI
A second card requires you to add another 225 Watts. You need a 850+ Watt power supply unit if you use it in a high-end system (1 KiloWatt recommended if you plan on any overclocking).
Ik vermoed wel dat dit met marge genomen is kwa kwaliteit van een voedig en harde schijven enz.
Ik kan me niet goed inbeelden dat tegenwoordig een 1KW voeding al nodig is

Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet.. 
Ik denk zelf dat het wel moet kunnen aangezien de Corsair voedingen bekend staan als kwalitatief goede voedingen alleen denk ik dat hij dan wel voortdurend op zn max/piek draait met games zeg maar.. Dat lijkt me niet echt wenselijk?
Ik denk zelf dat het wel moet kunnen aangezien de Corsair voedingen bekend staan als kwalitatief goede voedingen alleen denk ik dat hij dan wel voortdurend op zn max/piek draait met games zeg maar.. Dat lijkt me niet echt wenselijk?
[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]
ja maar in een andere zeggen ze 850+ ( zie post erboven, is c/p uit guru review).
heb het even gevraagd voor mijn situatie in de voeding topic.
ook vooral omdat ik ver wil oc'en en toch een belasting zal krijgen die zich eigenlijk nooit voordoet ( furmark, prime, ...)
Het laatste wat ik wil is dat de voeding er dan uitklapt ze :-)
heb het even gevraagd voor mijn situatie in de voeding topic.
ook vooral omdat ik ver wil oc'en en toch een belasting zal krijgen die zich eigenlijk nooit voordoet ( furmark, prime, ...)
Het laatste wat ik wil is dat de voeding er dan uitklapt ze :-)
[ Voor 13% gewijzigd door BitchCrew op 14-10-2011 10:04 ]
Anoniem: 245699
Bij Guru3d trekken zo onder full-stress 578 watt uit de muur;Jaapoes schreef op vrijdag 14 oktober 2011 @ 09:59:
Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet..
Ik denk zelf dat het wel moet kunnen aangezien de Corsair voedingen bekend staan als kwalitatief goede voedingen alleen denk ik dat hij dan wel voortdurend op zn max/piek draait met games zeg maar.. Dat lijkt me niet echt wenselijk?
- http://www.guru3d.com/article/geforce-gtx-570-sli-review/13
Dit is met een vrij onzuinige i7 965 @ 3.75Ghz.
Trekken we daar efficientieverlies vanaf (uitgaande van 88%), dan zit je zo op de (578*0.88=) 510 watt, dat werkelijk van de PSU gevraagd wordt.
Zolang jij je videokaarten niet extreem gaat overclocken en overvolten gaat die HX750 het echt (makkelijk) houden.
EDIT; Natuurlijk is één voorbeeld niet heel accuraat, maar al zou je er 50-100watt bij op tellen, dan nog heb je redelijk wat marge over. Bedenk ook dat een HX750 tot iets van 900watt kan leveren en stabiel blijft...
[ Voor 11% gewijzigd door Anoniem: 245699 op 14-10-2011 11:24 ]
Volgens mij klopt je verhaal niet helemaal want boven dat guru3d stuk staat:Anoniem: 245699 schreef op vrijdag 14 oktober 2011 @ 11:14:
[...]
Bij Guru3d trekken zo onder full-stress 578 watt uit de muur;
- http://www.guru3d.com/article/geforce-gtx-570-sli-review/13
Dit is met een vrij onzuinige i7 965 @ 3.75Ghz.
Trekken we daar efficientieverlies vanaf (uitgaande van 88%), dan zit je zo op de (578*0.88=) 510 watt, dat werkelijk van de PSU gevraagd wordt.
Zolang jij je videokaarten niet extreem gaat overclocken en overvolten gaat die HX750 het echt (makkelijk) houden.
EDIT; Natuurlijk is één voorbeeld niet heel accuraat, maar al zou je er 50-100watt bij op tellen, dan nog heb je redelijk wat marge over. Bedenk ook dat een HX750 tot iets van 900watt kan leveren en stabiel blijft...
We'll be calculating the GPU power consumption here, not the total PC power consumption.
[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]
Ik heb dezelfde HX750w Corsair voeding. Ik heb 0-3 pagina's terug wat over mijn systeem verteld (zie ook mijn inventaris) en voor mij is deze voeding goed genoeg. Pas toen ik mijn 2 GTX 580's enorm ging overvolten en overclocken was de vraag iets meer dan de voeding volgens de specs aan zou kunnen.Jaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?
EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken
Tijdens games wordt meestal hooguit 600W verbruikt, dat is dus een load va 80%. Ik heb zo'n 9 maand bijgehouden wat mijn PC aan stroom verbruikt. In het begin dacht ik ook dat ik een zwaardere voeding nodig had, nu zie ik dat puur als geldverspilling.
Anoniem: 245699
Nee, zie;Jaapoes schreef op vrijdag 14 oktober 2011 @ 15:11:
[...]
Volgens mij klopt je verhaal niet helemaal want boven dat guru3d stuk staat:
We'll be calculating the GPU power consumption here, not the total PC power consumption.
Systeem totaal is dus 578watt. GPU's is ~410wattMeasured power consumption
1. System in IDLE = 218W
2. System Wattage with GPU in FULL Stress = 578W
3. Difference (GPU load) = 360W
4. Add average IDLE wattage ~ 50W
5. Subjective obtained GPU power consumption = ~ 410 Watts
[ Voor 37% gewijzigd door Anoniem: 245699 op 14-10-2011 17:19 ]
Nou er zijn tientallen voedingen met neppe 80PLUS certificaties dus ik wens je succes met je rechtzaken. Heb nog wel zo'n voeding hier thuis liggen.naaitsab schreef op donderdag 13 oktober 2011 @ 12:49:
@mask, een officiële certificering waar een efficiëntie in procent staat vermeld afgeven op een product welke deze certificering niet waar maakt mag officieel niet, dus als een voeding met 80+ variant met het daartoe behorende efficiëntie niet haalt dan kun je een rechtszaak aanspannen dat je voorgelogen bent omdat de voeding niet aan de eisen voldoet of je daar moeite en geld in wilt steken is een 2e.
Nee heeft er vrij weinig mee te maken ik zou zeggen lees je in voordat je dingen roept waar je niks vanaf weet. Er zijn genoeg voedingen met 80PLUS Gold certificaat die minder zijn dan voedingen met 80PLUS standaard, ook logisch want rendement staat los van kwaliteit en prestaties.Natuurlijk heeft de efficiëntie invloed op de kwaliteit van een voeding, een slechte voeding heeft een lage efficiëntie en een goede voeding heeft een hogere efficiëntie, buiten dat de efficiëntie samen met het vermogen=prestatie :W
Hoge efficiëntie betekend niet gelijk dat het een goede voeding dat zeker niet maar heeft er wel degelijk mee te maken.
Kan je doen, maar dat van mij is iig op feiten gebaseerd en dat van jouw is een mening.Be Quiet maakt al jaren goede voedingen zeker de Dark Power lijn maar de pure power lijn moet je links laten liggen zoals bij elk merk, budget voedingen zijn nou eenmaal niet van hoge kwaliteit maar daar is de prijs ook naar. Wij verkopen al 4 jaar in elke pc een Be Quiet voeding en daarvan zijn de RMA gevallen met 2 handen te tellen, dus sorry maar je uiting dat er geen goede Be Quiet voeding is neem ik met een hele grote korrel zout.
Aantal goede reviews zijn er niet heel veel, Be Quiet! zend maar weinig review samples uit. Maar de reviews die er zijn zeggen wel genoeg prestaties en kwaliteit is niet al te hoog en de prijs die Be Quiet! vraagt is gewoon altijd te hoog.
http://www.overclock3d.ne...wer_pro_p8_1000w_review/3
Waar is dan de hoge kwaliteit van de voeding? Ik zie maar redelijke of beter gezegd matige kwaliteit voor een voeding van zijn prijs.
http://www.overclock3d.ne...wer_pro_p8_1000w_review/4
Ik zie geen bijzonder stabiele spanningen, jij wel?
http://www.overclock3d.ne...wer_pro_p8_1000w_review/5
Rimple van de 12V en 3,3V niet eens binnen de ATX specificaties dat is gewoon slecht.
Ik lees het topic wel dus als je er nog wat over kwijt wil zie ik het wel verschijnen.Maar genoeg hierover, zullen we de voeding discussie verder afwerken in het daarvoor bestemde topic?
[BBG aanschaf] Voedingen - Deel 28
Ging over SLi hè, niet een enkele kaart.chim0 schreef op donderdag 13 oktober 2011 @ 03:54:
[...]
http://www.ocia.net/reviews/asusgtx580/page3.shtml
GTX580 review op een pricewatch: FSP Aurum 500 met overklok.
Meestal rond matig/redelijk, FSP Aurum is wel leuk geprijst als je graag een efficiente voeding wil, maar ze hebben ook nadelen. Niet echt stil, geen hoge kwaliteit en prestaties.FSP was toch slecht? Of is deze serie van hun goed?
Voor de meestal zal het wel voldoen, maar ligt een beetje aan de overkloks die geplanned staan.Jaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?
EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken
Guru3D moet je niet serieus nemen, vooral niet met voedingen.Jaapoes schreef op vrijdag 14 oktober 2011 @ 09:59:
Nee nou ja dat is een beetje het punt. Op Guru3d adviseren ze een 750+ voeding minimaal. Ik heb ook behoorlijk wat fora doorgelezen en de ene zegt dat het makkelijk moet kunnen, de ander zegt van niet..
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Op het Atomic forum komen ze uit op ~370W voor SLI GTX 570, dat komt dus behoorlijk precies overeen. Het gaat dan ook om piek waarden, tijdens gamen kom je vrijwel nooit boven die waarde en zit je vrijwel altijd daar onder (bij mij is dat meestal tussen de 50-100W).Anoniem: 245699 schreef op vrijdag 14 oktober 2011 @ 17:18:
[...]
[...]
Systeem totaal is dus 578watt. GPU's is ~410watt
Voor overclocken geven ze op het Atomic forum een soort vuistregel, voor elke 1% snelheidswinst stijgt het stroomverbruik met iets minder dan 1%, voor de zekerheid kun je het wat ruimer nemen en is elke 1% meer snelheid 1% meer stroomverbruik.
edit
[ Voor 123% gewijzigd door A87 op 14-10-2011 21:50 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Ik heb dit systeem nu draaien sinds een maand en draait als een zonnetje! nergens geen probleem op max instellingen, zoals crysis2 met dx11 en highres,of metro 2033. rage. enz! voeding trekt dit primaJaapoes schreef op donderdag 13 oktober 2011 @ 22:25:
Hmmm nou begin ik toch te twijfelen jongens.. Ik wilde namelijk een sli setup gaan draaien en dacht altijd dat mijn trouwe Corsair hx750 voldoende zou moeten zijn. Toch zit het volgens mij een beetje op de grens van wat kan of niet? Ook omdat ik mijn cpu heb overgeklokt?
EDIT: Lekker duidelijk; het zou dan gaan om een 2de gtx570 die ik erbij wil prikken
Sli werkt super!
1 x Zalman CNPS10X Performa
2 x MSI 1.2 D5 X N570GTX Twin FrozrIII PE/OC
1 x MS Windows 7 Ul 64b Alternate NL SP1
1 x Int Core i7-2600K 3400 1155 BOX
1 x Enermax 800EWT Modu87+ 800W ATX
1 x CooMas CM690II Advanced
1 x *** 2 jaar on-site garantie ***
1 x SonyNec 24x SA 7260S BlB
1 x SSD 120GB 275/285 Vertex2 35 SA2 OCZ
1 x LG BH10LS 10x SA LS Bk R
1 x Asus P8Z68-V Z68 FRG SA
1 x Sams 1TB HD103SJ F3 SA2
1 x D3 8GB 1600-999 RipjawsX K2 GSK
1 x Crea X-Fi Xtreme Audio PCIe R
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
In principe komen ze daar nergens op uit, want ze meten niks er wordt gekeken naar andere reviews. Maar de 370W is wel iets wat je kan halen in veel games, 500W is iets wat alleen met Furmark lukt, maar wel iets om rekening mee te houden als je dit gaat gebruiken.Max Hunt schreef op vrijdag 14 oktober 2011 @ 21:21:
[...]
Op het Atomic forum komen ze uit op ~370W voor SLI GTX 570, dat komt dus behoorlijk precies overeen. Het gaat dan ook om piek waarden, tijdens gamen kom je vrijwel nooit boven die waarde en zit je vrijwel altijd daar onder (bij mij is dat meestal tussen de 50-100W).
Vuistregel:Voor overclocken geven ze op het Atomic forum een soort vuistregel, voor elke 1% snelheidswinst stijgt het stroomverbruik met iets minder dan 1%, voor de zekerheid kun je het wat ruimer nemen en is elke 1% meer snelheid 1% meer stroomverbruik.
Frequentie stijgt linear met het verbruik
Spanning stijgt exponentieel met het verbruik.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als ik er een 2de gtx naast prik dan worden die niet overgeklokt, alleen mn cpu blijft op 4.5 lopen. Ik ga het gewoon proberen, als ik er 1tje bij heb post ik mijn ervaringen hier!
[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]
De HX750 kan dat gemakkelijk aan.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Mensen ik wou even vragen of er mensen zijn die mij even hun mening kunnen geven.
Ik draai in mijn systeem 2x een Asus GTX580 pricewatch: Asus ENGTX580/2DI/1536MD5 . Nou word mijn 1ste kaart tijdens het gamen al gauw 80graden en de 2e kaart loopt op tot de 85-90 graden en ik heb al wel eens een paar keer gehad dat games gewoon vastlopen(weet niet of dit aan de kaarten kan liggen)
Nou lijkt het mij dat een standaard kaart de fan harder laat draaien bij hogere temperaturen maar de ventilatoren van mijn kaarten komen nooit boven de 2400 toeren uit dus moest ik met smartdoctor een manueel fan profiel aanmaken zodat me fans harder gaan draaien als de kaart warmer wordt.
En hier wou ik graag jullie mening over horen.Als er mensen zijn die soort gelijke ervaringen hebbenhoor ik dat ook graag
Het lijkt mij dus niet de bedoeling dat men een zelf een profiel moet aanmaken om je kaarten koel te houden!!
p.s. systeem specs hieronder
inventaris: Game pctje
Ik draai in mijn systeem 2x een Asus GTX580 pricewatch: Asus ENGTX580/2DI/1536MD5 . Nou word mijn 1ste kaart tijdens het gamen al gauw 80graden en de 2e kaart loopt op tot de 85-90 graden en ik heb al wel eens een paar keer gehad dat games gewoon vastlopen(weet niet of dit aan de kaarten kan liggen)
Nou lijkt het mij dat een standaard kaart de fan harder laat draaien bij hogere temperaturen maar de ventilatoren van mijn kaarten komen nooit boven de 2400 toeren uit dus moest ik met smartdoctor een manueel fan profiel aanmaken zodat me fans harder gaan draaien als de kaart warmer wordt.
En hier wou ik graag jullie mening over horen.Als er mensen zijn die soort gelijke ervaringen hebbenhoor ik dat ook graag
Het lijkt mij dus niet de bedoeling dat men een zelf een profiel moet aanmaken om je kaarten koel te houden!!
p.s. systeem specs hieronder
inventaris: Game pctje
[ Voor 3% gewijzigd door Streepje op 16-10-2011 13:52 ]
Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI
Het kan zijn dat met het originele profiel de fan pas echt hard gaat draaien bij nog hogere temperaturen. Ik heb zelf met MSI Afterburner een nieuw profiel gemaakt waarmee de fans tijdens idle niet te horen zijn, maar tijdens gamen snel hard gaan blazen. Tijdens het gamen heb je meestal genoeg geluid om je heen en hoor je de fans toch niet, maar zo blijven je kaarten wel kouder.
Zelf heb ik ook de bracket van de achterkant van mijn 580's eraf gehaald, dat scheelde ook nogal wat qua temperatuur. Tijdens gamen komt de warmste 580 nu niet boven de 75 graden uit, meestal is ie zelfs zo rond de 70.
Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
Zelf heb ik ook de bracket van de achterkant van mijn 580's eraf gehaald, dat scheelde ook nogal wat qua temperatuur. Tijdens gamen komt de warmste 580 nu niet boven de 75 graden uit, meestal is ie zelfs zo rond de 70.
Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:

ik heb het een poosje aangekeken en de fans komen echt nooit boven de 2400 toeren waardoor dus mijn kaarten echt warm worden. De enigste manier om de fans harder te laten draaien was met een fan profiel.
Ik heb zelfs 1 kaart nog een slot opgeschoven zodat hij wat meer frisse lucht zou krijgen
Ik zal je tip over de brackets eens proberen als me nieuwe SSD er is moet ik toch de halve pc slopen (meteen wat kleine mods doen)
Ik heb zelfs 1 kaart nog een slot opgeschoven zodat hij wat meer frisse lucht zou krijgen
Ik zal je tip over de brackets eens proberen als me nieuwe SSD er is moet ik toch de halve pc slopen (meteen wat kleine mods doen)
[ Voor 12% gewijzigd door Streepje op 16-10-2011 14:45 ]
Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI
Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!
Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
[ Voor 24% gewijzigd door A87 op 16-10-2011 21:18 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Ik heb net een MSI N570GTX Twin Frozr III Power Edition/OC besteld en ik kom van een EVGA GTX260 core 216. Dus ik ben al een beetje bekend met het Precision tool van EVGA dat eigenlijk heel hard op die Afterburner van MSI lijkt.
Nu vroeg ik mij af als ik deze kaart wil overclocken, op welk gedeelte moet ik mij het meeste focussen om de beste prestaties van mijn kaart naar boven te brengen? Alles op core MHz zetten of proberen een goeie balans te vinden tussen Core,Shader en Memory MHz'n?
Als ik het goed heb kan je met je core te oc'n de meeste prestaties unlocken niet?
Bedankt.
Nu vroeg ik mij af als ik deze kaart wil overclocken, op welk gedeelte moet ik mij het meeste focussen om de beste prestaties van mijn kaart naar boven te brengen? Alles op core MHz zetten of proberen een goeie balans te vinden tussen Core,Shader en Memory MHz'n?
Als ik het goed heb kan je met je core te oc'n de meeste prestaties unlocken niet?
Bedankt.
ja, core geeft de meeste impact
Shader gaat automatisch mee omhoog he 
Mooie kaart, ik heb em zelf ook. Stil en zeer koel in full load. Wat ook fijn is aan deze kaart is dat hij even lang is als de GTX560Ti of ietsje langer. Dus hij is net niet evenlang als een standaard ATX mobo.
Mooie kaart, ik heb em zelf ook. Stil en zeer koel in full load. Wat ook fijn is aan deze kaart is dat hij even lang is als de GTX560Ti of ietsje langer. Dus hij is net niet evenlang als een standaard ATX mobo.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
De mijne komt morgen binnen, goed om te zien dat er zulke resultaten mee behaald kunnen wordenLias schreef op zondag 16 oktober 2011 @ 21:18:
Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!
Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
Hoe kom je eigenlijk eraan dat ie 40% sneller is dan een normale 580? Je Core is 158MHz sneller en je geheugen 400MHz sneller dan een stock 580. Als ik bijv. kijk naar de verschillende 3DMark 11 GPU scores die ik krijg met stock of op 925/4200 dan is dat ongeveer 11.700 vs 13.100, totale score gaat dan om 10.000 vs 11.400. (Dat is dan ook meteen mijn max. overclock)Lias schreef op zondag 16 oktober 2011 @ 21:18:
Ik heb nu een GTx580 lightning en 40% sneller dan een gtx 580 nu en het is sneller dan mijn GTX 560 ti in sli met gaming!!
Meer mensen met een lightning?? en welke voerclock resultaten? ik 930/4800
Deze MSI N580GTX Twin Frozr II/OC op 823MHz lijkt me wel wat. Jammer dat hij nog iets te duur is. 430 / 440 euro is mij iets te veel van het goeie, als hij onder de 400 komt dan neem ik 'm..
Nog even een vraagje over het verwijderen van de brackets, Hoe zet je je kaarten nou vast aan je case? of laat je ze gewoon loshangen?Max Hunt schreef op zondag 16 oktober 2011 @ 14:26:
Het kan zijn dat met het originele profiel de fan pas echt hard gaat draaien bij nog hogere temperaturen. Ik heb zelf met MSI Afterburner een nieuw profiel gemaakt waarmee de fans tijdens idle niet te horen zijn, maar tijdens gamen snel hard gaan blazen. Tijdens het gamen heb je meestal genoeg geluid om je heen en hoor je de fans toch niet, maar zo blijven je kaarten wel kouder.
Zelf heb ik ook de bracket van de achterkant van mijn 580's eraf gehaald, dat scheelde ook nogal wat qua temperatuur. Tijdens gamen komt de warmste 580 nu niet boven de 75 graden uit, meestal is ie zelfs zo rond de 70.
Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
[afbeelding]
Asus maximus IV extreme-----Intel Core I7 2600k----- Asus GTX580 SLI
Zit me af te vragen hé.. Is een Zalman VF-3000N / Arctic Accelero Xtreme+ beter dan een MSI Twin Frozr II koeler?
Ik kom van een HD6870 met VF-3000A af naar een GTX560 Ti TF-II/OC en vind de TF-II toch wat lawaaierig en warm. met een kleine overvolt naar 1050mv en 950Mhz op de core raakt hij al 70c aan met ~70% fanspeed in-game. En dan is hij dus niet bepaald stil vergeleken met die VF-3000A. Die was op 100% nog stiller dan die TF-II op 60%.
Als ik zo de beide PCB's van de reference GTX560 Ti en die van de MSI erbij pak zijn die vrijwel identiek qua mounting en ruimte om de core heen dus de koelers zullen zeker passen.
Ik kom van een HD6870 met VF-3000A af naar een GTX560 Ti TF-II/OC en vind de TF-II toch wat lawaaierig en warm. met een kleine overvolt naar 1050mv en 950Mhz op de core raakt hij al 70c aan met ~70% fanspeed in-game. En dan is hij dus niet bepaald stil vergeleken met die VF-3000A. Die was op 100% nog stiller dan die TF-II op 60%.
Als ik zo de beide PCB's van de reference GTX560 Ti en die van de MSI erbij pak zijn die vrijwel identiek qua mounting en ruimte om de core heen dus de koelers zullen zeker passen.
~ 9800X3D @ 5.5Ghz eCLK + PBO ~ Arctic LF2 240 CPU ~ Crosshair X670E Gene ~ 32GB Dominator Titanium @ 6400C26 FCLK 2200 ~ Zotac RTX 5080 SOLID OC @ 3285 core 18000 VRAM ~ Corsair 2500X ~ Dark Power Pro 11 1000w ~
Tel gewoon de ruwe theorie cijfers bij elkaar op dus core + geheugen overclock is in totaal 40% sneller dan stock 580. Praktisch is het per spel of benchmark anders..Max Hunt schreef op maandag 17 oktober 2011 @ 15:10:
[...]
Hoe kom je eigenlijk eraan dat ie 40% sneller is dan een normale 580? Je Core is 158MHz sneller en je geheugen 400MHz sneller dan een stock 580. Als ik bijv. kijk naar de verschillende 3DMark 11 GPU scores die ik krijg met stock of op 925/4200 dan is dat ongeveer 11.700 vs 13.100, totale score gaat dan om 10.000 vs 11.400. (Dat is dan ook meteen mijn max. overclock)
percentages zeg je gewoon in theorie 20% theortisch is sowieso een flink pak sneller.
Een praktisch cijfer bestaat niet omdat het steeds verschild per applicatie
core+geheugen snelheid is nog steeds wel de basis zegmaar.
dus 60% sneller dan een GTX 480 theoretisch.. en dat klopt wel ongeveer want ik haal nu met metro 2033 53 fps in benchmark en met een 480 was dat 35/40.
IIG qua gevoel in games vind ik het wel kloppen allemaal.. en de 480 was al snel dus moet je nagaan wat nu kan op 1 chip
[ Voor 28% gewijzigd door A87 op 18-10-2011 01:04 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Als je core 20% sneller loopt en je geheugen ook 20%, loopt ie 20% sneller en niet 40%...
De gtx560ti sli was goedkoper, en kun je ook overklokken.
De gtx560ti sli was goedkoper, en kun je ook overklokken.
klopt ook niet omdat geheugen voor andere zaken zorgt zoals AA.mitsumark schreef op dinsdag 18 oktober 2011 @ 01:07:
Als je core 20% sneller loopt en je geheugen ook 20%, loopt ie 20% sneller en niet 40%...
De gtx560ti sli was goedkoper, en kun je ook overklokken.
het is toch theorie
geheugen speelt een eigen rol dus daarom individueel vergelijken.
geheugen snelheid verschil + core verschil bij elkaar op tellen.. en je hebt een makkelijk cijfer
als de core 20% sneller is en het geheugen 8% zit je al met een probleem dan
Als je een benchmark draait kun je wel zeggen dat het echt x percentage is omdat dat harder cijfers zijn.
Hoe goedkoop de 560 ti ook is ik werd doof van de tering herrie.. klein rot kaartje kan geen warmte kwijt ook niet in ene antec 1200 met fans op max
Zelfs de GTX 480 maakte minder herrie
Alser iet sis wat ik haat is het wel een stoepkrijtje bord achttige herrie in mijn pc
Ik ondervind ook dikke stuttering met SLI ik vind 1 kaart veel fijner draaien zeker als je op hoog niveua speelt in shooters ga je dit extreem merken
[ Voor 57% gewijzigd door A87 op 18-10-2011 01:21 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Klopt, maar het ging mij om de specs van dat testsysteem dat het gewoon draait.-The_Mask- schreef op vrijdag 14 oktober 2011 @ 21:02:
[...]
Ging over SLi hè, niet een enkele kaart.
OK, maar dat systeem draait dus gewoon SB + GTX580 + overklok op een matige 500W voeding. Dat viel me gewoon op. Dus een enkele kaart zou kunnen op een goede 500W voeding.[...]
Meestal rond matig/redelijk, FSP Aurum is wel leuk geprijst als je graag een efficiente voeding wil, maar ze hebben ook nadelen. Niet echt stil, geen hoge kwaliteit en prestaties.
Ik heb een HAF-X kast en daarbij kwam deze "videokaart houder" die ik vast kan schroeven aan de kast en daar steunen de videokaarten dan op. Zonder dit ding zou je met bijv. hout op de bodem van je kast tot je videokaart de kaart omhoog kunnen houden.IlIlIlIlIl schreef op maandag 17 oktober 2011 @ 18:59:
[...]Nog even een vraagje over het verwijderen van de brackets, Hoe zet je je kaarten nou vast aan je case? of laat je ze gewoon loshangen?
Als het gewoon geen optie is om het zonder brackets te doen dan heb je nog wat andere mogelijkheden. EVGA verkoopt brackets met grotere openingen erin, je zou je eigen brackets kunnen "aanpassen" (je knipt er wat grotere gaten in bijv.) of je kan dat doen met de brackets van EVGA.
Anoniem: 425191
he gtx5xx kenners
ik heb me oog laten vallen op deze kaart http://nl.msi.com/product...Ti-Twin-Frozr-II-SOC.html
ik ben van plan om deze in een sli op stelling te zetten
nu ben ik voor deze kaarten 450 euro kwijt
ik speel echter allen maar bf3 op 180x1920
doe ik hier goed aan of kan ik beter een andere kaart kiezen
greeds aj
ik heb me oog laten vallen op deze kaart http://nl.msi.com/product...Ti-Twin-Frozr-II-SOC.html
ik ben van plan om deze in een sli op stelling te zetten
nu ben ik voor deze kaarten 450 euro kwijt
ik speel echter allen maar bf3 op 180x1920
doe ik hier goed aan of kan ik beter een andere kaart kiezen
greeds aj
180x1920 bestaat niet
het is waarschijnlijk 1920x1080 (1920pixels breed en 1080px hoog aka Full-HD)
Ik zou gewoon een enkele GTX570 pakken dan dat kost 300 euro en is voor BF3 snel zat.
pricewatch: MSI GTX570 Twin Frozr III Power Edition/OC
Deze overgeklokte versie met andere koeler heb ik zelf in gebruik, prima ding en loopt als een trein.
BF3 gaat ook erg soepel op 1920x1200.
Wat voor systeem heb je verder? aangezien de moderne games vaak ook redelijk zwaar op de CPU leunen.
Ik zou gewoon een enkele GTX570 pakken dan dat kost 300 euro en is voor BF3 snel zat.
pricewatch: MSI GTX570 Twin Frozr III Power Edition/OC
Deze overgeklokte versie met andere koeler heb ik zelf in gebruik, prima ding en loopt als een trein.
BF3 gaat ook erg soepel op 1920x1200.
Wat voor systeem heb je verder? aangezien de moderne games vaak ook redelijk zwaar op de CPU leunen.
if (!coffee) {
Work = false; }
Volgens mij moet BF3 op een enkele GTX560 (zonder TI dus) ook prima lopen. Kost de helft minder als die 570 die hierboven genoemd wordt.. Hier thuis liep de Beta in ieder geval retestrak op mijn nieuwe 560. Operation Metro buiten 40-70 fps, in de tunnels 70-90 fps. Ik speel wel (nog) op 1440x900 alles op ultimate dus dat zal wellicht nog wel wat uitmaken itt 1920x1080... Verder gewoon niet overgeklockt AMD phenom x4 systeempje. half jaar/jaar oud.
Ik heb begrepen dat de graphic settings in BF3 dus in de beta nog niet fully optimized waren, dus je kan er echt pas wat van zeggen als de official release uit is denk ik. maar ik vind het een fors verschil 150 of 300 eu...
Ik heb begrepen dat de graphic settings in BF3 dus in de beta nog niet fully optimized waren, dus je kan er echt pas wat van zeggen als de official release uit is denk ik. maar ik vind het een fors verschil 150 of 300 eu...
Anoniem: 425191
@naaitsab
idd bedoel ik 1080x1920
systeem:
Motherboard: ex58-ud5
Processor: Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz (8 CPUs), ~2.8GHz
Memory: 6144MB RAM
voeding 850w
oja wat ik zelf een groot voor deel vind van N560GTX-Ti Twin Frozr II/SOC
is dat de PEG connectors aan de achterkant zitten.
ik heb namelijk een Window en je ziet altijd die pci stekers en met sli vind ik dat gewoon te veel
oja en als het ff kan wil ik het wel op ultra draaien
idd bedoel ik 1080x1920
systeem:
Motherboard: ex58-ud5
Processor: Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz (8 CPUs), ~2.8GHz
Memory: 6144MB RAM
voeding 850w
oja wat ik zelf een groot voor deel vind van N560GTX-Ti Twin Frozr II/SOC
is dat de PEG connectors aan de achterkant zitten.
ik heb namelijk een Window en je ziet altijd die pci stekers en met sli vind ik dat gewoon te veel
oja en als het ff kan wil ik het wel op ultra draaien
Anoniem: 91397
Verlies je garantie als je dit uitvoert? Kan je de brackets makkelijk verwijderen en weer terug plaatsen zonder merkbare schade?Max Hunt schreef op zondag 16 oktober 2011 @ 14:26:
Even een foto van mijn pc, de achterkant met de 2 580's zonder brackets:
[afbeelding]
Ik heb namelijk het idee dat mijn hawk nooit oud gaat worden als ik de fans zo hoor, en heb geen zin om garantie geneuzel te krijgen als ze binnen een jaar het loodje leggen.
Ik vind het sterk als je met een 560 hogere fps krijgt dan ik met een 570 met tot nu toe de snelste S1155 CPU en 16 Gig ram erachter. Dus met de 1080P die genoemd is zul je dat met ultra-high settings echt niet gaan halen.GeeEs schreef op dinsdag 25 oktober 2011 @ 09:34:
Volgens mij moet BF3 op een enkele GTX560 (zonder TI dus) ook prima lopen. Kost de helft minder als die 570 die hierboven genoemd wordt.. Hier thuis liep de Beta in ieder geval retestrak op mijn nieuwe 560. Operation Metro buiten 40-70 fps, in de tunnels 70-90 fps. Ik speel wel (nog) op 1440x900 alles op ultimate dus dat zal wellicht nog wel wat uitmaken itt 1920x1080... Verder gewoon niet overgeklockt AMD phenom x4 systeempje. half jaar/jaar oud.
Ik heb begrepen dat de graphic settings in BF3 dus in de beta nog niet fully optimized waren, dus je kan er echt pas wat van zeggen als de official release uit is denk ik. maar ik vind het een fors verschil 150 of 300 eu...
Als ajwolterink voor een 560 in SLI 450 euro betaald is dat 225 en geen 150 per GPU, voor 150 kom je niet verder dan een 460.
Systeem zelf ziet er goed uit, de 560 is weliswaar goedkoper maar de 570 heeft meer pit en zal dus langer mee gaan met de hi-end games.Anoniem: 425191 schreef op dinsdag 25 oktober 2011 @ 10:19:
@naaitsab
idd bedoel ik 1080x1920
systeem:
Motherboard: ex58-ud5
Processor: Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz (8 CPUs), ~2.8GHz
Memory: 6144MB RAM
voeding 850w
oja wat ik zelf een groot voor deel vind van N560GTX-Ti Twin Frozr II/SOC
is dat de PEG connectors aan de achterkant zitten.
ik heb namelijk een Window en je ziet altijd die pci stekers en met sli vind ik dat gewoon te veel
oja en als het ff kan wil ik het wel op ultra draaien
Het zijn beide goeie kaarten maar de 560 vind ik persoonlijk net te mager.
Voor de powerpins kun je zelf 90graden adaptortjes maken, als je beetje rondkijkt zijn er een aantal modders die dat doen.
Als je scherm 1080x1920 is dan staat deze rechtop
if (!coffee) {
Work = false; }
Ik ben inderdaad benieuwd wat de GTX560 op een 1920x1080 resolutie gaat doen, dit zal ik ergens volgende wek kunnen gaan testen als ik mn nieuwe scherm binnenheb en BF3 uit is. Toch lieg ik echt niet over mn prestaties. En als je meer dan €159,- voor een GTX560 betaalt ben je gewoon bedonderd! Kijk maar in de pricewatch ook, staatie voor €149,- als goedkoopste model. Ik heb deze bij de Paradigit gehaald, ligt daar voor 159, en heb een 10tje erafgeluld nog. De TI versie is echter wel een stuk duurder! vergis je daar niet in! Deze prijzen liggen inderdaad boven de €200,- maar dat vond ik het prijs/prestatiegewijs geen slimme keuze.
Dit is mijn systeempje nu... gallery: GeeEs
Dit is mijn systeempje nu... gallery: GeeEs
[ Voor 7% gewijzigd door GeeEs op 25-10-2011 11:28 ]
Je weet dat een standaard 560 veel langzamer en goedkoper is dan de 560 TI TF2 950mhz waar ajwolterink naar linkte?
De 560 TI op 1ghz komt een beetje richting de stock 570, al is deze erg warm/luidruchtig en daarom zou ik deze ook niet aanraden.
De 560 TI op 1ghz komt een beetje richting de stock 570, al is deze erg warm/luidruchtig en daarom zou ik deze ook niet aanraden.
if (!coffee) {
Work = false; }
Anoniem: 425191
MSI N560GTX-Ti Twin Frozr II/OC deze zijn toch 20% koeler dan de stock kaarten
nu begin ik weer te twijfelen
of de hier boven genoemde MSI N560GTX-Ti Twin Frozr II/OC
of een singel MSI N570GTX Twin Frozr III Power Edition/OC
1 ding weet ik wel dit is de laatste upgrading aan me systeem
dus in de toekomst geen 2e 570
dus kies ik voor MSI N560GTX-Ti Twin Frozr II/OC sli ben ik wel duurder uit maar wel sneller
en moet ik makkelijk op 1920X1080;) ultra kunnen gamen
ik heb bij me dealer gevraagd naar de SOC versie maar die konden ze voorlopig nog niet leveren
jammer genoeg. deze vond ik toch wel een zeer goed kaart of weet iemand van jullie een adresje \
nu begin ik weer te twijfelen
of de hier boven genoemde MSI N560GTX-Ti Twin Frozr II/OC
of een singel MSI N570GTX Twin Frozr III Power Edition/OC
1 ding weet ik wel dit is de laatste upgrading aan me systeem
dus in de toekomst geen 2e 570
dus kies ik voor MSI N560GTX-Ti Twin Frozr II/OC sli ben ik wel duurder uit maar wel sneller
en moet ik makkelijk op 1920X1080;) ultra kunnen gamen
ik heb bij me dealer gevraagd naar de SOC versie maar die konden ze voorlopig nog niet leveren
jammer genoeg. deze vond ik toch wel een zeer goed kaart of weet iemand van jullie een adresje \
een standaard 560 is inderdaad fors goedkoper, 25% ongeveer, maar niet evenzo veel langzamer hoor. Wat ik me van mijn aankoop/info zoektocht kan herinneren is 1 vd 8 (als ik me niet vergis) streaming cores disabled. En ik vraag me eerlijk waar af of daar 25% snelheidswinst valt te scoren... Misschien wel natuurlijk ?!? Uit verschillende benchmarks zijn de verschillen in werkelijke snelheid maar enkele procenten tot een uitschieter naar 20% (GFLOPS) ... Voor mij rechtvaardigt dit het prijsverschil echter (nog) niet.
GTX560 Ti = 384 shader cores
GTX560 = 336 shader cores
Snelheden heb je van beide modellen verschillende variaties in. Wel of niet OCed.. etc... Je hebt bijvoorbeeld standaard 560's op 900+ MHZ en Ti's op 880 MHz, dus snelheden zegt niet zoveel. (Lees: daar kan je vaak wel wat mee spelen nog) Het grootste verschil zit'm in die shader cores. Tenminste dat is wat ik eruithaal.
GTX560 Ti = 384 shader cores
GTX560 = 336 shader cores
Snelheden heb je van beide modellen verschillende variaties in. Wel of niet OCed.. etc... Je hebt bijvoorbeeld standaard 560's op 900+ MHZ en Ti's op 880 MHz, dus snelheden zegt niet zoveel. (Lees: daar kan je vaak wel wat mee spelen nog) Het grootste verschil zit'm in die shader cores. Tenminste dat is wat ik eruithaal.
[ Voor 12% gewijzigd door GeeEs op 25-10-2011 11:48 ]
Je kan beter 2 HD6850's (250 euro) of HD6870's (300 euro) in CFX zetten.
Sneller dan een GTX580, en goedkoper dan een GTX570.
Sneller dan een GTX580, en goedkoper dan een GTX570.
[ Voor 9% gewijzigd door Format-C op 25-10-2011 11:54 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik heb ook crashes met deze videokaart sinds ik hem in SLI opstelling heb, met name bij Crysis 2 dx11, die crashed al na een paar minuten. Temperaturen werden niet te hoog (zo'n 72 graden max na uren Heaven te draaien).Anoniem: 263284 schreef op donderdag 06 oktober 2011 @ 21:56:
Nieuwe bios voor de GV-N560OC-1GI versie F13:
http://www.gigabyte.co.nl...e.aspx?pid=3707&dl=1#bios
Toen ik nog 1 videokaart in mijn systeem had, had ik mijn core i7 2600k overklokt naar 4,4Ghz en dat liep stabiel, maar nu ik de 2e erbij heb geplaatst, moest ik de CPU overklok terugzetten naar 4,0Ghz. Toen had ik aanzienlijk minder crashes. Maar Crysis 2 crashte alsnog (na een langere tijd). Toen heb ik de kaarten ook terug geklokt naar 822Mhz en nu lijkt alles wel goed te werken.
Beetje belachelijk natuurlijk, want temperaturen zijn goed (zowel GPU's als CPU), en de kaarten horen op stock op 900Mhz stabiel te zijn. Ik hoop dan ook dat die nieuwe bios de oplossing is.
Maar daar komt een ander vraagje bij. De flashtool die bij die bios-download komt, flashed maar 1 kaart. Die andere kan ik wel flashen met de Gigabyte Easy Boost tool, maar welke bios moet ik dan kiezen, want er zijn er 4 in die ene download: F6、F13、F22 of F31?
Ik neem aan F22 want die geeft hij nu aan als geinstalleerd op de met de tool geflashte kaart. Maar is F31 niet nieuwer..?
Daar wil ik nog wel eens benchmarks van zien, ik zou persoonlijk echter nooit een ATI kopen omdat ze nog steeds half bakke drivers uitbrengenFormat-C schreef op dinsdag 25 oktober 2011 @ 11:53:
Je kan beter 2 HD6850's (250 euro) of HD6870's (300 euro) in CFX zetten.
Sneller dan een GTX580, en goedkoper dan een GTX570.

Is je voeding wel sterk genoeg? Als je de CPU en GPU terug moet klokken dan lijkt me dat meer een moederbord probleempje/limitatie of een voeding die niet genoeg vermogen heeft voor full load.Aemstel schreef op dinsdag 25 oktober 2011 @ 11:54:
[...]
Ik heb ook crashes met deze videokaart sinds ik hem in SLI opstelling heb, met name bij Crysis 2 dx11, die crashed al na een paar minuten. Temperaturen werden niet te hoog (zo'n 72 graden max na uren Heaven te draaien).
Toen ik nog 1 videokaart in mijn systeem had, had ik mijn core i7 2600k overklokt naar 4,4Ghz en dat liep stabiel, maar nu ik de 2e erbij heb geplaatst, moest ik de CPU overklok terugzetten naar 4,0Ghz. Toen had ik aanzienlijk minder crashes. Maar Crysis 2 crashte alsnog (na een langere tijd). Toen heb ik de kaarten ook terug geklokt naar 822Mhz en nu lijkt alles wel goed te werken.
Mijn 2600K loopt met stock Vcore stabiel op 4.3, op 4.4 heb ik af en toe vastlopers.
[ Voor 56% gewijzigd door naaitsab op 25-10-2011 12:13 ]
if (!coffee) {
Work = false; }
Ik lees net in een benchmark dat bv een 570 maar 15% beter presteert in games dan een 560.. (kost dus ruim het dubbele !!) Dat rechtvaardigt toch niet die prijs dan ?! Of ben ik nou gek... Ik vervang liever over 1 jaar mn GPU voor een dan goedkoper model, dan dat ik denk.. oew.. ik hoop dat ik 2-3 jaar volhou op deze peperdure GPU... En laten we wel zijn.. die paar FPS aan de bovenmarge.. die merk je toch niet? Of denk ik te simpel ?!
Ik heb voor mezelf altijd de stelregel,.. alles boven de 60 fps is soiso bullshit.. (ok.. behalve als je misschien 3D wil gamen ?!?) Maar als het tussen de 40 en 60 zweeft ist gewoon prima. Dan ga ik nu geen extra snelle graka aanschaffen of het dubbele uitgeven voor 20 fps meer als deze het al meer dan prima trekt. SLI is soiso voor mij geen optie. Belachelijk veel geld, stroomverbruik en herrie en warmte voor iets dat ook prima op 1 kaart kan. (OK, als het echt heel goedkoop is om bv 100% winst te gaan boeken met een 2e graka.. tuurlijk doe je het dan, maar dat is in de praktijk nooit zo)
Ik heb voor mezelf altijd de stelregel,.. alles boven de 60 fps is soiso bullshit.. (ok.. behalve als je misschien 3D wil gamen ?!?) Maar als het tussen de 40 en 60 zweeft ist gewoon prima. Dan ga ik nu geen extra snelle graka aanschaffen of het dubbele uitgeven voor 20 fps meer als deze het al meer dan prima trekt. SLI is soiso voor mij geen optie. Belachelijk veel geld, stroomverbruik en herrie en warmte voor iets dat ook prima op 1 kaart kan. (OK, als het echt heel goedkoop is om bv 100% winst te gaan boeken met een 2e graka.. tuurlijk doe je het dan, maar dat is in de praktijk nooit zo)
Ruim het dubbele nog wel, een 560 TI is maximaal 90 euro goedkoper dan een 570.
De 570 heeft 280mb extra Vram iets wat op hogere resoluties veel baat heeft met laadtijden en FPS.
Game je op 1280x1024 dan is het verschil niet bijster groot nee maar speel je bijv Crysis2 of BF3 op 1200P of 1440P dan trekt de 560 dat lange na niet zo goed als een 570.
Of een kaart die 90 euro extra waard is moet je zelf weten maar ik heb liever een kaart die zeker 3 jaar mee gaat dan een ver overgeclokte 560 TI die in verhouding een partij herrie maakt en waarvan de levensduur beduidend lager is dan een ietsjes overgeclocte 570.
De 570 heeft 280mb extra Vram iets wat op hogere resoluties veel baat heeft met laadtijden en FPS.
Game je op 1280x1024 dan is het verschil niet bijster groot nee maar speel je bijv Crysis2 of BF3 op 1200P of 1440P dan trekt de 560 dat lange na niet zo goed als een 570.
Of een kaart die 90 euro extra waard is moet je zelf weten maar ik heb liever een kaart die zeker 3 jaar mee gaat dan een ver overgeclokte 560 TI die in verhouding een partij herrie maakt en waarvan de levensduur beduidend lager is dan een ietsjes overgeclocte 570.
if (!coffee) {
Work = false; }
Ik heb een overklokte ASUS GTX560Ti TOP, en deze maakt geen lawaai...
En als je boven de 1080P gamed kan je zowieso beter een snellere kaart kopen dan de GTX560ti of GTX570. Dan zou ik al SLi, CFX of een GTX580/ 590 of 6990 pakken.
De GTX570 is maar een fractie sneller dan een overklokte GTX560Ti. Uiteraard kan je een GTX570 ook weer overklokken, maar mijn ervaring is dat een GTX560Ti op 1920x1200 vandaag de dag ruim voldoende is.
Begin volgend jaar komt AMD (of eerder?) weer met wat nieuws, dus ik zou nu echt niet meer zwaar inversteren in VGA's. Mja, je zou het kunnen doen voor BF3, echter kan je ook de settings een stukje verlagen... gameplay boven graphics zeg ik dan.
En dat AMD drivers zo slecht zijn is ook BS.
O ja; en 3 jaar met een kaart doen? Welke gamer doet dat nou? Ik koop (tegenwoordig) zelf 1x per jaar een nieuwe, en kan alles maxed spelen. Edit; en door alle consoleports heb ik niet eens een snellere kaart nodig dan een GTX560Ti. Ik verbaasde me er zelf over, maar met wat tweakwerk kan je bijna elke game maxed op 1920x1200 spelen. Met 60FPS! niet altijd met 8x AA, soms met 2xAA, maar who cares?
Edit2; ik ben iig niet langer zo gek om voor 1 luizige game honderden euro's extra te investeren. Dan maar wat minder AA. Dan maar wat minder schaduwen. Dan maar wat minder SSAO. Lekker boeiend. Ik heb op een XBOX360 met shitty graphics net zoveel fun als op mijn PC.
De dikste VGA kaart isover het algemeen maar een jaartje de dikste VGA kaart. Na dat jaar is hij geen stuiver meer waard en is een mid end kaartje van 200 euro sneller dan die kaart... Die kaart van 600 euro...
En als je boven de 1080P gamed kan je zowieso beter een snellere kaart kopen dan de GTX560ti of GTX570. Dan zou ik al SLi, CFX of een GTX580/ 590 of 6990 pakken.
De GTX570 is maar een fractie sneller dan een overklokte GTX560Ti. Uiteraard kan je een GTX570 ook weer overklokken, maar mijn ervaring is dat een GTX560Ti op 1920x1200 vandaag de dag ruim voldoende is.
Begin volgend jaar komt AMD (of eerder?) weer met wat nieuws, dus ik zou nu echt niet meer zwaar inversteren in VGA's. Mja, je zou het kunnen doen voor BF3, echter kan je ook de settings een stukje verlagen... gameplay boven graphics zeg ik dan.
En dat AMD drivers zo slecht zijn is ook BS.
O ja; en 3 jaar met een kaart doen? Welke gamer doet dat nou? Ik koop (tegenwoordig) zelf 1x per jaar een nieuwe, en kan alles maxed spelen. Edit; en door alle consoleports heb ik niet eens een snellere kaart nodig dan een GTX560Ti. Ik verbaasde me er zelf over, maar met wat tweakwerk kan je bijna elke game maxed op 1920x1200 spelen. Met 60FPS! niet altijd met 8x AA, soms met 2xAA, maar who cares?
Edit2; ik ben iig niet langer zo gek om voor 1 luizige game honderden euro's extra te investeren. Dan maar wat minder AA. Dan maar wat minder schaduwen. Dan maar wat minder SSAO. Lekker boeiend. Ik heb op een XBOX360 met shitty graphics net zoveel fun als op mijn PC.
De dikste VGA kaart isover het algemeen maar een jaartje de dikste VGA kaart. Na dat jaar is hij geen stuiver meer waard en is een mid end kaartje van 200 euro sneller dan die kaart... Die kaart van 600 euro...

[ Voor 48% gewijzigd door Format-C op 25-10-2011 13:08 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
@Naaitsab.. ik vergelijk een gewone 560 (zonder ti) met de prijs van een 570.. dat is wel degelijk €150 vs €300 (give or take 10-20 eu bij bepaalde modellen)
en dan nog.. zouden 2x een 560 in SLI niet sneller/beter presteren dan een enkele 570?? Ik heb hier geen ervaring mee, dus misschien bral ik maar wat.. Maar het prijsverschil zit me gewoon dwars (en ja, dit is iets persoonlijks en niet echt objectief dus). Als ik nou met een 570 (op dit moment, in deze tijd anno 2011) nou 2x zoveel performance zou halen, of in ieder geval meer dan 75%.. ja, dan wordt het wel interessant... Maar dat schijnt dus lang niet zo te zijn (het is maar 15% winst met een 570 blijkbaar). Een benchmark en of je een paar FPS meer of minder hebt in een game zijn nogal verschillend namelijk...
Maar stel dat ik met een 560 (zonder TI dus) nou 40 fps haal (ondergrens), en met een 570 dus omgerekend 46 fps.. is dat dus voor mij het prijsverschil echt niet waard. Dan koop ik liever over een jaar wel een 570 voor weer €150,- of nog minder... of een 2e 560 voor nog heel veel minder erbij...
Wat hierboven ook gezegd wordt.. ik denk dat de meesten hier wel minimaal 1x per jaar of hooguit 1x per 2 jaar alles vervangen, dus waarom inkopen op de hoop dat het over 3 jaar nog werkt/presteert, dan ligt dat spul allang weer in de prullenbak ;-) en zit je achter je nieuwste syteem van dat moment.
en dan nog.. zouden 2x een 560 in SLI niet sneller/beter presteren dan een enkele 570?? Ik heb hier geen ervaring mee, dus misschien bral ik maar wat.. Maar het prijsverschil zit me gewoon dwars (en ja, dit is iets persoonlijks en niet echt objectief dus). Als ik nou met een 570 (op dit moment, in deze tijd anno 2011) nou 2x zoveel performance zou halen, of in ieder geval meer dan 75%.. ja, dan wordt het wel interessant... Maar dat schijnt dus lang niet zo te zijn (het is maar 15% winst met een 570 blijkbaar). Een benchmark en of je een paar FPS meer of minder hebt in een game zijn nogal verschillend namelijk...
Maar stel dat ik met een 560 (zonder TI dus) nou 40 fps haal (ondergrens), en met een 570 dus omgerekend 46 fps.. is dat dus voor mij het prijsverschil echt niet waard. Dan koop ik liever over een jaar wel een 570 voor weer €150,- of nog minder... of een 2e 560 voor nog heel veel minder erbij...
Wat hierboven ook gezegd wordt.. ik denk dat de meesten hier wel minimaal 1x per jaar of hooguit 1x per 2 jaar alles vervangen, dus waarom inkopen op de hoop dat het over 3 jaar nog werkt/presteert, dan ligt dat spul allang weer in de prullenbak ;-) en zit je achter je nieuwste syteem van dat moment.
[ Voor 12% gewijzigd door GeeEs op 25-10-2011 13:11 ]
Tegenwoordig doe ik juist langer met mijn videokaarten.. Waar het vroeger hooguit 1-2 jaar was is het nu al bijna 3 jaar.. Dat komt omdat er nog maar weinig games uitkomen die je echt tot upgraden dwingen, bijna alles is gericht op de consoles qua development en aangezien die ook gewoon 6+ jaar stilstaan qua hardware..
Deze week toevallig mijn Gainward GTX275 vervangen voor een EVGA GTX 570 HD OC, puur alleen voor BF3.. Ik wil die game minimaal kunnen spelen op 1920x1080 met alles op high, met een overklokte 570 (draai hem op 850Mhz en zit rond 580 performance) moet dat geen probleem zijn.. Eindelijk weer een game die het waard is om te upgraden.. De 275 was meer dan 2,5 jaar oud (april 2009 gekocht), maar om nou te zeggen dat het echt noodzakelijk was om te upgraden, nee.. Met de 275 had ik BF3 ook nog wel kunnen spelen, alleen niet in DX11 en waarschijnlijk niet met alles op high/ultra.. Dus je kan tegenwoordig wel makkelijk 3 jaar met een videokaart doen (helaas zou ik zeggen), tenzij je echt helemaal nooit consessies wilt doen qua max settings..
Deze week toevallig mijn Gainward GTX275 vervangen voor een EVGA GTX 570 HD OC, puur alleen voor BF3.. Ik wil die game minimaal kunnen spelen op 1920x1080 met alles op high, met een overklokte 570 (draai hem op 850Mhz en zit rond 580 performance) moet dat geen probleem zijn.. Eindelijk weer een game die het waard is om te upgraden.. De 275 was meer dan 2,5 jaar oud (april 2009 gekocht), maar om nou te zeggen dat het echt noodzakelijk was om te upgraden, nee.. Met de 275 had ik BF3 ook nog wel kunnen spelen, alleen niet in DX11 en waarschijnlijk niet met alles op high/ultra.. Dus je kan tegenwoordig wel makkelijk 3 jaar met een videokaart doen (helaas zou ik zeggen), tenzij je echt helemaal nooit consessies wilt doen qua max settings..
[ Voor 12% gewijzigd door Inflatable op 25-10-2011 13:20 ]
Dit baseer je op? 60 FPS halen beide vaak toch wel, hoger als 60 is toch de reinste onzin.Format-C schreef op dinsdag 25 oktober 2011 @ 12:51:
Ik heb een zwaar overklokte ASUS GTX560Ti TOP, en deze maakt geen lawaai...
En als je boven de 1080P gamed kan je zowieso beter een snellere kaart kopen dan de GTX560ti of GTX570.
Zonder 3D en/of multi-screen gaming setup is een 570 prima geschikt daarvoor.
Een kaart met flinke oc(anders haal je de 570 stock snelheid niet) loopt wel even een stuk onstabieler enDe GTX570 is maar een fractie sneller dan een overklokte GTX560Ti. Uiteraard kan je een GTX570 ook weer overklokken, maar mijn ervaring is dat een GTX560Ti op 1920x1200 vandaag de dag ruim voldoende is.
warmer->meer herrie als een stock 570, dat lijkt me duidelijk.
Wat denk je van kepler van Nvidia? Elke fabrikant komt "binnekort" wel met wat nieuws dat is gemeengoed in pc land.Begin volgend jaar komt AMD (of eerder?) weer met wat nieuws, dus ik zou nu echt niet meer zwaar inversteren in VGA's. Mja, je zou het kunnen doen voor BF3, echter kan je ook de settings een stukje verlagen... gameplay boven graphics zeg ik dan.
Daarom halen wij op het werk altijd die ccc troep van de pc af omdat het vastlopers veroorzaakt en voor gamers ook ultieme support heeft mbt nieuwste games..not. Ik heb die ATI rommel in mn laptop zitten helaas, die gui is ook zon feest, de logica daarachter is me nog steeds niet duidelijk.En dat AMD drivers zo slecht zijn is ook BS.
Maargoed dat is mijn mening en aangezien dit geen ATI topic is zal ik hier verder ook niet meer op ingaan.
Dat jij elk jaar ~200-300€ kan en wil uitgeven is prima maar we kunnen en willen niet allemaal zoveel geld uitgeven aan een pc.O ja; en 3 jaar met een kaart doen? Welke gamer doet dat nou? Ik koop zelf 1x per jaar een nieuwe, en kan alles maxed spelen.
Ik heb met mn 9800GTX+ TOP ook 3 jaar gedaan gaat prima, als je nu gaat bezuinigen op een mindere kaart dan ben je eerder aan de beurt ja.
In benchmarks wordt vaak de TI gebruikt maar laten ze dit soms achterwege(guru3d bijv) de 560 (non TI) is echt een stuk langzamer dan een 570 maar daar is inderdaad de prijs ook naar.GeeEs schreef op dinsdag 25 oktober 2011 @ 13:05:
@Naaitsab.. ik vergelijk een gewone 560 (zonder ti) met de prijs van een 570.. dat is wel degelijk €150 vs €300 (give or take 10-20 eu bij bepaalde modellen)
en dan nog.. zou een 560in SLI niet sneller/beter presteren dan een enkele 570?? Ik heb hier geen ervaring mee, dus misschien bral ik maar wat.. Maar het prijsverschil zit me gewoon dwars (en ja, dit is iets persoonlijks en niet echt objectief dus). Als ik nou met een 570 (op dit moment, in deze tijd anno 2011) nou 2x zoveel performance zou halen, of in ieder geval meer dan 75%.. ja, dan wordt het wel interessant... Maar dat schijnt dus lang niet zo te zijn (het is maar 15% winst met een 570 blijkbaar). Een benchmark en of je een paar FPS meer of minder hebt in een game zijn nogal verschillend namelijk...
Maar stel dat ik met een 560 (zonder TI dus) nou 40 fos haal (ondergrens), en met een 570 dus omgerekend 46 fps.. is dat dus voor mij het prijsverschil echt niet waard. Dan koop ik liever over een jaar wel een 570 voor weer €150,- of nog minder... of een 2e 560 voor nog heel veel minder erbij...
Een 560 non TI zal in SLI vast beter presteren als een enkele 570 maar bij SLI komen altijd een hoop nadelen zoals extra stroom verbruik-herrie-warmte.
SLI en CFX is nog steeds niet optimaal dus je moet niet denken dat 2 kaarten 200% snelheid geven tov 1 kaart, zeker bij SLI is het de laaste jaren flink verbeterd maar je moet rekening houden met ongeveer 180-185% dit verschilt per kaart en spel.
Ik heb nu een enkele 570 in fabrieks OC(dus garantie) en als de nieuwe lijn van Nvidia komt prik ik er wellicht een 2e voor een lagere prijs.
De reden dat ik deze heb gekocht tov een 560 TI hawk oid is dat deze kaarten op zon hoge OC lopen dat er veel klachten zijn zowel stabiliteit als warmte en herrie dat ik liever 70 euro extra betaal voor een kaart die lekker loopt en deze problemen totaal niet heeft.
if (!coffee) {
Work = false; }
Wat zijn je FPS scores in BF3 als ik vragen mag met de GTX570 ?? (en wat voor systeem heb je daar verder aanhangen?)
De brackets zaten met 1 schroefje vast. Je kan ook andere brackets kopen voor videokaarten. De enige schade die je zou kunnen oplopen is als je de kaarten puur aan je PCIe sloten laat hangen zonder extra ondersteuning.Anoniem: 91397 schreef op dinsdag 25 oktober 2011 @ 10:48:
[...]Verlies je garantie als je dit uitvoert? Kan je de brackets makkelijk verwijderen en weer terug plaatsen zonder merkbare schade?
Ik heb namelijk het idee dat mijn hawk nooit oud gaat worden als ik de fans zo hoor, en heb geen zin om garantie geneuzel te krijgen als ze binnen een jaar het loodje leggen.
Tips voor problemen met de Gigabyte GTX560ti OC (specifiek voor SLI opstelling).
Sinds ik deze kaart in SLI heb, heb ik last van crashes. En ik ben zeker niet de enige die hier last van heeft: http://forums.nvidia.com/...cb6&showtopic=193106&st=0. Redelijk schokkend om te zien hoeveel van die fabrieks-overklokte kaarten dus problemen geven (de Gigabyte 560ti OC lijkt het meest problematisch te zijn). Na extensief testen en tweaken aan de hand van tips in die thread en andere sites, heb ik de problemen (voor zover ik nu kan beoordelen) weten op te lossen. Ik dacht ik type de stappen hieronder even uit voor andere mensen die ook problemen hebben met deze kaart. Wellicht helpt het iemand anders ook.
1. Check of je geen hitte probleem hebt. In het begin had ik die wel. Bij het draaien van Heaven bleef de temperatuur maar stijgen om uiteindelijk te crashen bij 85 graden (GPU). CPU bleef wel koel genoeg. Ik heb toen een extra (outtake) casefan bovenin geplaatst (dus boven de cpu koeler). Nu heb ik 1 casefan voor-onderin (intake) en 2 (outtake) casefans achter, boven aan de achterkant en bovenin, omhoog blazend. Mijn GPU's worden nu nooit meer warmer dan 72 a 73 graden. (een extra casefan aan de zijkant (intake) had overigens totaal geen effect)
2. Ik had mijn i7 2600k overklokt naar 4.4Ghz. Dit liep 100% stabiel toen ik nog 1 GTX560ti had. Na installatie van de 2e bleek deze overklok wel problemen te geven, ook al werden de GPU's en de CPU niet te heet. Het terugzetten van de CPU naar 4.0Ghz verminderde het aantal crashes aanzienlijk. Wellicht is de combinatie van de kaarten in SLI en de overklokte CPU een andere stress op het systeem. Probeer dus je CPU wat terug te klokken als je deze overklokt hebt. Het leek mij trouwens geen PSU probleem, want de Antec 750 watt die ik heb zou toch ruim voldoende moeten zijn.
3. Het lijkt erop dat de videokaarten een te laag voltage leveren om op de fabrieksoverklok van 900 Mhz stabiel te draaien. Na het terugklokken op 822Mhz liep mijn systeem wel stabiel. Je koopt echter niet voor niets een OC versie, dus terugklokken is geen optie! Het blijkt dat Gigabyte een nieuwe bios heeft uitgebracht die het voltage verhoogd naar 1.037v. Hier te downloaden: http://www.gigabyte.co.nl...e.aspx?pid=3707&dl=1#bios. Gebruik de flashtool en 1 videokaart wordt geflashed. De andere kan je flashen met bijvoorbeeld Gigabyte Easy Boost (http://www.gigabyte.co.nl...spx?pid=3707&dl=1#utility). Je moet dan even zelf de correcte bios file kiezen uit de uitgepakte bios download. Er zijn er echter 4. Nu kan je met Gigabyte Easy Boost zien welke de tool heeft geflashed. Flash deze zelfde bios ook op de andere kaart (bij mij was dit F22).
NB. Als je niet wilt flashen, dan kan je ook met een tool als MSI Afterburner zelf het voltage verhogen naar 1.037. De nieuwe bios heeft zo te zien echter ook wat meer verbeteringen, dus flashen is wel aan te raden (op eigen risico
)
4. Ik gebruik de nieuwste NVidia drivers (285.62 op dit moment). Ik las dat meerdere mensen problemen ondervinden met de "Power Management Mode" instelling op Adaptive. In NVidia Control Panel heb ik deze instelling dan ook op "Prefer maximum performance" gezet.
5. Als na testen je geen crashes meer ondervindt, en je hebt je CPU teruggeklokt, dan zou je kunnen proberen deze weer terug te zetten op de oude overklok (en opnieuw testen). In mijn geval vind ik 4.0Ghz echter wel zat, dus ik laat het daar maar bij
De boel draait nu op 900Mhz (beide GPU's) en 4.0Ghz (CPU). Alles blijft mooi koel en ik heb geen crashes meer waargenomen. Dit is geen garantie dat het voor iedereen werkt. Het is een combinatie van veel factoren, maar ik denk dat deze tips wel zeker het proberen waard zijn. Succes!
Sinds ik deze kaart in SLI heb, heb ik last van crashes. En ik ben zeker niet de enige die hier last van heeft: http://forums.nvidia.com/...cb6&showtopic=193106&st=0. Redelijk schokkend om te zien hoeveel van die fabrieks-overklokte kaarten dus problemen geven (de Gigabyte 560ti OC lijkt het meest problematisch te zijn). Na extensief testen en tweaken aan de hand van tips in die thread en andere sites, heb ik de problemen (voor zover ik nu kan beoordelen) weten op te lossen. Ik dacht ik type de stappen hieronder even uit voor andere mensen die ook problemen hebben met deze kaart. Wellicht helpt het iemand anders ook.
1. Check of je geen hitte probleem hebt. In het begin had ik die wel. Bij het draaien van Heaven bleef de temperatuur maar stijgen om uiteindelijk te crashen bij 85 graden (GPU). CPU bleef wel koel genoeg. Ik heb toen een extra (outtake) casefan bovenin geplaatst (dus boven de cpu koeler). Nu heb ik 1 casefan voor-onderin (intake) en 2 (outtake) casefans achter, boven aan de achterkant en bovenin, omhoog blazend. Mijn GPU's worden nu nooit meer warmer dan 72 a 73 graden. (een extra casefan aan de zijkant (intake) had overigens totaal geen effect)
2. Ik had mijn i7 2600k overklokt naar 4.4Ghz. Dit liep 100% stabiel toen ik nog 1 GTX560ti had. Na installatie van de 2e bleek deze overklok wel problemen te geven, ook al werden de GPU's en de CPU niet te heet. Het terugzetten van de CPU naar 4.0Ghz verminderde het aantal crashes aanzienlijk. Wellicht is de combinatie van de kaarten in SLI en de overklokte CPU een andere stress op het systeem. Probeer dus je CPU wat terug te klokken als je deze overklokt hebt. Het leek mij trouwens geen PSU probleem, want de Antec 750 watt die ik heb zou toch ruim voldoende moeten zijn.
3. Het lijkt erop dat de videokaarten een te laag voltage leveren om op de fabrieksoverklok van 900 Mhz stabiel te draaien. Na het terugklokken op 822Mhz liep mijn systeem wel stabiel. Je koopt echter niet voor niets een OC versie, dus terugklokken is geen optie! Het blijkt dat Gigabyte een nieuwe bios heeft uitgebracht die het voltage verhoogd naar 1.037v. Hier te downloaden: http://www.gigabyte.co.nl...e.aspx?pid=3707&dl=1#bios. Gebruik de flashtool en 1 videokaart wordt geflashed. De andere kan je flashen met bijvoorbeeld Gigabyte Easy Boost (http://www.gigabyte.co.nl...spx?pid=3707&dl=1#utility). Je moet dan even zelf de correcte bios file kiezen uit de uitgepakte bios download. Er zijn er echter 4. Nu kan je met Gigabyte Easy Boost zien welke de tool heeft geflashed. Flash deze zelfde bios ook op de andere kaart (bij mij was dit F22).
NB. Als je niet wilt flashen, dan kan je ook met een tool als MSI Afterburner zelf het voltage verhogen naar 1.037. De nieuwe bios heeft zo te zien echter ook wat meer verbeteringen, dus flashen is wel aan te raden (op eigen risico
4. Ik gebruik de nieuwste NVidia drivers (285.62 op dit moment). Ik las dat meerdere mensen problemen ondervinden met de "Power Management Mode" instelling op Adaptive. In NVidia Control Panel heb ik deze instelling dan ook op "Prefer maximum performance" gezet.
5. Als na testen je geen crashes meer ondervindt, en je hebt je CPU teruggeklokt, dan zou je kunnen proberen deze weer terug te zetten op de oude overklok (en opnieuw testen). In mijn geval vind ik 4.0Ghz echter wel zat, dus ik laat het daar maar bij
De boel draait nu op 900Mhz (beide GPU's) en 4.0Ghz (CPU). Alles blijft mooi koel en ik heb geen crashes meer waargenomen. Dit is geen garantie dat het voor iedereen werkt. Het is een combinatie van veel factoren, maar ik denk dat deze tips wel zeker het proberen waard zijn. Succes!
Rond de 60-90 FPS (excl. uitschieters) in de beta, final weet ik over een dag of 2 dan komt ie binnen.GeeEs schreef op dinsdag 25 oktober 2011 @ 14:00:
Wat zijn je FPS scores in BF3 als ik vragen mag met de GTX570 ?? (en wat voor systeem heb je daar verder aanhangen?)
Specs
Op 1920x1200 met maximale settings en beta drivers.
Controleer wel regelmatig dat de PCB van je GPU niet krom trekt als er een zwarte koeler aan hangt als hij enkel in het PCI slot vast zit en niet in je kast.Max Hunt schreef op dinsdag 25 oktober 2011 @ 14:04:
[...]
De brackets zaten met 1 schroefje vast. Je kan ook andere brackets kopen voor videokaarten. De enige schade die je zou kunnen oplopen is als je de kaarten puur aan je PCIe sloten laat hangen zonder extra ondersteuning.
if (!coffee) {
Work = false; }
Klinkt zeker nice! Ik ben ook heel erg benieuwd naar de final release van BF3 de 27e!.. ;-)naaitsab schreef op dinsdag 25 oktober 2011 @ 14:32:
[...]
Rond de 60-90 FPS (excl. uitschieters) in de beta, final weet ik over een dag of 2 dan komt ie binnen.
Specs
Op 1920x1200 met maximale settings en beta drivers.
Maar dan zit je dus wel extreem ruim in je fps.. ik bedoel, als je nu al steady 60-90 fps haalt... op alles maxed out op die megaresolutie van 1920x1200... :-) (wel heel nice natuurlijk!)
Dat zal het geld vast waard zijn voor jou, maar als ik je setup zie, dan denk ik wel.. tering, relatief een hoop geld geinvesteerd voor (en dit bedoel ik absoluut niet negatief!) die performance, terwijl je eigenlijk alleen frames wint boven het maximale wat je scherm aankan... om over je ogen nog maar te zwijgen.
Ik neem aan dat je natuurlijk veel meer dan alleen gamen doet op je bak (16 GB geheugen ?! damn!) , maar het is in mijn ogen dus echt alleen maar overkill, het extra geld dat je geinvesteerd hebt. Want met een wat mindere setup had je misschien 50-60 fps gehaald, en had je het verschil niet gezien... Vanuit mijn positie bekijk ik het zo.. Ik kan dus nu wel €150,- meer uitgeven aan een gtx570... maar dan zie ik geen verschil! En dat vind ik dan zonde zegmaar. Dan liever op een later tijdstip nog's 150 euro erbij als dit echt niet meer presteert. Alles wat je nu investeert in overkill ga je er never nooit niet meer uithalen, omdat je waarschijnlijk sneller nieuw koopt dan je hardware verouderd is. En je het dus nooit optimaal benut. Deze redenering zal uiteraard niet voor iedereen opgaan! Persoonlijk speel liever nu budget op uiteraard wel acceptabele prestaties, zonder overclock, zodat ik eventueel nog wat headroom heb indien echt nodig... dan 150% safe tegen de hoofdprijs, met waarschijnlijk overkill.
Voor mij persoonlijk ben ik heel benieuwd hoeveel 1920x1080 (2073600 pixels) gaat schelen tegenover mn oude 21" 1440x900 (1296000 pixels) schermpje....:X
Ik ben idd wel zo realistisch dat ik weet dat het een stuk minder performance zal gaan halen. Het is namelijk nogal een fors aantal meer pixels dat FullHD !
De FPS schommelt nogal omdat de maps verschillen(open vs binnen bij metro bijv)
Het zal soms lager zijn en soms hoger ligt klopt maar 60-90 is beetje wat ik zag in de beta.
Ik gebruik mn pc ook vaak voor fotoshop en soms video bewerking dus vandaar de zware CPU en 16 Gig ram
De keren dat ik game niet zo heel vaak vond ik het zonde om een GTX580 aan te schaffen niet dat ik het geld niet heb maar dat vond ik een beetje zonde.
Voor de grap eens 1920x1080(zwarte vlak) tegen 1440x900(witte vlak) uitgezet.

Zit nog redelijk wat verschil in
en dan game ik op 1200p ipv 1080p
Het zal soms lager zijn en soms hoger ligt klopt maar 60-90 is beetje wat ik zag in de beta.
Ik gebruik mn pc ook vaak voor fotoshop en soms video bewerking dus vandaar de zware CPU en 16 Gig ram
De keren dat ik game niet zo heel vaak vond ik het zonde om een GTX580 aan te schaffen niet dat ik het geld niet heb maar dat vond ik een beetje zonde.
Voor de grap eens 1920x1080(zwarte vlak) tegen 1440x900(witte vlak) uitgezet.

Zit nog redelijk wat verschil in
if (!coffee) {
Work = false; }
Inderdaad.. als je de pixels telt is het echt absurd veel meer, nog net geen 2x, maar wat scheelt het!
Op het plaatje zie je het inderdaad ook heel goed!
Moet zeggen dat ik er ook wel aan toe ben... Mooi doel voor die €150 die ik uitspaarde
Even nog wat leuks
... Ultimate Battlefield 3 Simulator - Build & Test (Full Video) - The Gadget Show
YouTube: Ultimate Battlefield 3 Simulator - Build & Test (Full Video) - The Gadget Show
Op het plaatje zie je het inderdaad ook heel goed!
Moet zeggen dat ik er ook wel aan toe ben... Mooi doel voor die €150 die ik uitspaarde
Even nog wat leuks
YouTube: Ultimate Battlefield 3 Simulator - Build & Test (Full Video) - The Gadget Show
Ik denk dat je gewoon 1.5 GB op je videokaart moet hebben.
met crysis 2 haal ik al 1450 mb in gebruik bij de GTX 580 op 930/230gbps.
Voor BF3 minimaal1.5GB denk ik - high settings
Ik heb nu TIG videokaarten gehad 470,480... 480 in SLI 560 tihawk en ook dat in SLI...
bij 1 GB had ik een enorm gebrek aan geheugen gestotter en frustraties .. 1GB is nu echt te weinig.. 1.2 trouwens ook imo.
Alles op 1080P had met lle spelen wel ellende met 1GB
Volgend jaar loopt het grebuik in games alleen nog maar meer op
met crysis 2 haal ik al 1450 mb in gebruik bij de GTX 580 op 930/230gbps.
Voor BF3 minimaal1.5GB denk ik - high settings
Ik heb nu TIG videokaarten gehad 470,480... 480 in SLI 560 tihawk en ook dat in SLI...
bij 1 GB had ik een enorm gebrek aan geheugen gestotter en frustraties .. 1GB is nu echt te weinig.. 1.2 trouwens ook imo.
Alles op 1080P had met lle spelen wel ellende met 1GB
Volgend jaar loopt het grebuik in games alleen nog maar meer op
[ Voor 104% gewijzigd door A87 op 25-10-2011 21:43 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ