dat zou voor mij persoonlijk een hele grote worst wezen,deze kaarten zijn king of THE Hill en mogen derhalve wat kosten en verbruiken.dahakon schreef op zaterdag 29 januari 2011 @ 11:07:
[...]
Is dat een weddenschap waarbij het er om draait dat het ook binnen de PCI-E 2.0 specs blijft of mag nVidia van jou die specs met de voeten treden?
Ze pakken meestal een applicatie zoals Furmark omdat die er om bekend staat het maximale verbruik van je kaart te laten zien. Soms pakken ze er dan ook nog een doorsnee game bij om een reëler beeld te geven van het verbruik maar i.m.o. zou dit beter zijn:Maxily schreef op zaterdag 29 januari 2011 @ 16:19:
Doet AMD niet hetzelfde met PowerTune? Dat is toch ook een techniek waardoor de kaart niet meer stroom kan verbruiken dan een bepaald maximum?
Hoe wordt het TDP eigenlijk berekent / bepaalt? Onder Crysis bijv. draaien mijn kaarten op ~100% maar het verbruik is minder dan onder Furmark oid.
Het gemiddelde verbruik van een x aantal applicaties zou(logisch) het gemiddelde gebruik zijn. Het maximale behaalt in een x aantal applicaties het maximale verbruik zijn en vice versa. Hiervan zou je makkelijk een mediaan van kunnen opstellen. Hieraan kun je dan nauwkeuriger zien wat het verbruik is van een kaart. Waarom men dit niet zo laat zien in reviews is mijn niet bekend maar er zal vast en zeker wel een goed doordachte reden voor zijn. De factor tijd is het in i.i.g. niet want ze hoeven een benchmark toch maar één keer te draaien om zowel de FPS scores als het verbruik te krijgen.
[ Voor 3% gewijzigd door madmaxnl op 29-01-2011 17:01 ]
Powertune is in feite een hardware-oplossing die met software wel enigsinds in te stellen is. Het is echter de hardware die continue realtime bekijkt hoeveel stroom er verbruikt wordt. Er wordt dus niet gekeken welke applicatie gedraaid wordt, zoals de nVidia oplossing.Maxily schreef op zaterdag 29 januari 2011 @ 16:19:
Doet AMD niet hetzelfde met PowerTune? Dat is toch ook een techniek waardoor de kaart niet meer stroom kan verbruiken dan een bepaald maximum?
Je kunt bij AMD via de drivers aangeven dat de kaart meer mag verbruiken, maar uit zichzelf zal deze dat nooit doen. Bij de nVidia oplossing knijpen de drivers iets af, of als het om de een of andere manier niet mocht werken, knalt de GPU er veel meer stroom doorheen dan 'mag', bij volle belasting. Dat kan bijvoorbeeld gemakkelijk gedaan worden/gebeuren met GPU-Z.
Ik vraag me oprecht af of die stelling blijft staan van een ieder die hem maakt, als blijkt dat nVidia een <300Watt dual-GPU kaart maakt, die vervolgens wordt verslagen door een >300Watt kaart van AMD.maxers1973 schreef op zaterdag 29 januari 2011 @ 16:47:
dat zou voor mij persoonlijk een hele grote worst wezen,deze kaarten zijn king of THE Hill en mogen derhalve wat kosten en verbruiken.
[ Voor 20% gewijzigd door dahakon op 29-01-2011 17:51 ]
Dat is precies hoe ik het verbruik meet onder load, in drie games en daar dan het gemiddelde van. De energiemeter kan vrij eenvoudig het verbruik meten en het gemiddelde weergeven, maar ook pieken. Gemiddelde ligt vaak maar 10W onder de piek, dus het is vrij betrouwbaar.madmaxnl schreef op zaterdag 29 januari 2011 @ 16:58:
[...]
Ze pakken meestal een applicatie zoals Furmark omdat die er om bekend staat het maximale verbruik van je kaart te laten zien. Soms pakken ze er dan ook nog een doorsnee game bij om een reëler beeld te geven van het verbruik maar i.m.o. zou dit beter zijn:
Het gemiddelde verbruik van een x aantal applicaties zou(logisch) het gemiddelde gebruik zijn. Het maximale behaalt in een x aantal applicaties het maximale verbruik zijn en vice versa. Hiervan zou je makkelijk een mediaan van kunnen opstellen. Hieraan kun je dan nauwkeuriger zien wat het verbruik is van een kaart. Waarom men dit niet zo laat zien in reviews is mijn niet bekend maar er zal vast en zeker wel een goed doordachte reden voor zijn. De factor tijd is het in i.i.g. niet want ze hoeven een benchmark toch maar één keer te draaien om zowel de FPS scores als het verbruik te krijgen.
Furmark was/is gewoon erg handig omdat het niet superveel scheelt vergeleken met sommige spellen en omdat het een constante load geeft.
Anoniem: 390961
Ik speel zelf ook games op 1920x1080 met 2gtx580's. Ook voor deze resolutie is het soms handig om een 2e gtx580 aan het werk te hebben. Dit is ook de meest bepeelde resolutie en er zijn wel meer mensen die op deze resolutie baat bij zo'n dualkaart kan hebben. Al is het maar voor een paar games de user bepaald of het handig is of niet. Ik kan met een instelling er voor zorgen dat mijn kaarten op 1920x1080 het heel zwaar krijgen.dahakon schreef op zaterdag 29 januari 2011 @ 14:24:
[...]
Bij voorkeur met een test waarin de driver-gelimiteerde stroomverbruik is uitgeschakeld. Je weet wel, waarin een GTX580 dan opeens 350 Watt kan verbruiken. Voor de rest zijn resultaten behaald in het verleden geen garantie voor de toekomst.
HD6990 en GTX590 zullen dicht bij elkaar zitten met betrekking tot performance en het zal veelal afhangen van resolutie en eyecandy. De 'win' van GTX295 was toentertijd ook met name in de resoluties waar je een dergelijke kaart niet voor koopt, terwijl op 2560x1600 HD4870X2 behoorlijk mee kwam en soms ook won.
Maar goed, als je een resolutie van 1680x1050 aan gaat halen tezijnertijd, dan wil ik best geloven dat je gelijk hebt.
Verder speel ik ook op 3 schermen maar hier haal ik lang niet bij al mijn games voldoende fps met de hoogste instellingen. Ik moet dan of aa uitzetten of op medium spelenom niet onder de 60 fps te duiken.
Anoniem: 245699
Als Nvidia de 300watt grens laat voor wat het is en dit aan hun laars gaat lappen, dan gaat een vergelijk met een kaart die zich er wel aan gaat houden (zeer waarschijnlijk de HD6990) gewoon niet op! Dan kunnen ze net zo goed die kaart 450watt laten trekken en ja, gek dat ze dan sneller zullen zijn....
Maar ik hoop dat Marc gelijk gaat krijgen en dat Nvidia zich er wel aan blijft houden (zou denk ik ook wel zo slim zijn omdat het een hoop heibel teweeg zal brengen). Met 2x een GT114 moeten ze een heel eind komen aangezien AMD hun Cayman chip ook zal moeten knijpen en niet vol kunnen draaien (HD6970 speeds). Echter als ze wel het aantal shaders kunnen gebruiken en de clocks van de HD6950, dan gaat Nvidia het natuurlijk niet redden met een dual GF114 kaart en ik denk niet dat een risico willen lopen een dual GPU kaart uit te brengen die niet sneller is dan die van AMD. Denk dat ze dan nog liever geen kaart uitbrengen!

Maar ik hoop dat Marc gelijk gaat krijgen en dat Nvidia zich er wel aan blijft houden (zou denk ik ook wel zo slim zijn omdat het een hoop heibel teweeg zal brengen). Met 2x een GT114 moeten ze een heel eind komen aangezien AMD hun Cayman chip ook zal moeten knijpen en niet vol kunnen draaien (HD6970 speeds). Echter als ze wel het aantal shaders kunnen gebruiken en de clocks van de HD6950, dan gaat Nvidia het natuurlijk niet redden met een dual GF114 kaart en ik denk niet dat een risico willen lopen een dual GPU kaart uit te brengen die niet sneller is dan die van AMD. Denk dat ze dan nog liever geen kaart uitbrengen!
Anoniem: 263922
Dat is al eens gebeurd, een dual-gpu gf100 zou natuurlijk een lachwekkende kaart hebben opgeleverd met lagere clocks dan de gemiddelde mobile gpu
.
Maargoed, de hd4870x2 ging ook een eind over de 300 watt heen, de gtx295 ging er ook overheen maar niet zo veel als de hd4870x2. http://www.pcgameshardwar...ngnahme/Grafikkarte/Test/
Maakt van de hd4870x2 uiteraard geen slechte kaart, maar als nvidia op dit moment 50 watt meer zou verbruiken bij een zelfde soort meting, worden ze er wel direct op afgeschoten, ten tijde van de 4870x2 en gtx295 was dat lang niet zo'n issue als nu. Pech voor Nvidia nu, geluk voor AMD toen
Maargoed, de hd4870x2 ging ook een eind over de 300 watt heen, de gtx295 ging er ook overheen maar niet zo veel als de hd4870x2. http://www.pcgameshardwar...ngnahme/Grafikkarte/Test/
Maakt van de hd4870x2 uiteraard geen slechte kaart, maar als nvidia op dit moment 50 watt meer zou verbruiken bij een zelfde soort meting, worden ze er wel direct op afgeschoten, ten tijde van de 4870x2 en gtx295 was dat lang niet zo'n issue als nu. Pech voor Nvidia nu, geluk voor AMD toen
Het is maar de vraag of het resultaat van PC Games Hardware klopt.
Xbit heeft een heel ander resultaat maar compleet vergelijkbaar zijn ze niet want PGH test met Crysis WH en Furmark en Xbit test met 3DM06: http://www.xbitlabs.com/a...on-hd4870-x2_6.html#sect0
De TDPs zijn dan ook slechts een indicatie voor de makers van de koelers zodat die weten hoeveel warmte er afgevoerd moet kunnen worden. TDPs is dus niet verbruik.
Xbit heeft een heel ander resultaat maar compleet vergelijkbaar zijn ze niet want PGH test met Crysis WH en Furmark en Xbit test met 3DM06: http://www.xbitlabs.com/a...on-hd4870-x2_6.html#sect0
De TDPs zijn dan ook slechts een indicatie voor de makers van de koelers zodat die weten hoeveel warmte er afgevoerd moet kunnen worden. TDPs is dus niet verbruik.
[ Voor 22% gewijzigd door madmaxnl op 29-01-2011 20:32 ]
Tja in principe kan nVidia niet zoveel zowel met twee GF114's als met twee GF110's is het beide eigenlijk net niet. Zoals bekend kan een kaart met GF110 tot wel 350W verstoken, twee zouden dus al een extreme 700W kunnen verbruiken. Wil je een dubbele GF110 dus op zo'n 300W krijgen dan zul je de GPU op zo'n 575MHz zetten en dik ondervolten. Zou kunnen maar ja houd natuurlijk niet echt over.Marc Rademaker schreef op zaterdag 29 januari 2011 @ 11:48:
Tot nog toe hebben zowel Nvidia als AMD zich gehouden aan de limiet van 300W. Persoonlijk geloof ik er dan ook niet in dat Nvidia opeens een kaart met een tdp van >300W uit gaat brengen. Daardoor kan ik ook moelijk geloven dat Nvidia twee GF110-gpu's gaat gebruiken. Ik zie Nvidia veel eerder twee GF114-gpu's gebruiken, die cherrypicked zijn op lage spanningen, met iets lagere kloksnelheden. Dat is nog steeds 768 Cuda-cores! Anderhalf keer zoveel als de GTX 580, waarmee de HD 5970 billenkoek krijgt en waarmee ook de HD 6990 het moeilijk zal krijgen.
Neem je de GF114 dan kom je met GTX560 kloks op ongeveer 300W uit, wat dus in principe prima zou kunnen, maar als ik kijk naar de prestaties van twee GTX560's in SLi dan houdt dit ook totaal niet over.

Net wat sneller dan een HD5970 wat dus op ongeveer dezelfde performance als twee HD6850's uit komt. Twee HD6870's zijn dus gewoon sneller.

Dus het lijkt mij totaal niet logisch dat nVidia een dubbele GF114 gaat uitbrengen, dubbele GF110 lijkt mij logischer.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Een singel GTX560Ti is wel goed maar in SLI is het dus niks en dat sluit inderdaad een dubbelen GF114 kaart uit. Hopelijk gaan ze in de reviews dan wel een GTX590 ook overclocken want dat zal wel goed kunnen als de kaart dusdanig onder geclockt zal worden
Anoniem: 263922
Ik heb ten eerste nergens TDP aangehaald, en al helemaal niet beweerd dat dat het verbruik is, ik denk dat je toch eens moet gaan werken aan je interpretatie van andermans reply'smadmaxnl schreef op zaterdag 29 januari 2011 @ 20:30:
Het is maar de vraag of het resultaat van PC Games Hardware klopt.
Xbit heeft een heel ander resultaat maar compleet vergelijkbaar zijn ze niet want PGH test met Crysis WH en Furmark en Xbit test met 3DM06: http://www.xbitlabs.com/a...on-hd4870-x2_6.html#sect0
De TDPs zijn dan ook slechts een indicatie voor de makers van de koelers zodat die weten hoeveel warmte er afgevoerd moet kunnen worden. TDPs is dus niet verbruik.
Als je die Test van Xbit bekijkt zie je hopelijk al snel genoeg dat er totaal niks van klopt, was het maar zo dat de hd4870 en gtx260 onder peak 3D 130 watt verstookten, dat is natuurlijk nonsens.
In deze test nog een bevestiging van wat ik beweer: http://www.bit-tech.net/h...deon-hd-4870-1gb-toxic/13
Zegt natuurlijk niks over de gtx590 en hd6990.
CF schaalt zo te zien beter dan SLI, daar wint de hd6870 CF toch gauw op 8% (snel rekensommetje

[ Voor 12% gewijzigd door Anoniem: 263922 op 29-01-2011 23:05 ]
TDP verhaal was niet op jou gericht maar meer in algemenen zin dat men TDP niet moet verwarren met verbruik.Anoniem: 263922 schreef op zaterdag 29 januari 2011 @ 23:00:
[...]
Ik heb ten eerste nergens TDP aangehaald, en al helemaal niet beweerd dat dat het verbruik is, ik denk dat je toch eens moet gaan werken aan je interpretatie van andermans reply's
Verkeerde interpretatie dus.
Hoezo is de 130 watt onzin ? Ze geven zelfs netjes aan welke voltages etc ze hebben gemeten i.t.t. PGH.
http://www.xbitlabs.com/i...-x2/4870x2_power_full.png
Daarbij klopt het waarschijnlijk wel dat dit niet het maximale verbruik is.
[ Voor 22% gewijzigd door madmaxnl op 29-01-2011 23:22 ]
Anoniem: 390961
Dat lijkt mij ook het meest logische. En ik den dat nvidia zelf dat ook wel het meest logische lijkt en dit ook heus wel weten. Nvidia komt gewoon met 2 gf110's op gtx570 speeds. En zoals alle dual gpu's over de 300 watt gaan, gaat deze natuurlijk ook over de 300 watt. Maar nog altijd een stuk mnder verbruiken dan 2 losse gtx570's.-The_Mask- schreef op zaterdag 29 januari 2011 @ 21:09:
[...]
Tja in principe kan nVidia niet zoveel zowel met twee GF114's als met twee GF110's is het beide eigenlijk net niet. Zoals bekend kan een kaart met GF110 tot wel 350W verstoken, twee zouden dus al een extreme 700W kunnen verbruiken. Wil je een dubbele GF110 dus op zo'n 300W krijgen dan zul je de GPU op zo'n 575MHz zetten en dik ondervolten. Zou kunnen maar ja houd natuurlijk niet echt over.
Neem je de GF114 dan kom je met GTX560 kloks op ongeveer 300W uit, wat dus in principe prima zou kunnen, maar als ik kijk naar de prestaties van twee GTX560's in SLi dan houdt dit ook totaal niet over.
[afbeelding]
Net wat sneller dan een HD5970 wat dus op ongeveer dezelfde performance als twee HD6850's uit komt. Twee HD6870's zijn dus gewoon sneller.
[afbeelding]
Dus het lijkt mij totaal niet logisch dat nVidia een dubbele GF114 gaat uitbrengen, dubbele GF110 lijkt mij logischer.
Verder als nvidia het niet zou kunnen met 2 gtx570's gaat amd het ook niet redden met 2 6970 want ze verbruiken bijna even veel.
cf en SLI schalen even goed. Licht er maar net aan welke game''s er voor getest worden. In de ééne game alls cf 80% in de andere game 100 % zelfde geld voor sli.Anoniem: 263922 schreef op zaterdag 29 januari 2011 @ 23:00:
[...]
Ik heb ten eerste nergens TDP aangehaald, en al helemaal niet beweerd dat dat het verbruik is, ik denk dat je toch eens moet gaan werken aan je interpretatie van andermans reply's![]()
Als je die Test van Xbit bekijkt zie je hopelijk al snel genoeg dat er totaal niks van klopt, was het maar zo dat de hd4870 en gtx260 onder peak 3D 130 watt verstookten, dat is natuurlijk nonsens.
In deze test nog een bevestiging van wat ik beweer: http://www.bit-tech.net/h...deon-hd-4870-1gb-toxic/13
Zegt natuurlijk niks over de gtx590 en hd6990.
CF schaalt zo te zien beter dan SLI, daar wint de hd6870 CF toch gauw op 8% (snel rekensommetje) tov de gtx560ti SLI, per kaart is de CF opstelling 5% langzamer, toch een aandachtspunt voor Nvidia, het kan zomaar de doodsteek zijn voor de gtx590. Daar geven ze onnodig veel performance weg tegenover een single gpu variant.
Helaas zijn er geen nieuwere revieus van cf en sli. Maar ik heb afgelopen jaar beide gehad en daar uit kan ik wel merken dat ze allebei even goed schalen. Al word hier weer wat anders beweerd maar we zijn ook al weer een jaar verder.
http://www.overclockerscl...s/crossfire_vs_sli/25.htm
[ Voor 34% gewijzigd door Anoniem: 390961 op 30-01-2011 10:25 ]
De HD4870X2 en GTX295 gingen over de 300Watt, maar dan wel alleen bij Furmark over het algemeen, een programmatje dat pas na launch echt beschikbaar kwam. De HD5970 en HD3870X2 zijn toch een ander verhaal. De kans dat HD6990 over de 300 Watt heen gaat is dan ook erg klein, tenzij 'by design'. Het lijkt me echter logischer dat Powertune het onder de 300 houdt, en je de boel moet unlocken om het over de 300 te kunnen laten gaan, zoals bij HD5970.Anoniem: 390961 schreef op zondag 30 januari 2011 @ 10:10:
[...]
Dat lijkt mij ook het meest logische. En ik den dat nvidia zelf dat ook wel het meest logische lijkt en dit ook heus wel weten. Nvidia komt gewoon met 2 gf110's op gtx570 speeds. En zoals alle dual gpu's over de 300 watt gaan, gaat deze natuurlijk ook over de 300 watt. Maar nog altijd een stuk mnder verbruiken dan 2 losse gtx570's.
In het laatste jaar is er dan ook veel veranderd. Genoeg tests te zien aangaande crossfire en sli, waarbij met name bij de launch van HD68xx duidelijk naar voren kwam dat crossfire heel veel beter is geworden. Maar goed, hoe het uiteindelijk uitpakt op een een enkele kaart, waarbij ook dingen komen kijken als een halvering van de PCI-E bandbreedte (moet worden gedeeld) zal later wel duidelijk worden.cf en SLI schalen even goed. Licht er maar net aan welke game''s er voor getest worden. In de ééne game alls cf 80% in de andere game 100 % zelfde geld voor sli.
Helaas zijn er geen nieuwere revieus van cf en sli. Maar ik heb afgelopen jaar beide gehad en daar uit kan ik wel merken dat ze allebei even goed schalen. Al word hier weer wat anders beweerd maar we zijn ook al weer een jaar verder.
http://www.overclockerscl...s/crossfire_vs_sli/25.htm
Anoniem: 390961
Precies de grens van de pcie is dus al lang verbroken door amd en nvidia. Het heeft us al geen zin meer om je daar nu nog aan te gaan houden. Of het nu ingame is of met een progamba die de gpu stressed. Het laat gewoon zien wat het max verbruik is en daar word al niet meer aan gehouden.dahakon schreef op zondag 30 januari 2011 @ 10:38:
[...]
De HD4870X2 en GTX295 gingen over de 300Watt, maar dan wel alleen bij Furmark over het algemeen, een programmatje dat pas na launch echt beschikbaar kwam. De HD5970 en HD3870X2 zijn toch een ander verhaal. De kans dat HD6990 over de 300 Watt heen gaat is dan ook erg klein, tenzij 'by design'. Het lijkt me echter logischer dat Powertune het onder de 300 houdt, en je de boel moet unlocken om het over de 300 te kunnen laten gaan, zoals bij HD5970.
[...]
In het laatste jaar is er dan ook veel veranderd. Genoeg tests te zien aangaande crossfire en sli, waarbij met name bij de launch van HD68xx duidelijk naar voren kwam dat crossfire heel veel beter is geworden. Maar goed, hoe het uiteindelijk uitpakt op een een enkele kaart, waarbij ook dingen komen kijken als een halvering van de PCI-E bandbreedte (moet worden gedeeld) zal later wel duidelijk worden.
Cf schaaldindd goed met de nieuwe series vanaf 6000. Dit is mij ook opgevallen. Ik vond de schaling trouwens al denderend met de 5000 series van ati/amd. Nu ik sli heb ind ik de schaling nog altijd denderend.
Sterker nog de schaaling van 2gtx 580 is zelfs op lage resoluties (1920X1080) nog zo'n 70-80% en met veel AA aan gat de schaling in sommige games over de 100% heen. 32xcsaa als voorbeeld..
Dat is nu juist net het punt. Het is juist de bedoeling om je aan de grens te houden. Bij de HD4870X2 werd het opgelost met drivers. Daarna is AMD gaan werken aan betere oplossingen en die oplossing heeft ondertussen al gewerkt bij de HD5970. Het is altijd de bedoeling om binnen de specs te blijven. Daarom heeft nVidia ook een cap ingebouwd in de driver om te voorkomen dat furmark 350Watt van de kaart trekt, zoals het kan doen als die cap wordt omzeilt.Anoniem: 390961 schreef op zondag 30 januari 2011 @ 11:33:
Precies de grens van de pcie is dus al lang verbroken door amd en nvidia. Het heeft us al geen zin meer om je daar nu nog aan te gaan houden. Of het nu ingame is of met een progamba die de gpu stressed. Het laat gewoon zien wat het max verbruik is en daar word al niet meer aan gehouden.
Wat jij nu stelt is dat, omdat je toch al eenmaal 200kmph op een snelweg hebt gereden, je het voortaan altijd maar moet gaan doen, want de snelheidsgrens is toch al gebroken (om het maar even bij een 'vriendelijke' analogie te houden).
Waarom bestaat die PCI-E spec eigenlijk vraag ik me wel es af. Het zal niet om het hoge stroomverbruik gaan, want dat is een keuze die je zou moeten mogen maken net zoals je dat doet als je 2 losse kaarten in SLI/Crossfire plaatst en dus ook ver over de 300 watt gaat. Het zit eerder in de weg want nu worden de kaarten downclocked uitgebracht terwijl je wel de hoofdprijs betaalt.dahakon schreef op zondag 30 januari 2011 @ 11:42:
[...]
Het is altijd de bedoeling om binnen de specs te blijven.
Is het dat het PCI-E slot moeite heeft ofzo met dat hoge vermogen, ook al voed je de kaarten direct via de voeding?
anathema
Omdat ze met de specificaties bijvoorbeeld ook in gedachten moeten houden dat men 4 PCI-E 2.0 sloten op een moederbord vol gooit met kaarten? Om 4 keer 300Watt-kaarten van stroom te voorzien is al niet gemakkelijk. Hoe moet het dan, als men maar besluit om 450Watt kaarten te maken?
Zolang je die extra stroom maar direct via de voeding levert met 6 of 8 pins stekkers zie ik dat probleem niet zo wat betreft het moederbord. Dat wordt een voedingprobleem.
En dat is een uitzonderlijk geval, in principe neemt iemand 1 zo'n dual kaart en een goede voeding kan dat prima van stroom voorzien.
En dat is een uitzonderlijk geval, in principe neemt iemand 1 zo'n dual kaart en een goede voeding kan dat prima van stroom voorzien.
anathema
Er zijn juist maar weinig dual GPU kaarten welke over de 300W gingen, alleen de HD4870X2 en GTX295. Bij de rest werd het altijd wel tegengehouden door onderklokken of via software. Lijkt mij ook natuurlijk niet de bedoeling om je gewoon niet aan de PCI-e specificaties te houden.Anoniem: 390961 schreef op zondag 30 januari 2011 @ 10:10:
[...]
Dat lijkt mij ook het meest logische. En ik den dat nvidia zelf dat ook wel het meest logische lijkt en dit ook heus wel weten. Nvidia komt gewoon met 2 gf110's op gtx570 speeds. En zoals alle dual gpu's over de 300 watt gaan, gaat deze natuurlijk ook over de 300 watt. Maar nog altijd een stuk mnder verbruiken dan 2 losse gtx570's.
Een HD6970 op de kloksnelheid en spanning van de HD6950 voldoet in principe al ga je met games waarschijnlijk al niet eens over de 160W heen. Dit is laag genoeg om een dual GPU kaart te maken welke ook binnen de 300W blijft. PowerTune kan er dan voor zorgen dat de kaart ook tijdens Furmark niet meer dan 300W kan verbruiken. Maar PowerTune kan er gelijk ook voor zorgen je de 300W 'barrière' ook gewoon kan laten vallen als je wil overklokken. Als je de kaart zelf gaat overklokken heeft het immers maar weinig zin om een 300W barrière te hebben, werkt zelfs voor geen meter natuurlijk.Verder als nvidia het niet zou kunnen met 2 gtx570's gaat amd het ook niet redden met 2 6970 want ze verbruiken bijna even veel.
Als dat zo is dan vraag ik mij af waarom twee HD6850's en twee GTX560's ongeveer even goed presteren volgens TPU. Dus of een HD6850 is even snel als een GTX560 of CrossFire schaalt tegenwoordig beter met moderne kaarten dan SLi. Je mag kiezen.cf en SLI schalen even goed. Licht er maar net aan welke game''s er voor getest worden. In de ééne game alls cf 80% in de andere game 100 % zelfde geld voor sli.
De PCI-e specs zijn er omdat iedereen dan weet waar die zich aan moet houden. Van behuizing bouwers welke rekening moeten houden met het wegwerken van de warmte. Tot voeding bouwers welke er ook vanuit gaan dan er max 150W door een 8 pins stekker moet. Heeft in principe weinig met een goede of slechte voeding nodig. Als iedereen zich namelijk aan de specs zou houden zou het zelfs mogelijk zijn om er gewoon in de voeding voor te zorgen dat elke stekker niet meer dan x aantal W zou verbruiken. Heeft dan ook weinig met een goede of slechte voeding nodig als de voeding het aan kan of niet. Kan net zo goed een OCP zijn welke zijn werk juist goed doet. Is zijn schuld immers niet dat de videokaart meer verbruikt dan die zou mogen.anathema schreef op zondag 30 januari 2011 @ 13:36:
Zolang je die extra stroom maar direct via de voeding levert met 6 of 8 pins stekkers zie ik dat probleem niet zo wat betreft het moederbord. Dat wordt een voedingprobleem.
En dat is een uitzonderlijk geval, in principe neemt iemand 1 zo'n dual kaart en een goede voeding kan dat prima van stroom voorzien.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Een 450 watt kaart heeft dan een extra 8 pins stekker nodig en er zijn genoeg voedingen die dat hebben, dat zou dus geen probleem moeten zijn. Ik kan me wel voorstellen dat dit soort kaarten minder geschikt zijn voor systeembouwers, hoewel er aan de andere kant ook wel weer rekening mee valt te houden. Kunnen ze mensen een nog duurdere kast aansmeren
anathema
Ik denk ook dat een dual GF114 het niet gaat redden tegenover de 6990 en nVidia daarom ook een dual GF110 tegenover de 6990 gaat zetten. Wel wil ik even toevoegen dat ik eerlijk gezegd niet veel waarde hecht aan de performance samenvattingen van techpowerup. Dat komt dan vooral hierom:-The_Mask- schreef op zaterdag 29 januari 2011 @ 21:09:
[...]
Tja in principe kan nVidia niet zoveel zowel met twee GF114's als met twee GF110's is het beide eigenlijk net niet. Zoals bekend kan een kaart met GF110 tot wel 350W verstoken, twee zouden dus al een extreme 700W kunnen verbruiken. Wil je een dubbele GF110 dus op zo'n 300W krijgen dan zul je de GPU op zo'n 575MHz zetten en dik ondervolten. Zou kunnen maar ja houd natuurlijk niet echt over.
Neem je de GF114 dan kom je met GTX560 kloks op ongeveer 300W uit, wat dus in principe prima zou kunnen, maar als ik kijk naar de prestaties van twee GTX560's in SLi dan houdt dit ook totaal niet over.
[afbeelding]
Net wat sneller dan een HD5970 wat dus op ongeveer dezelfde performance als twee HD6850's uit komt. Twee HD6870's zijn dus gewoon sneller.
[afbeelding]
Dus het lijkt mij totaal niet logisch dat nVidia een dubbele GF114 gaat uitbrengen, dubbele GF110 lijkt mij logischer.
http://www.techpowerup.co...rce_GTX_560_Ti_SLI/6.html
Die tests zijn hopeloos verouderd en vertroebelen daarom de performance samenvattingen. Tests meenemen waarbij dus bijvoorbeeld een 5870 sneller is dan een 6970... kom nou... Dan kunnen ze net zo goed pacman o.i.d. testen en de resultaten bij hun performance toevoegen.
Daarnaast mogen ze wat mij betreft bijvoorbeeld 3DMark03 en 05 op een resolutie lager dan 2560x 1600 ook wel in de prullenbak gooien. Volgens mij gaat het bij hun dan ook helaas vooral om kwantiteit en niet om kwaliteit.
[ Voor 4% gewijzigd door Springstof op 30-01-2011 14:34 ]
Ik kan me ook nauwelijks voorstellen dat twee GTX 560's 'maar' 13 procent sneller zijn dan een GTX 580. Dat de resolutie meespeelt op 2560x1600 geloof ik wel, maar zelfs twee GTX 460's maken gehakt van een GTX 580.
Nee, ik zie twee GTX 560's/GF114-chips nog steeds gebeuren, cherrypicked en dan op 750MHz ofzo.
Nee, ik zie twee GTX 560's/GF114-chips nog steeds gebeuren, cherrypicked en dan op 750MHz ofzo.
Je hebt ook nog OEM's die helemaal geen duurdere behuizing willen pakken maar gewoon de vorige waar ze nog duizenden van hadden liggen.anathema schreef op zondag 30 januari 2011 @ 14:24:
Een 450 watt kaart heeft dan een extra 8 pins stekker nodig en er zijn genoeg voedingen die dat hebben, dat zou dus geen probleem moeten zijn. Ik kan me wel voorstellen dat dit soort kaarten minder geschikt zijn voor systeembouwers, hoewel er aan de andere kant ook wel weer rekening mee valt te houden. Kunnen ze mensen een nog duurdere kast aansmeren
TPU is wel degene die heel veel games test en er dan ook nog een mooi gemiddelde aan vast knoopt.Springstof schreef op zondag 30 januari 2011 @ 14:29:
[...]
Wel wil ik even toevoegen dat ik eerlijk gezegd niet veel waarde hecht aan de performance samenvattingen van techpowerup. Dat komt dan vooral hierom:
http://www.techpowerup.co...rce_GTX_560_Ti_SLI/6.html
Die tests zijn hopeloos verouderd en vertroebelen daarom de performance samenvattingen. Tests meenemen waarbij dus bijvoorbeeld een 5870 sneller is dan een 6970... kom nou...
En een HD5870 kan overigens sneller zijn dan een HD6970, als er namelijk optimaal gebruik van de VLIW5 instucties architectuur gebruik kan worden gemaakt is een HD5870 in theorie sneller omdat die meer streamprocessors heeft. Dat het in de praktijk nooit zo uitpakte is ook de reden dat AMD een stapje terug heeft gedaan en met VLIW4 is gekomen. Bij VLIW4 kunnen ze beter alle streamprocessors aan het werk houden wat één van de redenen is dat Cayman sneller maakt dan Cypress.
Kunnen ze idd beter eruit halen, maar daarom nam ik ook 2560x1600 zodat je minder of geen last hebt van een CPU bottleneck.Daarnaast mogen ze wat mij betreft bijvoorbeeld 3DMark03 en 05 op een resolutie lager dan 2560x 1600 ook wel in de prullenbak gooien.
[ Voor 3% gewijzigd door -The_Mask- op 30-01-2011 14:44 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Marc Rademaker schreef op zondag 30 januari 2011 @ 14:37:
Ik kan me ook nauwelijks voorstellen dat twee GTX 560's 'maar' 13 procent sneller zijn dan een GTX 580. Dat de resolutie meespeelt op 2560x1600 geloof ik wel, maar zelfs twee GTX 460's maken gehakt van een GTX 580.

Ze waren beter dan een GTX480 toentertijd.
Wat heeft nVidia hier nu aan? Gaan ze hem dan ook vergelijken met de HD5970 welke ze nipt weten te verslaan. Van de HD6990 trekken ze zich niks aan en doen net of die niet bestaat?Nee, ik zie twee GTX 560's/GF114-chips nog steeds gebeuren, cherrypicked en dan op 750MHz ofzo.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 390961
Voor zo ver ik weet is er nog geen performance test van de hd6990.
Vandaar denk ik dat de hd5970 er tussen staat.
Vandaar denk ik dat de hd5970 er tussen staat.
Het was niet dat ik niet geloofde dat een 5870 in bepaalde situaties sneller kan zijn dan de 6970. Dat een 5870 sneller kan zijn dan een 6970 blijkt wel uit de gegevens van techpowerup. Het gaat wat mij betreft echter meer om de waarde van dergelijke tests. Over het algemeen is bijna iedereen, wat betreft snelheid, daarentegen beter af dan met een 6970 dan met een 5870. Blijkbaar heeft techpowerup wel de tijd om die tests uit te voeren, maar ik zie echt geen reden om dergelijke tests mee te nemen in een performance samenvatting van dergelijke kaarten.-The_Mask- schreef op zondag 30 januari 2011 @ 14:42:
TPU is wel degene die heel veel games test en er dan ook nog een mooi gemiddelde aan vast knoopt.
En een HD5870 kan overigens sneller zijn dan een HD6970, als er namelijk optimaal gebruik van de VLIW5 instucties architectuur gebruik kan worden gemaakt is een HD5870 in theorie sneller omdat die meer streamprocessors heeft. Dat het in de praktijk nooit zo uitpakte is ook de reden dat AMD een stapje terug heeft gedaan en met VLIW4 is gekomen. Bij VLIW4 kunnen ze beter alle streamprocessors aan het werk houden wat één van de redenen is dat Cayman sneller maakt dan Cypress.
Ook op 2560X1600 zie ik geen meerwaarde in die test. Wat ik wel weer wederom zie is vertroebeling van hun performance samenvatting. Kijk maar eens naar het resultaat van de 5970 t.o.v. bijvoorbeeld 580.Kunnen ze idd beter eruit halen, maar daarom nam ik ook 2560x1600 zodat je minder of geen last hebt van een CPU bottleneck.
Ze mogen trouwens wel meer games schrappen. Neem bijvoorbeeld Dawn of War II. Een game die op 1920X1200 op een GTX 560 boven de 100 FPS komt is ten eerste hopeloos verouderd/ benchmark onwaardig. Dus ontgaat mij de reden waarom zij Dawn of War II testen.
Edit: Unreal tournament 3... staat ook in hun lijst, maar is als benchmark net zo erg als Dawn of War II..
Techpowerup test inderdaad veel games en maakt een samenvatting van de performance, maar dan mogen ze de games die ze gebruiken wel eens flink onder de loep nemen om enigszins serieuze performance samenvattingen te maken. Anders kunnen ze er net zo goed nog 100 games als bijvoorbeeld pacman bij doen, maar daar heb je verder niet zo veel aan.
[ Voor 10% gewijzigd door Springstof op 30-01-2011 15:19 ]
@ the mask,
Zojuist even naar mijn eigen tests gekeken en daarin waren twee GTX 460's langzamer dan een HD 5970. Niet vreemd want de GTX 460 is iets langzamer dan een HD 5850, en twee daarvan = HD 5970.
Een GTX 560 is wel een pak sneller dan een GTX 460, maar samen zullen ze dus misschien 10 procent sneller zijn dan een HD 5970, wat tegenvalt. Met andere woorden, ik had de getalletjes verkeerd in mn hoofd zitten
GTX 560 is ongeveer even snel als HD 5870...
Desondanks blijf ik sceptisch over twee GF110-gpu's op een kaart.
Zojuist even naar mijn eigen tests gekeken en daarin waren twee GTX 460's langzamer dan een HD 5970. Niet vreemd want de GTX 460 is iets langzamer dan een HD 5850, en twee daarvan = HD 5970.
Een GTX 560 is wel een pak sneller dan een GTX 460, maar samen zullen ze dus misschien 10 procent sneller zijn dan een HD 5970, wat tegenvalt. Met andere woorden, ik had de getalletjes verkeerd in mn hoofd zitten
Desondanks blijf ik sceptisch over twee GF110-gpu's op een kaart.
[ Voor 6% gewijzigd door Marc Rademaker op 30-01-2011 15:26 ]
Mja, wellicht laat nvidia de prestatiekrooon links liggen en gaan ze gewoon voor een dual GF114 met heel erg goede bang for buck en nVidia surround op 1 kaart (ook twee hele goede verkoopargumenten). Ik lees hier wel af en toe dat een aantal denkt dat nVidia geen dual GPU kaart gaat maken als hij niet sneller is dan een dual GPU kaart van AMD, maar ik zie niet in waarom de absolute prestatiekroon per definitie een vereiste is voor een dual Fermi kaart.
Ik ook maar met twee GF114's schieten ze niks op.Marc Rademaker schreef op zondag 30 januari 2011 @ 15:25:
Desondanks blijf ik sceptisch over twee GF110-gpu's op een kaart.
Springstof schreef op zondag 30 januari 2011 @ 15:38:
Mja, wellicht laat nvidia de prestatiekrooon links liggen en gaan ze gewoon voor een dual GF114 met heel erg goede bang for buck en nVidia surround op 1 kaart (ook twee hele goede verkoopargumenten). Ik lees hier wel af en toe dat een aantal denkt dat nVidia geen dual GPU kaart gaat maken als hij niet sneller is dan een dual GPU kaart van AMD, maar ik zie niet in waarom de absolute prestatiekroon per definitie een vereiste is voor een dual Fermi kaart.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zou het dan niet logisch geweest zijn voor nVidia om al een Dual-GPU kaart te maken op basis van GF104's? Dat was vele malen gemakkelijker geweest en had je 2 erg belangrijke verkoopargumenten ook kunnen hanteren.Springstof schreef op zondag 30 januari 2011 @ 15:38:
Mja, wellicht laat nvidia de prestatiekrooon links liggen en gaan ze gewoon voor een dual GF114 met heel erg goede bang for buck en nVidia surround op 1 kaart (ook twee hele goede verkoopargumenten). Ik lees hier wel af en toe dat een aantal denkt dat nVidia geen dual GPU kaart gaat maken als hij niet sneller is dan een dual GPU kaart van AMD, maar ik zie niet in waarom de absolute prestatiekroon per definitie een vereiste is voor een dual Fermi kaart.
Waarschijnlijk waren ze al bezig met een GTX 560, die een betere performance/watt heeft.dahakon schreef op zondag 30 januari 2011 @ 15:47:
[...]
Zou het dan niet logisch geweest zijn voor nVidia om al een Dual-GPU kaart te maken op basis van GF104's? Dat was vele malen gemakkelijker geweest en had je 2 erg belangrijke verkoopargumenten ook kunnen hanteren.
Welke betere performance/watt? Een GF114 is niet meer dan een volledig werkende GF104. Als ik ook kijk naar performance en verbruik is er toch echt niks verbeterd, of doelde je op de niet kloppende opgegeven TDP, als je daar naar kijkt is het idd beter.Springstof schreef op zondag 30 januari 2011 @ 16:02:
[...]
Waarschijnlijk waren ze al bezig met een GTX 560, die een betere performance/watt heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Mij lijkt een dual GF114 ook logischer, als ze een beetje de zuinige chipjes eruit pikken en iets de clocks omhoog schroeven + wat extra mem dan moet het toch wel een aardig kaartje worden die net onder de 300watt kan blijven.
BTW ik heb in mijn hoofd zitten dat de GTX485m dezelfde chip is als de GTX560, ik weet alleen niet waarom.. --> even zoekken
BTW ik heb in mijn hoofd zitten dat de GTX485m dezelfde chip is als de GTX560, ik weet alleen niet waarom.. --> even zoekken
[ Voor 23% gewijzigd door Toettoetdaan op 30-01-2011 16:14 ]
GTX 460 @ GTX 560 kloks verbruikt meer dan de 560, maar is langzamer-The_Mask- schreef op zondag 30 januari 2011 @ 16:12:
[...]
Welke betere performance/watt? Een GF114 is niet meer dan een volledig werkende GF104. Als ik ook kijk naar performance en verbruik is er toch echt niks verbeterd, of doelde je op de niet kloppende opgegeven TDP, als je daar naar kijkt is het idd beter.
Dan kunnen ze misschien net in de buurt van twee standaard HD6870's in CrossFire komen, niet intressant voor nVidia. Kan namelijk niet concurreren met de HD6990 aangezien die gewoon stukje sneller gaat zijn, qua prijs moeten ze hem dan waarschijnlijk ook nog eens erg goedkoop op de markt zetten daar zal AMD dan wel voor zorgen. Waardoor de GTX580 dus ook nog eens erg omlaag moet in prijs, waardoor je dus meer met jezelf concurreert dan met AMD.Toettoetdaan schreef op zondag 30 januari 2011 @ 16:13:
Mij lijkt een dual GF114 ook logischer, als ze een beetje de zuinige chipjes eruit pikken en iets de clocks omhoog schroeven + wat extra mem dan moet het toch wel een aardig kaartje worden die net onder de 300watt kan blijven.
Waarschijnlijk omdat ze een hoger voltage op de GPU hebben gezet. Maar dan nog je zei dat een GTX560 een betere performance/watt had wat dus niet zo is. Als je kloksnelheden gaat aanpassen krijg je een scheef beeld. Dan kun je ook een GTX480 een betere performance/watt geven dan een GTX460, als je maar ver genoeg onder klokt en volt.Springstof schreef op zondag 30 januari 2011 @ 16:19:
[...]
GTX 460 @ GTX 560 kloks verbruikt meer dan de 560, maar is langzamer
[ Voor 25% gewijzigd door -The_Mask- op 30-01-2011 16:30 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
In de context, namelijk dual GPU kaarten die onder de 300W moeten blijven en zo goed mogelijk moeten presteren, is de kloksnelheid aanpassen (bijna) inherent aan het te bereiken doel.
Anoniem: 245699
Nu wordt er wel alleen vergeleken met de results van TPU en bij 2560x1600 (idd een reso waar je een dergelijke kaart voor koopt). Echter zullen er ook genoeg zijn die bij 1920x1080 zullen gamen en als ik ff vluchtig de resultaten bij de review van Guru3d door kijk, dan is de GTX560 SLI toch wel vaak ~25-30% sneller dan de GTX580 in-game. Maar ook al zouden we van 30% uitgaan, dan zijn ze dus nooit sneller dan de HD6990, die echt wel meer dan 30% sneller gaat zijn dan de GTX580!
Op 2560x1600 gaat de hoeveelheid geheugen een grotere rol spelen en zal 1gb per gpu al helemaal niet voldoende zijn. Nee, ik denk dat Nvidia het hier gewoon niet gaat halen mits ze zich aan de 300watt grens houden en dan kan je je afvragen hoeveel nut de kaart gaat hebben.
EDIT: Wat dat betreft hebben ze met de GF104 en nog iets meer de GF114 veel goed gemaakt qua stroomverbruik t.o.v. AMD, maar met de GF110 is dit nog niet het geval. Met Kepler weer een kans...
Op 2560x1600 gaat de hoeveelheid geheugen een grotere rol spelen en zal 1gb per gpu al helemaal niet voldoende zijn. Nee, ik denk dat Nvidia het hier gewoon niet gaat halen mits ze zich aan de 300watt grens houden en dan kan je je afvragen hoeveel nut de kaart gaat hebben.
EDIT: Wat dat betreft hebben ze met de GF104 en nog iets meer de GF114 veel goed gemaakt qua stroomverbruik t.o.v. AMD, maar met de GF110 is dit nog niet het geval. Met Kepler weer een kans...
[ Voor 19% gewijzigd door Anoniem: 245699 op 30-01-2011 16:57 ]
Korte vraag,
Ik heb nog een passieve ASUS 9600GT liggen en ga binnenkort downgraden van sli 470 naar gtx 580, heeft het nog zin om de 9600GT als physxkaart erbij te zetten? Of is dat compleet verspilde energie?
Even wat andere specs voor een wat completer beeld:EVGA classified e760-> i7 920 @ 4,2 en mem op 2000Mhz..
thnx!
Ik heb nog een passieve ASUS 9600GT liggen en ga binnenkort downgraden van sli 470 naar gtx 580, heeft het nog zin om de 9600GT als physxkaart erbij te zetten? Of is dat compleet verspilde energie?
Even wat andere specs voor een wat completer beeld:EVGA classified e760-> i7 920 @ 4,2 en mem op 2000Mhz..
thnx!
'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'
Anoniem: 390961
MW1F
Niemand kan nog zeggen dat nvidia het niet kan met de gf110. Wie weet zijn ze wel zover dat het wel lukt.
Het blijft tot nu toe alleen maar speculaties waar wij nix aan hebben. Net als ik zeg dat er wel 2gf110 chips op komen, wat ik nog steeds wel geloof gezien dat nvidia niet zo maar iemand is zoals ons die er over speculeerd maar het zelf ook moet doen, en zoveel meer dan wij weten over wat zij wel en niet kunnen.
Ik neem totnu toe gewoon nog alles met een korreltje zout tot de kaarten er zijn.
Niemand kan nog zeggen dat nvidia het niet kan met de gf110. Wie weet zijn ze wel zover dat het wel lukt.
Het blijft tot nu toe alleen maar speculaties waar wij nix aan hebben. Net als ik zeg dat er wel 2gf110 chips op komen, wat ik nog steeds wel geloof gezien dat nvidia niet zo maar iemand is zoals ons die er over speculeerd maar het zelf ook moet doen, en zoveel meer dan wij weten over wat zij wel en niet kunnen.
Ik neem totnu toe gewoon nog alles met een korreltje zout tot de kaarten er zijn.
[ Voor 96% gewijzigd door Anoniem: 390961 op 31-01-2011 09:30 ]
Je schrijft echt onleesbaar en je logica is ver te zoeken.Anoniem: 390961 schreef op maandag 31 januari 2011 @ 09:23:
MW1F
Niemand kan nog zeggen dat nvidia het niet kan met de gf110. Wie weet zijn ze wel zover dat het wel lukt.
Het blijft tot nu toe alleen maar speculaties waar wij nix aan hebben. Net als ik zeg dat er wel 2gf110 chips op komen, wat ik nog steeds wel geloof gezien dat nvidia niet zo maar iemand is zoals ons die er over speculeerd maar het zelf ook moet doen, en zoveel meer dan wij weten over wat zij wel en niet kunnen.
Ik neem totnu toe gewoon nog alles met een korreltje zout tot de kaarten er zijn.
Als je gezond verstand gebruikt en logisch redeneert, dan kun je een heel eind komen met wat wel of niet tot de mogelijkheid behoort. Het blijft natuurlijk speculatie, maar dat is het geval met veel theorien die toch voor waar worden aangenomen.
TDP van GTX 570 = 217W. Dat is eigenlijk hoger, maar wordt gelimiteerd door die speciale chip. Stel dat ze de GF110-gpu pakken zoals die voor de GTX 570 wordt gebruikt, met 480 Cuda-cores en een 320bit-geheugenbus. Om twee van die chips onder de 300W totaal te houden, moet je de kloksnelheden flink verlagen, met ik gok ongeveer 20-25 procent. Dan hebben twee van dergelijke gpu's weinig nut denk ik.
Het is net zo goed niet te verwachten dat AMD zowel twee volledig geactiveerde en op 880MHz geklokte Cayman-gpu's gaat gebruiken voor de HD 6990. Het is of alle 1536 sp's, of minder en op hogere kloksnelheid.
Anoniem: 390961
Tjah aan mijn schrijf stijl kan ik helaas niets doen want ik heb alleen maar IE en weet geen progamma's voor mijn dislecte. Helaas word dit heel vaak tegen mij gezegt maar mensen moeten dat maar accepteren want mijn voorige post vind ik goed genoeg te lezen.
OT
Ik blijf bij mijn gedachten gang over wat wel en niet kan. Want mischien past nvidia zomaar een
andere functie toe wat totaal nieuw voor ons is. Vandaar dat ik gewoonde kat uit de boom blijf kijken.
En niet zomaar met dingen aan kom waar ik niet zeker van ben. Ik blijf namelijk wel een beetje real.
Ik heb ook liever dat peroonlijkedingen via pm gaan.
OT
Ik blijf bij mijn gedachten gang over wat wel en niet kan. Want mischien past nvidia zomaar een
andere functie toe wat totaal nieuw voor ons is. Vandaar dat ik gewoonde kat uit de boom blijf kijken.
En niet zomaar met dingen aan kom waar ik niet zeker van ben. Ik blijf namelijk wel een beetje real.
Ik heb ook liever dat peroonlijkedingen via pm gaan.
[ Voor 4% gewijzigd door Anoniem: 390961 op 31-01-2011 12:22 ]
Die test van bit-tech is totaal systeemverbruik vanaf het stopcontact. Dus daar zit én alle andere hardware én de inefficiency van de PSU bij.Anoniem: 263922 schreef op zaterdag 29 januari 2011 @ 23:00:
[...]
Als je die Test van Xbit bekijkt zie je hopelijk al snel genoeg dat er totaal niks van klopt, was het maar zo dat de hd4870 en gtx260 onder peak 3D 130 watt verstookten, dat is natuurlijk nonsens.
In deze test nog een bevestiging van wat ik beweer: http://www.bit-tech.net/h...deon-hd-4870-1gb-toxic/13
X-Bit Labs meet precies het stroomverbruik bij de uitgang van de PSU en is dus veel nauwkeuriger dan bijna elke andere site op dit gebied. Als ze dus zeggen dat het verbruik 130W is is het waarschijnlijk ook gewoon 130W.
Marc Rademaker is toch ook realistisch? Kom op, 2x een 200+Watt GPU in een 300Watt GPU stoppen is een beetje te extreem en dus zullen er concessies gedaan moeten worden op dechips. Het is dan beter een GF114 te nemen, omdat het TDP ervan lager is, dus hoef je minder rigoureus aan de chip te sleutelen om hen onder de 300 Watt te krijgen.Anoniem: 390961 schreef op maandag 31 januari 2011 @ 12:09:
Tjah aan mijn schrijf stijl kan ik helaas niets doen want ik heb alleen maar IE en weet geen progamma's voor mijn dislecte. Helaas word dit heel vaak tegen mij gezegt maar mensen moeten dat maar accepteren want mijn voorige post vind ik goed genoeg te lezen.
OT
Ik blijf bij mijn gedachten gang over wat wel en niet kan. Want mischien past nvidia zomaar een
andere functie toe wat totaal nieuw voor ons is. Vandaar dat ik gewoonde kat uit de boom blijf kijken.
En niet zomaar met dingen aan kom waar ik niet zeker van ben. Ik blijf namelijk wel een beetje real.
Het is namelijk bekend dat Fermi alleen goed hard kan lopen als de volts hoog zijn, dus als je sterk de voltages van de chip moet reduceren, neemt de prestatie van de chip ook sterf af. Het is dan beter een kleinere chip te nemen, om zo de voorkomen dat je (te)veel in de voltages moet reduceren, waardoor je prestatie nog (enigszins) goed blijft.
Maar jij bent ook niet zeker ervan dat het 2xGF110 wordt(nog is het echt realistisch), dat is namelijk ook een aanname, net zoals de 2xGF114 aanname. Dus beide "theorieën" mogen hier gerust besproken worden, omdat we geen bronnen hebben die een definitief en solide antwoord verschaffen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 390961
Daarom zeg ik ook ik kijk nog ff de kat uit de boom.
Wie weet gebeurd er wel wat, wat ik of iemand anders niet had verwacht:)
Wie weet gebeurd er wel wat, wat ik of iemand anders niet had verwacht:)
Dit vind ik nog best leesbaar, maar de logica... Het komt erop neer dat je gelooft in 2 gf110 chips, omdat nvidia weet wat ze doen. Natuurlijk weet Nvidia veel meer over hun eigen producten en wat de mogelijkheden zijn, maar dat zegt helemaal niks over wat ze uiteindelijk gaan maken.Anoniem: 390961 schreef op maandag 31 januari 2011 @ 09:23:
ik zeg dat er wel 2gf110 chips op komen, wat ik nog steeds wel geloof gezien dat nvidia niet zo maar iemand is zoals ons die er over speculeerd maar het zelf ook moet doen, en zoveel meer dan wij weten over wat zij wel en niet kunnen.
Moet trouwens alles dubbel komen op een dual-gpu? Als kaart met chip X 200W verbruikt, betekent dit automatisch dat een kaart met 2 chip X'en 400W verbruikt? Zitten er bijvoorbeeld bepaalde onderdelen op die door beide chips worden gebruikt waardoor het verbruik daalt?
Ik denk zelf dat het logischer is dat Nvidia gaat voor x 110 chips. 2 114 chips zijn maar iets beter als 1 GTX 580 dus daar schieten ze niet veel mee op.
Je zou het misschien zelf kunnen testen door "simpelweg" een 580 (of 570) te downclocken tot deze ongeveer 150W verbruikt tijdens max. gebruik.
Anoniem: 390961
Jeps dat geloof ik indd wel. Maar hoe nvidia dat wil doen weet ik niet. Wie weet heeft nvidia
wel wat nieuws bedacht of ontwikkeld waar door het wel kan en dat dan natuurlijk weer stil houd.
Er word niet voor niets geroepen dat er 2gf110 chips op zitten, door verschillende bronnen
wat ook hier in het nieuws is gepost.
Net zoals er werd gezegt dat het onzin was dat nvidia een nieuwe verbeterde 500 series klaar had staan
met vele betere prestaies, zowel sneller, koeler als stiller, dit klinkt in de meeste tweakers en hwiers zijn oren als onzin omdat d ebron zelf nvidia was en nog eenpaar internet site's.
Echt niemand wilde dat geloven vanwege dat er zoveel onzin over nvidia werd vrijgegeven.
Eingelijk moet ik gewoon overal voor open staan want wat er niet is kan wel ofniet gebeuren.
wel wat nieuws bedacht of ontwikkeld waar door het wel kan en dat dan natuurlijk weer stil houd.
Er word niet voor niets geroepen dat er 2gf110 chips op zitten, door verschillende bronnen
wat ook hier in het nieuws is gepost.
Net zoals er werd gezegt dat het onzin was dat nvidia een nieuwe verbeterde 500 series klaar had staan
met vele betere prestaies, zowel sneller, koeler als stiller, dit klinkt in de meeste tweakers en hwiers zijn oren als onzin omdat d ebron zelf nvidia was en nog eenpaar internet site's.
Echt niemand wilde dat geloven vanwege dat er zoveel onzin over nvidia werd vrijgegeven.
Eingelijk moet ik gewoon overal voor open staan want wat er niet is kan wel ofniet gebeuren.
Een GTX570 neemt tijdens games zo'n 200W en tijdens Furmark zo'n 270W, volgens mij wordt er dan ook helemaal niks gelimiteerd bij een GTX570.Marc Rademaker schreef op maandag 31 januari 2011 @ 10:40:
[...]
TDP van GTX 570 = 217W. Dat is eigenlijk hoger, maar wordt gelimiteerd door die speciale chip.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
@ Maxily, nee niet alles hoeft/moet dubbel, maar veel wel. Dus simpelweg 2x200W zal het niet zijn, maar heel veel minder ook niet. AMD bracht het verbruik van de HD 5970 bijvoorbeeld ook terug door chips te pakken die met een lagere spanning toch werkten.
@ themask, in Furmark klokt een GTX 570 gewoon terug hoor.
En vPro, je bent aan het dromen. Tuurlijk heeft Nvidia iets nieuws ontwikkeld, quantumcomputing op een gpu en ze plaatsen niet twee maar 8 gpu's op een enkele pcb die samen tot wel 1000x sneller zijn dan de HD 6990!
Speculatie als:"Wie weet heeft Nvidia wel iets nieuws bedacht" is onzinnig en tijdverspilling.
@ themask, in Furmark klokt een GTX 570 gewoon terug hoor.
En vPro, je bent aan het dromen. Tuurlijk heeft Nvidia iets nieuws ontwikkeld, quantumcomputing op een gpu en ze plaatsen niet twee maar 8 gpu's op een enkele pcb die samen tot wel 1000x sneller zijn dan de HD 6990!
Speculatie als:"Wie weet heeft Nvidia wel iets nieuws bedacht" is onzinnig en tijdverspilling.
Zie nu idd dat die meestal op 250W blijft max, niet altijd overigens wat wel wat vreemd is.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het uitschakelen van OCP en OVP op een GTX570 schijnt dan ook nogal slecht te zijn voor de kaart. Er is wat bezuinigd op de VRMs.
http://www.xtremesystems.org/forums/showthread.php?t=266026
http://www.xtremesystems.org/forums/showthread.php?t=266026
Au!
Vind het wel apart hoor, of vreten die kaarten ineens zoveel stroom om stabiel te blijven als de regulatie wegvalt? Zegt eigenlijk wel iets over het "echte" verbruik van de kaarten, als de VRM's zo dusdanig beschermt moeten worden tegen hoge clocks/volts.
Vind het wel apart hoor, of vreten die kaarten ineens zoveel stroom om stabiel te blijven als de regulatie wegvalt? Zegt eigenlijk wel iets over het "echte" verbruik van de kaarten, als de VRM's zo dusdanig beschermt moeten worden tegen hoge clocks/volts.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Staan er ook een paar tussen die niet met die power limit features hebben liggen prutsen.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Anoniem: 390961
Mmm thnx.Edmin schreef op maandag 31 januari 2011 @ 13:39:
Het uitschakelen van OCP en OVP op een GTX570 schijnt dan ook nogal slecht te zijn voor de kaart. Er is wat bezuinigd op de VRMs.
http://www.xtremesystems.org/forums/showthread.php?t=266026
Ik ga er dan ook maar niet meer mee spelen.
Heb mijn kaarten al een poosje op 1.125V staan ik klockde kaarten maarweer trug
tothier meer duidelijkheid over is.
Zeg dan meteen dat de GTX485m maar 100watt verbruikt dus dat er wel drie van op een kaart passen (A)Marc Rademaker schreef op maandag 31 januari 2011 @ 13:15:
@ Maxily, nee niet alles hoeft/moet dubbel, maar veel wel. Dus simpelweg 2x200W zal het niet zijn, maar heel veel minder ook niet. AMD bracht het verbruik van de HD 5970 bijvoorbeeld ook terug door chips te pakken die met een lagere spanning toch werkten.
@ themask, in Furmark klokt een GTX 570 gewoon terug hoor.
En vPro, je bent aan het dromen. Tuurlijk heeft Nvidia iets nieuws ontwikkeld, quantumcomputing op een gpu en ze plaatsen niet twee maar 8 gpu's op een enkele pcb die samen tot wel 1000x sneller zijn dan de HD 6990!
Speculatie als:"Wie weet heeft Nvidia wel iets nieuws bedacht" is onzinnig en tijdverspilling.
overigens meen ik dat shapire een keer een HD4850x3 heeft gemaakt, bleef helaas een prototype
Anoniem: 390961
Jeps het worden gewoon 2 gf110chips die trug worden geklockt omdatGeForce GTX 590 in February with dual GF110Graphics http://www.nordichardware...uary-with-dual-gf110.html
volgens nvidia dit een betere oplossing is volgens het verhaal van nvidia zelf.
[ Voor 39% gewijzigd door Anoniem: 390961 op 31-01-2011 16:03 ]
nVidia heeft idd die info gewoon even aan Nordichardware gegeven.

[ Voor 9% gewijzigd door -The_Mask- op 31-01-2011 16:09 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 390961
Ik denk het wel.
Maar dat zien we wel in feb toch?
In feb zal ik er nog eens op trug komen ook, ook als ik fout zat
Maar dat zien we wel in feb toch?
In feb zal ik er nog eens op trug komen ook, ook als ik fout zat
[ Voor 41% gewijzigd door Anoniem: 390961 op 31-01-2011 16:12 ]
Het gaat niet zozeer of je het goed of fout hebt, maar dat het niks te maken heeft met de discussie over het nieuws (nieuwe informatie) over nVidia.Anoniem: 390961 schreef op maandag 31 januari 2011 @ 16:11:
In feb zal ik er nog eens op trug komen ook, ook als ik fout zat
Ik vond dat artikel van Nordichardware verdacht weinig bronnen / referenties hebben.
Gebruik Firefox en installeer een Nederlands woordenboek. Ik ben zelf ook dyslectisch als jij dyslexie bedoelt met dislecteAnoniem: 390961 schreef op maandag 31 januari 2011 @ 12:09:
Tjah aan mijn schrijf stijl kan ik helaas niets doen want ik heb alleen maar IE en weet geen progamma's voor mijn dislecte. Helaas word dit heel vaak tegen mij gezegt maar mensen moeten dat maar accepteren want mijn voorige post vind ik goed genoeg te lezen.
Vandaag was de launch van de GT 440 (niet OEM) welke een stukje trager is dan de GT440 OEM. De GPU verschilt overigens ook GF108 vs GF106. Dit is gedaan om weer wat duidelijkheid te scheppen. 
http://www.nvidia.com/object/product-geforce-gt-440-us.html
http://www.nvidia.com/obj...eforce-gt-440-oem-us.html
http://www.techpowerup.co...SUS/GeForce_GT_440/1.html
Stukje trager dan de HD5670, maar volgens TPU is de prijs wel 1/3 zo hoog als de HD5670, prima koop dus.
http://www.nvidia.com/object/product-geforce-gt-440-us.html
http://www.nvidia.com/obj...eforce-gt-440-oem-us.html
http://www.techpowerup.co...SUS/GeForce_GT_440/1.html
Stukje trager dan de HD5670, maar volgens TPU is de prijs wel 1/3 zo hoog als de HD5670, prima koop dus.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De kaart past dus qua naam prima in de GT4xx serie.
De performance per dowlaaa is ook lekker.
De performance per dowlaaa is ook lekker.
Sarcasme?-The_Mask- schreef op dinsdag 01 februari 2011 @ 20:42:
Stukje trager dan de HD5670, maar volgens TPU is de prijs wel 1/3 zo hoog als de HD5670, prima koop dus.

Edit
Had ik wel door, maar mij verbaasde ook de prijs van de nieuwe kaart gezien zijn prestaties.
[ Voor 18% gewijzigd door karstnl op 02-02-2011 19:48 ]
Natuurlijk sarcasme. Een GT430 kost op dit moment ongeveer €60, een HD5670 ongeveer €66. Qua prijs zal de GT440 eerder tegen de HD5750 aan komen te liggen. Dat is een behoorlijke faal voor NV.
Rumours About New Dual-Chip Flagship Graphics Card from Nvidia Resurrect.
Nvidia Preps GeForce GTX 590 Dual-GPU Graphics Card
Ze zouden idd van plan zijn twee volledige GF110's te gebruiken en dus ook voor elke GPU 1,5GB geheugen met een 384 bit bus.Nvidia Corp. reportedly plans to release a new dual-chip flagship graphics card next month in a bid to compete against AMD Radeon HD 6990, the forthcoming flagship from the arch-rival. The novelty will, apparently, be based on the top-of-the-range code-named GF110 graphics processing unit (GPU).
Little is known about the graphics card that is said to be called GeForce GTX 590. The board is presumably set to be based on two GF110 graphics chips and will therefore have 1024 stream processing units, 128 texture units and 96 raster operation units in total. In order to simplify the design of the board, the GF110 chips will rely on two 384-bit memory buses to connect to 3072MB of GDDR5 memory (each chip will have 1536MB frame-buffer).
Onderstaand PCB zou idd veel op de GTX590 moeten lijken, al is die niet 100% identiek. Wel zouden de twee 8 pins PCI-e aansluitingen kloppen.Several web-sites have already published images of the yet unreleased dual-GPU graphics boards powered by Nvidia's graphics processors, but it is not completely clear whether the solutions are actually set to be released by all Nvidia's partners or just by some of them. It is also uncertain whether the cards will be launched at all; back in the past several makers demonstrated dual-chip prototypes, but did not release them commercially afterwards.

Based on images published on NordicHardware and TechConnect web-sites, the dual-GPU GeForce GTX 590 will have two 8-pin PCI Express power connectors, thus, will consume between 300W and 375W.

Hier zit Xbitlabs een beetje mis. Ze hebben het over een HD6870 terwijl Antilles toch echt bestaat uit twee Cayman's en niet twee Barts GPU's. Als het een typefout is dan vergeten ze nog wat. Bijvoorbeeld dat CrossFire bij de HD6000 serie een stuk beter schaalt dan SLi bij de GTX500 kaarten. En niet te vergeten dat nVidia het stroomverbruik veel verder terug moet dringen dan AMD, zelfs al zou AMD niet over de 300W gaan en nVidia 375W aan houdt.Given the fact that Nvidia GeForce GTX 580 graphics card is significantly faster ATI Radeon HD 6870, the dual-chip GeForce GTX 590 will have all chances to outperform the Radeon HD 6990 code-named Antilles. Although the flagship graphics cards do not represent a substantial share of AMD's or Nvidia's revenues, they attract attention to the "GeForce" and "Radeon" brands and therefore advertize mainstream products and prove technological leadership of their developers.
Afbeelding hieronder is trouwens een dubbele GF104/GF114.

But I did.Nvidia did not comment on the news-story.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hier een uitgebreid bericht met de meeste modellen die op de markt zullen komen. Getuige het aantal views en de reacties lijkt het een vrij insignificante videokaart te worden.-The_Mask- schreef op dinsdag 01 februari 2011 @ 20:42:
Vandaag was de launch van de GT 440 (niet OEM) welke een stukje trager is dan de GT440 OEM. De GPU verschilt overigens ook GF108 vs GF106. Dit is gedaan om weer wat duidelijkheid te scheppen.
http://www.nvidia.com/object/product-geforce-gt-440-us.html
http://www.nvidia.com/obj...eforce-gt-440-oem-us.html
http://www.techpowerup.co...SUS/GeForce_GT_440/1.html
Stukje trager dan de HD5670, maar volgens TPU is de prijs wel 1/3 zo hoog als de HD5670, prima koop dus.
http://nl.hardware.info/n...ert-nieuwe-geforce-gt-440
Goud is geen geld
Volgens mij zijn de pageviews van een budget kaart nooit hoog. Maar je hebt wel veel moeite gedaan voor zo'n flut kaartje.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nu nog een volledige review van al die kaartjes om te kijken of de gebruikte types of grootte van geheugen op zo'n kaart eigenlijk wel nog verschil uitmaken ...
Anyway toch een mooie opsomming
/me vraagt zich eigenlijk af welke specs hij morgen ofzo in de TS moet zetten met zoveel afwijkende kaartjes .., standaard geheugen is geloof ik meer de uitzondering dan de regel ..
Anyway toch een mooie opsomming
/me vraagt zich eigenlijk af welke specs hij morgen ofzo in de TS moet zetten met zoveel afwijkende kaartjes .., standaard geheugen is geloof ik meer de uitzondering dan de regel ..
Een GT 440 DDR3 is niet meer dan een overgeklokte GT 430.
Een GT 440 DDR3 is zo'n 10% sneller dan een GT 430 en een GT 440 GDDR5 is zo'n 10% sneller dan de DDR3 versie.
Een GT 440 DDR3 is zo'n 10% sneller dan een GT 430 en een GT 440 GDDR5 is zo'n 10% sneller dan de DDR3 versie.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
En door de prijs zijn beide niet echt interessant.-The_Mask- schreef op dinsdag 01 februari 2011 @ 23:52:
Een GT 440 DDR3 is niet meer dan een overgeklokte GT 430.
Een GT 440 DDR3 is zo'n 10% sneller dan een GT 430 en een GT 440 GDDR5 is zo'n 10% sneller dan de DDR3 versie.
Anoniem: 245699
NVIDIA handpicks GF110 chips for GeForce GTX 590
Mits waar, dan wordt ie vrij duur en niet verkrijgbaar..
[ Voor 5% gewijzigd door Anoniem: 245699 op 03-02-2011 13:10 ]
Nvidia kennende waarschijnlijk wel, maar het hoeft niet, AMD doet dit ook voor zijn dual-chip kaarten.Anoniem: 245699 schreef op donderdag 03 februari 2011 @ 13:09:NVIDIA handpicks GF110 chips for GeForce GTX 590
Mits waar, dan wordt ie vrij duur en niet verkrijgbaar..Een prestige project dus...
"handpicks"...
Beter van niet - blijf met je klauwen van het silicium af
nVidia is de meester geworden van product binning. Voor iedere onvolkomenheid is een videokaart te maken. Full shaders, maar lagere frequentie en beperkte TDP... ik gok dat ze complete chips gaan selecteren met een lage lekstroom (en dat blijkt ook uit het artikel). Complete chips met een lekstroom "on par" gaan in de normale GTX 580's. Producten met een hoge lekstroom worden als premium/OC kaarten verkocht. Chips met een imperfectie worden verkocht als GTX 570, waar ongetwijfeld weer in lekstroom bins wordt ingedeeld.
Ik vind dit eerlijk gezegd niet echt nieuws maar logische bedrijfsvoering. Ik twijfel er niet aan dat AMD precies het zelfde doet. Maar dit is, bovenal, marketing. Zo kennen we de groenen weer...
Ow, en ik twijfel er niet aan dat "handpicking/cherrypicking" gewoon geautomatiseerd gaat... niks romantiek
Beter van niet - blijf met je klauwen van het silicium af
nVidia is de meester geworden van product binning. Voor iedere onvolkomenheid is een videokaart te maken. Full shaders, maar lagere frequentie en beperkte TDP... ik gok dat ze complete chips gaan selecteren met een lage lekstroom (en dat blijkt ook uit het artikel). Complete chips met een lekstroom "on par" gaan in de normale GTX 580's. Producten met een hoge lekstroom worden als premium/OC kaarten verkocht. Chips met een imperfectie worden verkocht als GTX 570, waar ongetwijfeld weer in lekstroom bins wordt ingedeeld.
Ik vind dit eerlijk gezegd niet echt nieuws maar logische bedrijfsvoering. Ik twijfel er niet aan dat AMD precies het zelfde doet. Maar dit is, bovenal, marketing. Zo kennen we de groenen weer...
Ow, en ik twijfel er niet aan dat "handpicking/cherrypicking" gewoon geautomatiseerd gaat... niks romantiek
License to use this text for use in LLM-related products and services can be purchased for €1.000
Anoniem: 263922
Het is echt niet raar wat zowel Nvidia als AMD doen, ben ik even blij dat jij daar niks over te zeggen hebt, anders zaten beide bedrijven nu met de handen in het haar...
Het is economisch onverantwoord om voor iedere plek in de markt een andere chip te gaan ontwerpen, het gebeurt al heel lang dat men niet 100% werkende chips verkoopt als lagere modellen, door er softwarematig een blokkade in aan te brengen, of vaker, een lasercut toe te passen.
Een recent voorbeeld is de hd6950 van AMD, leuk voor de mensen die hem flashen naar een hd6970, minder leuk voor AMD, maar aan de andere kant is het een mooie marketing actie, ze gooien een lasercut in de nieuwe batch. Mensen die denken dat ze eventueel een betere kaart kunnen verkrijgen kiezen dan sneller voor een hd6950 ipv een gtx570, als hij achteraf niet te flashen is, is het nog steeds een win-situatie voor AMD.
Ik zou ook niet de logica weten achter het verkopen van chips met een hoge lekstroom als OC modellen, denk dat je daar juist de chips met lage lekstroom bedoelt, die met hoge zullen ze hopelijk afschrijven
.
Die gtx590 en ook de hd6990 worden de meest high-end kaarten, die gaan lang niet zo vaak over de toonbank als de lagere high-end modellen, de klant mag voor dat geld echter wel een top kaart verwachten, ook voor AMD en Nvidia is het belangrijk dat de kaarten goed uit de verf komen, het gaat immers om het vlaggenschip van hun huidige line-up, wat weer een stukje marketing vertegenwoordigt.
Ik weet ook niet wat er aan het hele chipselectie-gebeuren als "zo kennen we de groenen weer" af te doen is, het zal niet anders gaan bij andere chipbakkers, in chips zit er zowieso een mogelijkheid om ze geautomatiseerd te kunnen testen, met de hand is dat veel te duur. Heeft weinig te maken met marketing...
Er hoeft al helemaal geen romantiek bij voor te komen, het gaat om zwarte getallen schrijven, ieder chipje met liefde controleren past niet in dat streven, de concurrent gaat stug door.
Het is economisch onverantwoord om voor iedere plek in de markt een andere chip te gaan ontwerpen, het gebeurt al heel lang dat men niet 100% werkende chips verkoopt als lagere modellen, door er softwarematig een blokkade in aan te brengen, of vaker, een lasercut toe te passen.
Een recent voorbeeld is de hd6950 van AMD, leuk voor de mensen die hem flashen naar een hd6970, minder leuk voor AMD, maar aan de andere kant is het een mooie marketing actie, ze gooien een lasercut in de nieuwe batch. Mensen die denken dat ze eventueel een betere kaart kunnen verkrijgen kiezen dan sneller voor een hd6950 ipv een gtx570, als hij achteraf niet te flashen is, is het nog steeds een win-situatie voor AMD.
Ik zou ook niet de logica weten achter het verkopen van chips met een hoge lekstroom als OC modellen, denk dat je daar juist de chips met lage lekstroom bedoelt, die met hoge zullen ze hopelijk afschrijven
Die gtx590 en ook de hd6990 worden de meest high-end kaarten, die gaan lang niet zo vaak over de toonbank als de lagere high-end modellen, de klant mag voor dat geld echter wel een top kaart verwachten, ook voor AMD en Nvidia is het belangrijk dat de kaarten goed uit de verf komen, het gaat immers om het vlaggenschip van hun huidige line-up, wat weer een stukje marketing vertegenwoordigt.
Ik weet ook niet wat er aan het hele chipselectie-gebeuren als "zo kennen we de groenen weer" af te doen is, het zal niet anders gaan bij andere chipbakkers, in chips zit er zowieso een mogelijkheid om ze geautomatiseerd te kunnen testen, met de hand is dat veel te duur. Heeft weinig te maken met marketing...
Er hoeft al helemaal geen romantiek bij voor te komen, het gaat om zwarte getallen schrijven, ieder chipje met liefde controleren past niet in dat streven, de concurrent gaat stug door.
Ow, nee. Je begrijpt me verkeerd. Ik begrijp product binning heel goed. Het is onderdeel van de bedrijfsvoering van bijna alle producenten van grote chips, simpelweg omdat het het businessmodel veel rendabeler maakt.
Het gaat om de marketing. De meeste mensen kennen nVidia als de grootste en snelste GPU bakker, ze kennen het van PhysX en stereoscopische gaming. Dat is geen technische accomplishment; het is eerder toe te schrijven aan een zeer strak marketingbeleid. Wellicht hebben ze het beste marketingbeleid in de business, als je kijkt naar merkwaarde en merkpromotie.
Bij een strak marketingbeleid hoort ook het oppoetsen van woorden en namen en het oprekken van definities. nVidia is ook daar niet vies van. Voor de massa is dat niet zo erg - die hebben dat niet echt door. Maar als je er wat dieper induikt, dan herken je wat er gezegd wordt, en weet je dat er iets anders mee wordt bedoeld. Ik vond "handpicking" in dit geval daar een typisch voorbeeld van. Vergis je niet: merken zijn emotie. En romantiek (die toch echt geïmpliceerd wordt) is een emotie waarmee merken zich graag identificeren. Van die romantiek blijft weinig over als je de mores van de business kent, zoals je hier boven weergeeft - en blijft er weinig meer over dan een halve leugen.
Het gaat om de marketing. De meeste mensen kennen nVidia als de grootste en snelste GPU bakker, ze kennen het van PhysX en stereoscopische gaming. Dat is geen technische accomplishment; het is eerder toe te schrijven aan een zeer strak marketingbeleid. Wellicht hebben ze het beste marketingbeleid in de business, als je kijkt naar merkwaarde en merkpromotie.
Bij een strak marketingbeleid hoort ook het oppoetsen van woorden en namen en het oprekken van definities. nVidia is ook daar niet vies van. Voor de massa is dat niet zo erg - die hebben dat niet echt door. Maar als je er wat dieper induikt, dan herken je wat er gezegd wordt, en weet je dat er iets anders mee wordt bedoeld. Ik vond "handpicking" in dit geval daar een typisch voorbeeld van. Vergis je niet: merken zijn emotie. En romantiek (die toch echt geïmpliceerd wordt) is een emotie waarmee merken zich graag identificeren. Van die romantiek blijft weinig over als je de mores van de business kent, zoals je hier boven weergeeft - en blijft er weinig meer over dan een halve leugen.
License to use this text for use in LLM-related products and services can be purchased for €1.000
^
Het gaat er meer om dat de 590 waarschijnlijk weer zo'n kaart wordt waar er wereldwijd amper 1 van te krijgen is maar wel onrealistisch veel aandacht krijgt.
Het gaat er meer om dat de 590 waarschijnlijk weer zo'n kaart wordt waar er wereldwijd amper 1 van te krijgen is maar wel onrealistisch veel aandacht krijgt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik zie de logica wel, aangezien ze gewoon beter overklokken.Anoniem: 263922 schreef op donderdag 03 februari 2011 @ 21:01:
Ik zou ook niet de logica weten achter het verkopen van chips met een hoge lekstroom als OC modellen, denk dat je daar juist de chips met lage lekstroom bedoelt, die met hoge zullen ze hopelijk afschrijven.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 263922
Daar zat ik ook mee in mijn achterhoofd eerlijk gezegd, maar de verkoop van deze chips zal normaliter vermeden worden, omdat ze ook meer vermogen trekken. de gf110 heeft van zichzelf al een behoorlijke lekstroom. Aangepaste kaarten zoals de msi lightning komen ook al absurd ver kwa clocks, deze hebben buiten een ver aangepast pcb toch eenzelfde gpu, of zit ik daar fout?
Anoniem: 245699
Dat denk ik dus ook, maar dat is dus ook precies wat ze willen... In de eerste maanden na de intro mag je waarschijnlijk hopen dat je er ergens eentje op voorraad gaat zien...Help!!!! schreef op donderdag 03 februari 2011 @ 21:40:
^
Het gaat er meer om dat de 590 waarschijnlijk weer zo'n kaart wordt waar er wereldwijd amper 1 van te krijgen is maar wel onrealistisch veel aandacht krijgt.
[ Voor 3% gewijzigd door Anoniem: 245699 op 04-02-2011 00:12 ]
Anoniem: 390961
Ik denk als men zo'n kaart echt wil hebben, zal men ook zo'n kaart kunnen krijgen. AMD doet trouwens het zelfde dit keer en die zal ook niet zo veel op de markt te krijgen zijn, net als dat ding van amd wat zo'n special geval nu is.
Maar goed zoals ik al zij, het worden gewoon gf110 chips want nvida wil weer de snelste kaart op de markt brengen en dat hebben ze dus geflikt weer. Ik zie er zelf niet zo'n nut van in want hier zit niet het grote geld. Dus snap als die moeite van nvidia en amd niet. Wel leuk voor mensen als ik maar die zijn er niet veel.
Ik ga er zeker 1 aanschaffen om te testen voor 3 way sli. Ik kan nnamelijk die power welgoed gebruiken.
Wel geining om te zien hoe pro amd mensen alstijd hier zo zitten te vitten over nvidia. Valt gewoon te veel op
hier op tweakers.
Maar goed zoals ik al zij, het worden gewoon gf110 chips want nvida wil weer de snelste kaart op de markt brengen en dat hebben ze dus geflikt weer. Ik zie er zelf niet zo'n nut van in want hier zit niet het grote geld. Dus snap als die moeite van nvidia en amd niet. Wel leuk voor mensen als ik maar die zijn er niet veel.
Ik ga er zeker 1 aanschaffen om te testen voor 3 way sli. Ik kan nnamelijk die power welgoed gebruiken.
Wel geining om te zien hoe pro amd mensen alstijd hier zo zitten te vitten over nvidia. Valt gewoon te veel op
hier op tweakers.
[ Voor 27% gewijzigd door Anoniem: 390961 op 04-02-2011 09:16 ]
^
In de eerste plaats, voorlopig moet je nog maar afwachten of die 590 uberhaupt de snelste kaart wordt.
Als ie dat al wordt, dan verwacht ik dat ie maar beperkt sneller zal zijn dan de 6990 maar dat zijn prijs significant hoger / onrealistisch hoog wordt evenals het stroomverbruik dat dan ver buiten de specs komt te liggen. Daarom allleen al zullen er maar erg weinig mensen zijn die hem willen kopen. Ik vind het leuk dat ie komt, hoe meer keus hoe beter, maar het wordt ws weer een onzin kaart die veel te veel aandacht krijgt.
De reden dat mensen kritisch op nVidia zijn is, als je even verder kijkt dan je neus lang is, logisch en terecht.
In de ogen van velen heeft nVidia een zeer onsymphatieke manier van zaken doen.
Voor deze mensen is dat ook een overweging, naast de factor wie de snelste kaart heeft.
In de eerste plaats, voorlopig moet je nog maar afwachten of die 590 uberhaupt de snelste kaart wordt.
Als ie dat al wordt, dan verwacht ik dat ie maar beperkt sneller zal zijn dan de 6990 maar dat zijn prijs significant hoger / onrealistisch hoog wordt evenals het stroomverbruik dat dan ver buiten de specs komt te liggen. Daarom allleen al zullen er maar erg weinig mensen zijn die hem willen kopen. Ik vind het leuk dat ie komt, hoe meer keus hoe beter, maar het wordt ws weer een onzin kaart die veel te veel aandacht krijgt.
De reden dat mensen kritisch op nVidia zijn is, als je even verder kijkt dan je neus lang is, logisch en terecht.
In de ogen van velen heeft nVidia een zeer onsymphatieke manier van zaken doen.
Voor deze mensen is dat ook een overweging, naast de factor wie de snelste kaart heeft.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Volgens mij moet jij niet over pro amd mensen beginnen aangezien je zelf pro nvidia bent. Laatste tijd valt het allemaal wel mee met het gevit op nVidiaAnoniem: 390961 schreef op vrijdag 04 februari 2011 @ 09:11:
Ik denk als men zo'n kaart echt wil hebben, zal men ook zo'n kaart kunnen krijgen. AMD doet trouwens het zelfde dit keer en die zal ook niet zo veel op de markt te krijgen zijn, net als dat ding van amd wat zo'n special geval nu is.
Maar goed zoals ik al zij, het worden gewoon gf110 chips want nvida wil weer de snelste kaart op de markt brengen en dat hebben ze dus geflikt weer. Ik zie er zelf niet zo'n nut van in want hier zit niet het grote geld. Dus snap als die moeite van nvidia en amd niet. Wel leuk voor mensen als ik maar die zijn er niet veel.
Ik ga er zeker 1 aanschaffen om te testen voor 3 way sli. Ik kan nnamelijk die power welgoed gebruiken.
Wel geining om te zien hoe pro amd mensen alstijd hier zo zitten te vitten over nvidia. Valt gewoon te veel op
hier op tweakers.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 390961
Zojij kunt goed in mijn hersenen kijken.
Ik ben zowel pro amd als pro nvidia,pro nvidia alsdie het beste voormij heeft op dat moment en pro amd als amd het beste voor mij heeft op dat moment. Dus eingelijk zit ik er midden tussen in dus niet een fanboy van een kant.
Ik ben zowel pro amd als pro nvidia,pro nvidia alsdie het beste voormij heeft op dat moment en pro amd als amd het beste voor mij heeft op dat moment. Dus eingelijk zit ik er midden tussen in dus niet een fanboy van een kant.
[ Voor 65% gewijzigd door Anoniem: 390961 op 04-02-2011 12:18 ]
Anoniem: 390961
Mmm dus dan vind jij de 6990 ook een onzin kaart die te veel aandacht gaat krijgen.Help!!!! schreef op vrijdag 04 februari 2011 @ 10:23:
^
In de eerste plaats, voorlopig moet je nog maar afwachten of die 590 uberhaupt de snelste kaart wordt.
Als ie dat al wordt, dan verwacht ik dat ie maar beperkt sneller zal zijn dan de 6990 maar dat zijn prijs significant hoger / onrealistisch hoog wordt evenals het stroomverbruik dat dan ver buiten de specs komt te liggen. Daarom allleen al zullen er maar erg weinig mensen zijn die hem willen kopen. Ik vind het leuk dat ie komt, hoe meer keus hoe beter, maar het wordt ws weer een onzin kaart die veel te veel aandacht krijgt.
De reden dat mensen kritisch op nVidia zijn is, als je even verder kijkt dan je neus lang is, logisch en terecht.
In de ogen van velen heeft nVidia een zeer onsymphatieke manier van zaken doen.
Voor deze mensen is dat ook een overweging, naast de factor wie de snelste kaart heeft.
Beetje onzin dat het logiesch moe zijn ook als ik verder zou kijken want dat slaat werkelijk nergens op imo,
wantik kanmomenteel niets vindenom kritiesch te zijn. En ik haal geen oude koeien uit de sloot want dat ik het geval niet meer voor nu. Maar goed ik hebal lang wel door zoalsvelen dat hier veel meer pro amd mensen zitten dan pro nvidia mensen op dit forum dat valt gewoon keihard op klaar nuffsad
[ Voor 15% gewijzigd door Anoniem: 390961 op 04-02-2011 12:20 ]
De dual GPU kaarten van AMD zijn gewoon altijd zonder al te veel problemen te krijgen. Gezien hoever het energie gebruik naar beneden gebracht en het cherrypicken van de GPU's waardoor er waarschijnlijk niet zo veel beschikbaar zijn. En de neiging van nVidia om top kaarten een hoog prijskaartje te geven als ze de snelste kaart in handen hebben het wordt even afwachten wat het gaat worden.
time will tell
time will tell
Anoniem: 245699
Ik denk dat AMD's dual kaart wat makkelijker te verkrijgen zal zijn en dat basseer ik op de verkrijgbaarheid van de GTX580 die nu nog steeds niet vollop in de winkels ligt. Maargoed, dat is speculeren.Anoniem: 390961 schreef op vrijdag 04 februari 2011 @ 09:11:
Ik denk als men zo'n kaart echt wil hebben, zal men ook zo'n kaart kunnen krijgen. AMD doet trouwens het zelfde dit keer en die zal ook niet zo veel op de markt te krijgen zijn, net als dat ding van amd wat zo'n special geval nu is.
Maar goed zoals ik al zij, het worden gewoon gf110 chips want nvida wil weer de snelste kaart op de markt brengen en dat hebben ze dus geflikt weer. Ik zie er zelf niet zo'n nut van in want hier zit niet het grote geld. Dus snap als die moeite van nvidia en amd niet. Wel leuk voor mensen als ik maar die zijn er niet veel.
Ik ga er zeker 1 aanschaffen om te testen voor 3 way sli. Ik kan nnamelijk die power welgoed gebruiken.
Wel geining om te zien hoe pro amd mensen alstijd hier zo zitten te vitten over nvidia. Valt gewoon te veel op
hier op tweakers.
Het nut van die kaarten is simpel; prestige... De kosten van die kaart kunnen ze feitelijk deels schuiven onder het marketingsbudget, want dat is deels wat het is. Ze zullen in het nieuws willen komen dat ze naast de snelste GPU nu ook weer de snelste videokaart hebben (ervanuitgaande dat dit lukt, maar men moet nog een slag om de arm houden...) Dus het nut van de kaart kan ik nog wel inzien... Ik vraag me alleen nog steeds af hoe ze onder die 300watt willen blijven...
Maaruh, een dual GPU kaart 3-way SLI gaat je niet lukken... Het aansturen van 6 gpu's wil nog niet zo vlotten.
Het fitten op Nvidia valt de laatste tijd (gelukkig) wel mee. Er zijn tijden geweest dat er door een aantal AMD 'voorstanders' hier teveel werd 'gebashed'. Enne, door sommigen wordt ik ook nog steeds als 'pro-Nvidia' gezien, dus zo heel pro-AMD' schijn ik niet te zijn...
nvida heeft nog niet de snelste kaart op de markt gebracht.Anoniem: 390961 schreef op vrijdag 04 februari 2011 @ 09:11:
Maar goed zoals ik al zij, het worden gewoon gf110 chips want nvida wil weer de snelste kaart op de markt brengen en dat hebben ze dus geflikt weer.
Beetje voorbarige uitspraak of denk ik nu te pro AMD ?
Anoniem: 245699
Haha, nee, nu niet...madmaxnl schreef op vrijdag 04 februari 2011 @ 15:22:
[...]
nvida heeft nog niet de snelste kaart op de markt gebracht.
Beetje voorbarige uitspraak of denk ik nu te pro AMD ?
Door de goede schaling van de 6-serie in CF van AMD gaat Nvidia er een hele kluif aan hebben om de kaart sneller te laten zijn dan de HD6990, ook omdat Nvidia om stroomverbruik te reduceren zeer waarschijnlijk de clocks procentueel verder omlaag moet gooien dan AMD dat hoeft te doen...
Anoniem: 390961
Die vele betere schaling valt mee vind ik als ik sli gtx560 benchmarks zie tegenover de hd 6870 en hd 6950
Als ik dan vergelijk met single kaarten is de hd 6950 maar iets sneller, en in cf vs sli zijn ze ook maar iets sneller.
Single kaarten en cf/sli zijn de onderste benchmarks.
http://www.guru3d.com/art...eforce-gtx-560-ti-review/
Als ik dan vergelijk met single kaarten is de hd 6950 maar iets sneller, en in cf vs sli zijn ze ook maar iets sneller.
Single kaarten en cf/sli zijn de onderste benchmarks.
http://www.guru3d.com/art...eforce-gtx-560-ti-review/
[ Voor 23% gewijzigd door Anoniem: 390961 op 04-02-2011 16:31 ]
Anoniem: 263922
Dat beeld is temeer ontstaan door het "cherry-picken"van reviews, ik denk dat het per game zal verschillen.
Anoniem: 390961
Jeps indd, maar je moet toch wat verzinnen als AMD aanhanger om mensen van nvidia te weren (A)
Check je PM
Check je PM
[ Voor 11% gewijzigd door Edmin op 05-02-2011 18:35 ]
... Misschien moest men maar eens op zoek naar een Alu hoedje...
Als je benchmarks bekijkt van HD5k crossfire setups en vergelijkt met dezelfde benchmarks van HD6k crossfire setups, dan zie je dat HD6k significant beter schaalt dan HD5k in dezelfde games. Dus die conclusie is al los te maken van 'cherry-picked' games om aan te tonen dat Crossfire veel beter is geworden.
Het is dus tamelijk oprecht om je af te vragen of nVidia in staat zal zijn dezelfde efficiency te behalen met hun Dual-GPU kaart als AMD. Temeer wanneer je kijkt naar het punt van de bandbreedte beschikbaar in het PCI-E slot. In het verleden heeft AMD altijd veel beter geschaald wanneer die bandbreedte naar 8x daalde dan nVidia (denk aan een slechts ~2% performancedrop voor een HD5870). NVidia had over het algemeen meer last van beperkte bandbreedte van de PCI-E poort.
Als je benchmarks bekijkt van HD5k crossfire setups en vergelijkt met dezelfde benchmarks van HD6k crossfire setups, dan zie je dat HD6k significant beter schaalt dan HD5k in dezelfde games. Dus die conclusie is al los te maken van 'cherry-picked' games om aan te tonen dat Crossfire veel beter is geworden.
Het is dus tamelijk oprecht om je af te vragen of nVidia in staat zal zijn dezelfde efficiency te behalen met hun Dual-GPU kaart als AMD. Temeer wanneer je kijkt naar het punt van de bandbreedte beschikbaar in het PCI-E slot. In het verleden heeft AMD altijd veel beter geschaald wanneer die bandbreedte naar 8x daalde dan nVidia (denk aan een slechts ~2% performancedrop voor een HD5870). NVidia had over het algemeen meer last van beperkte bandbreedte van de PCI-E poort.
Anoniem: 390961
Jeps je hebt gelijkdat de 6 series beter schaald dan de 5 series, maar datwil niet zeggen dat het ook beter schaald dan de 5 series van nvidia. En als ik benchmarks van nu bekijk gaan ze gewoon gelijk op qua schaling met de nieuwe series.
Verder verschilt het ook aardig per game. In de eene game waar nvidia 90% schaald schaald AMD maar 40%
en anderom ook. Je kunt pas echt praten over een betere schaling als je heel wat games test op winst van een extra kaart, En dan moet de schaling van die kaart ook in die meeste games beter schalen dan de tegenhanger, wat momenteel nog niet het geval is.
Verder verschilt het ook aardig per game. In de eene game waar nvidia 90% schaald schaald AMD maar 40%
en anderom ook. Je kunt pas echt praten over een betere schaling als je heel wat games test op winst van een extra kaart, En dan moet de schaling van die kaart ook in die meeste games beter schalen dan de tegenhanger, wat momenteel nog niet het geval is.
[ Voor 13% gewijzigd door Anoniem: 390961 op 05-02-2011 11:13 ]
En dat de G80, G84, G86, G92 en G94 allemaal massaal dood gaan is ook niet waar volgens jouw....Anoniem: 390961 schreef op zaterdag 05 februari 2011 @ 11:12:
En dan moet de schaling van die kaart ook in die meeste games beter schalen dan de tegenhanger, wat momenteel nog niet het geval is.
GTX590 in maart btw.
[ Voor 3% gewijzigd door -The_Mask- op 05-02-2011 15:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 263922
Daar hebben we het niet over, dat de hd6xxx serie zeer goed schaalt is niet te ontkennen, in veel gevallen zelfs beter dan nvidia. Het blijft echter zo dat je per game het voordeel ziet verschuiven per fabrikant, profiles kunnen ook veel verschil maken, daar heeft AMD alleen maar vooruitgang geboekt.
Wat jammer is dat een enkele review een oneerlijk beeld geeft, in het gtx5xx serie ervaringen topic gaat een gtx560ti een hd6970 2gb voorbij, dat kan in een enkele game voorkomen maar over het algemeen is de nvidia kaart aardig gelijk met een hd6950 1gb. Het punt wat ik wil maken is dus dat je met de beste review eruit zoeken weinig kunt zeggen over de kaarten, er zitten af en toe zulke grote verschillen in dat je je afvraagt hoe ze er op komen. Als je een voorkeur hebt is het natuurlijk leuk om een review te pakken waar jouw kaart (of de kaart die je op het oog hebt) het beste uit de bus komt.
Wat jammer is dat een enkele review een oneerlijk beeld geeft, in het gtx5xx serie ervaringen topic gaat een gtx560ti een hd6970 2gb voorbij, dat kan in een enkele game voorkomen maar over het algemeen is de nvidia kaart aardig gelijk met een hd6950 1gb. Het punt wat ik wil maken is dus dat je met de beste review eruit zoeken weinig kunt zeggen over de kaarten, er zitten af en toe zulke grote verschillen in dat je je afvraagt hoe ze er op komen. Als je een voorkeur hebt is het natuurlijk leuk om een review te pakken waar jouw kaart (of de kaart die je op het oog hebt) het beste uit de bus komt.
[ Voor 44% gewijzigd door Anoniem: 263922 op 05-02-2011 17:42 ]
Lekker relevant weer-The_Mask- schreef op zaterdag 05 februari 2011 @ 15:15:
[...]
En dat de G80, G84, G86, G92 en G94 allemaal massaal dood gaan is ook niet waar volgens jouw....

Yeah well. The Dude abides.
Anoniem: 366114
@ "dat de G80, G84, G86, G92 en G94 allemaal massaal dood gaan is ook niet waar volgens jouw...."
Check eens : Steam Hardware Stats Januari 2011 (~3,1 miljoen gamers) Welke kaart staat nog steeds bovenaan ? Enkele maten van mij hebben er ook nog, niet al die kaarten gaan zomaar dood hoor. Niet dat ik ontken dat er ergens een mogelijke fout zit maar je moet ook erkennen dat die kaarten massaal zijn verkocht en dus ook logisch dat er meer probs op het net circuleren met die reeksen.
On-topic:
GTX590 in Maart ? Nice, ben benieuwd wat dat zal worden
Misschien ook nieuwswaardig (hopelijk nog niet gepost) : GTX580 @ 1,5GHz
Check eens : Steam Hardware Stats Januari 2011 (~3,1 miljoen gamers) Welke kaart staat nog steeds bovenaan ? Enkele maten van mij hebben er ook nog, niet al die kaarten gaan zomaar dood hoor. Niet dat ik ontken dat er ergens een mogelijke fout zit maar je moet ook erkennen dat die kaarten massaal zijn verkocht en dus ook logisch dat er meer probs op het net circuleren met die reeksen.
On-topic:
GTX590 in Maart ? Nice, ben benieuwd wat dat zal worden
Misschien ook nieuwswaardig (hopelijk nog niet gepost) : GTX580 @ 1,5GHz
Anoniem: 245699
Dat je het niet eens bent met vPro prima (dat ben ik ook niet overal), maar deze koe weer uit de sloot trekken wordt wel vermoeiend en ook nog eens totaal niet nodig.-The_Mask- schreef op zaterdag 05 februari 2011 @ 15:15:
[...]
En dat de G80, G84, G86, G92 en G94 allemaal massaal dood gaan is ook niet waar volgens jouw....
Dit topic is gesloten.