[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 28 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op maandag 26 maart 2012 @ 13:43:
[...]

Hmm bij mijn selectie is wel anders, €471.

Kan je ons jou pricewatch link geven?
pricewatch: Asus GeForce GTX 680

En de goedkoopste gtx680

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 22-09 15:37

superwashandje

grofheid alom

XanderDrake schreef op maandag 26 maart 2012 @ 13:43:
[...]

Hmm bij mijn selectie is wel anders, €471.

Kan je ons jou pricewatch link geven?
zie edit :P is al aangepast bij azerty stond er eentje direct leverbaar voor 433. echter: die evga die the mask ook noemt zal inderdaad zo'n bestelactie zijn waarbij je 5 maand achter elkaar elke week te horen krijgt dat de levertijd naar volgende week verschoven is...

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Verwijderd

Ik vraag me af hoe lang ik moet wachten op de hydro copper of een soort gelijke kaart.
Ik wil namelijk PHYSX hebben anders was het gewoon een hd7970 geworden.

Acties:
  • 0 Henk 'm!

  • DRuw
  • Registratie: November 2009
  • Laatst online: 18-08 20:36

DRuw

Bacardi Bat on Ice:)

Ik heb echt niet de illusie dat binnenkort die prijzen echt gaan zakken hoor...
vandaar dat ik bij alternate de MSI 680 heb gehaald en ik ben er erg tevreden over.
wellciht had ik 3 maanden kunnen wachten voor 2 tientjes minder maargoed, dan ben ik daar blijkbaar te makkelijk in. Ik kan wel tenminste echt lekker gamen nu;)

Deze signature is om volstrekt onduidelijke redenen verwijderd. PVOutput


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
dahakon schreef op maandag 26 maart 2012 @ 13:44:
Laat ze nog even lekker dromen Mask, misschien heeft een enkeling straks nog wel geluk.

Anders zou je ook nog kunnen denken dat omdat de prijs wel heel erg hard naar beneden gaat, de kaart blijkbaar toch niet goed ontvangen is ;)

Ik zag verder al iemand dromen dat nVidia wel even 50 dollar winst zou kunnen pakken bij een prijs van 300 dollar, maar dat is allemaal wel heel erg optimistisch gedacht. Zo heel geweldig zijn de marges in de videokaart industrie voor consumentenkaarten nou ook weer niet. Als dergelijke winsten normaal waren, dan zou nVidia afgelopen financieel jaar wel zo'n 1.5 miljoen kaarten verkocht hebben. Klinkt niet als er veel en klinkt nog minder realistisch. Kijk anders nog eens naar de 'kosten per transistor' slide uit mijn eerdere post.
Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.

Een eventueel verlies zit em volgens mij meer in het niet terug verdiende R&D budget dan in verlies maken op de kaarten als ze voor die prijs gaan verkopen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
DRuw schreef op maandag 26 maart 2012 @ 13:55:
Ik heb echt niet de illusie dat binnenkort die prijzen echt gaan zakken hoor...
vandaar dat ik bij alternate de MSI 680 heb gehaald en ik ben er erg tevreden over.
wellciht had ik 3 maanden kunnen wachten voor 2 tientjes minder maargoed, dan ben ik daar blijkbaar te makkelijk in. Ik kan wel tenminste echt lekker gamen nu;)
Van de GTX680 misschien niet heel veel. Van de 7970 en 7950, 7870 wellicht wel.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op maandag 26 maart 2012 @ 13:56:
[...]


Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.

Een eventueel verlies zit em volgens mij meer in het niet terug verdiende R&D budget dan in verlies maken op de kaarten als ze voor die prijs gaan verkopen.
Weet je ongeveer dan voor welke prijs nvidia de gtx580 maakt? >:)

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Er zal wel een prijzenoorlog losbarsten.

Zowel AMD als nV kunnen met deze kaarten volgens mij nog wel 150 euro zakken in prijs zonder verlies te maken. Voor AMD zal dit problematischer zijn, omdat ze, als ze de prijzen verlagen, ook direct de prijzen van de 7800 moeten aanpassen.

Maar goed dat nV er nu eindelijk is. Kunnen ze elkaar eindelijk weer eens gaan beconcurreren. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Verwijderd schreef op maandag 26 maart 2012 @ 13:49:
Ik vraag me af hoe lang ik moet wachten op de hydro copper of een soort gelijke kaart.
Ik wil namelijk PHYSX hebben anders was het gewoon een hd7970 geworden.
Waarom wil je zo graag PhysX hebben?

Acties:
  • 0 Henk 'm!

Verwijderd

3XPER7 schreef op maandag 26 maart 2012 @ 14:06:
[...]


Waarom wil je zo graag PhysX hebben?
Omdat ik dar altijd nog een antal physx games speel, en in de toekomt dat ook nog wil doen.
Als ik die games niet zou spelen of niet meer ging kopen was het overbodig geweest.

Acties:
  • 0 Henk 'm!

  • ihre
  • Registratie: Juni 2004
  • Laatst online: 12-02 09:36
3XPER7 schreef op maandag 26 maart 2012 @ 14:06:
[...]


Waarom wil je zo graag PhysX hebben?
Misschien speelt ie graag Batman Arkham City :P

http://www.overclock.net/...-windows-7-with-ati-cards

Heb het persoonlijk nog niet geprobeerd though, PhysX op Ati kaarten draaien.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Verwijderd schreef op maandag 26 maart 2012 @ 14:13:
[...]

Omdat ik dar altijd nog een antal physx games speel, en in de toekomt dat ook nog wil doen.
Als ik die games niet zou spelen of niet meer ging kopen was het overbodig geweest.
Noem er eens een paar die je nu echt veel speelt en die je straks wil gaan kopen dan.

Acties:
  • 0 Henk 'm!

  • Fordox
  • Registratie: Maart 2011
  • Laatst online: 22-09 08:22

Fordox

00101010

ik heb mirrors edge ook 2x uitgespeeld, is echt een stuk kaler zonder physx.
is er geen driver mod oid waardoor amd dat ook ondersteund?

Edit: Ik gebruik de edit-knop vaak.


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 22-09 15:27
3XPER7 schreef op maandag 26 maart 2012 @ 14:14:
[...]


Noem er eens een paar die je nu echt veel speelt en die je straks wil gaan kopen dan.
Dit is toch geheel persoonlijk? Het is voor hem een feature die hij zoals gezegd gebruikt in een aantal games, leuk meegenomen voor hem toch :*)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op maandag 26 maart 2012 @ 14:04:
[...]

Weet je ongeveer dan voor welke prijs nvidia de gtx580 maakt? >:)
Nee maar in vergelijking met de GTX680 zal een GTX580 duurder zijn qua materialen.
Fordox schreef op maandag 26 maart 2012 @ 14:15:
ik heb mirrors edge ook 2x uitgespeeld, is echt een stuk kaler zonder physx.
is er geen driver mod oid waardoor amd dat ook ondersteund?
Dat linkt hij net:

http://www.overclock.net/...-windows-7-with-ati-cards

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ik speel nog de badman game, en wil nog Batman Arkham City kopen. Speel metro2033 nog en in de toekomst zullen er ok nog wel games komen.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Dan nog is het niet de AMD kaart die de PhysX-instructies uitvoert, maar een nVidia kaartje die je ernaast zet.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
3XPER7 schreef op maandag 26 maart 2012 @ 14:21:
[...]


Dan nog is het niet de AMD kaart die de PhysX-instructies uitvoert, maar een nVidia kaartje die je ernaast zet.
Ik zag het ja. Dit was om een nVidia kaart als physX kaart te gebruiken. My bad.
Tja zolang nVidia zegt tegen de game devs dat PhysX nVidia only moet zijn en het CUDA only houd. En game devs niet voor DX11 Physics kiezen zul je voorlopig geen physics op AMD kaarten hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Astennu schreef op maandag 26 maart 2012 @ 13:56:
[...]


Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.

Een eventueel verlies zit em volgens mij meer in het niet terug verdiende R&D budget dan in verlies maken op de kaarten als ze voor die prijs gaan verkopen.
Vergeet niet dat de besparing op PCB alweer ongedaan wordt gemaakt met het extra geheugen. Vergeet ook niet dat GF110 op een geheel volwassen en ondertussen veel goedkoper geworden 40nm proces wordt gemaakt, terwijl GK104 op een geheel nieuw en duurder dan ooit proces zit. De besparing door omvang gaat daardoor ook al weer voor een behoorlijk stuk verloren.

Verder denk ik niet dat GF110 veel heeft bijgedragen bij de winst op consumentenproducten, maar juist wel op het gebied van professionele kaarten.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
Voor game developers is physX fantastisch, het is gewoon een goed bruikbare en ondersteunde physics middleware die geloof ik gratis is als je physX in je opstartschermen toont. En voor nvidia is het weer wat reclame. Bovendien zal een enkele leek ook voor een nvidia kaart kiezen vanwege physx.
Arma 3 gaat ook physX gebruiken voor de voertuigen, de mogelijkheid tot gpu physX is niet interessant voor ze omdat je dan de amd gebruikers buitensluit. Alleen cpu physX dus.

Misschien krijg je in de toekomst wel goeie physics middlewares in opencl, maar nvidia gaat dat natuurlijk niet doen, die houdt liever de status quo die ze nu hebben. Als er concurrentie komt zullen ze misschien wel wat in opencl zetten, maar dan mag je er als ontwikkelaar voor dokken denk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
PhysX bedoel je. Physics krijgen we allemaal. PhysX is sowieso niet in staat om de physics (jaja, verwarring) die er echt toe doen op de GPU uit te voeren. Rigid body collisions (twee objecten die tegen elkaar botsen) kunnen ze nog steeds niet, omdat Nvidia geen geld in PhysX steekt. PhysX in de huidige staat is amper veranderd sinds ze AGEIA hebben overgenomen 4 jaar geleden. Juist de natuurkundige dingen die belangrijk zijn voor games kunnen ze niet; verder dan particles komen ze eigenlijk niet.

Nu ik weer op Nvidia zit heb ik dus ook Batman: AC met PhysX. En net als met Arkham Asylum twee jaar geleden denk ik dat ik het binnenkort weer uit zet. Net als in Mafia 2 is het gewoon over the top en onrealistisch; heeft weinig met natuurkunde te maken en alles met uitsloven. Het enige dat er goed uit ziet is de volumetric smoke; en dat had verdorie ook gewoon zonder PhysX gekund. Het papier dat rondvliegt is ronduit belachelijk; ik geloof in elk geval niet dat ik met een scheet een stapel papier meters hoog de lucht in kan blazen. Hetzelfde gold voor Mafia 2; daar heb ik PhysX toen bewust uitgezet omdat het gebrek aan realisme me ontzettend irriteerde (of denken de PhysX fans werkelijk dat je met een 9mm kogel zomaar 3000 stukjes uit een massieve pilaar van gewapend beton kunt schieten?).

Nee, PhysX heeft voor mij nog steeds geen enkele meerwaarde.

Acties:
  • 0 Henk 'm!

Verwijderd

Je hoeft geen leek te zijn om voor physx te kiesen. Ik doe het ook en ben totaal geen leek. Ik wil het juist hebben omdat het de games voor mij wat interessanter maken. Het zit op de kaart dus krijg het er bij, en handig voor die games. En physx kan wel degelijk 2 opjecten tegen elkaar aan laten botsen. Een kogel tegen een alien en dan beweegt alles op een natuurlijke manier. Zelfde geld ook voor een aantal games waar in dit gebeurd met physx.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 26 maart 2012 @ 14:46:
Je hoeft geen leek te zijn om voor physx te kiesen. Ik doe het ook en ben totaal geen leek. Ik wil het juist hebben omdat het de games voor mij wat interessanter maken. Het zit op de kaart dus krijg het er bij, en handig voor die games. En physx kan wel degelijk 2 opjecten tegen elkaar aan laten botsen. Een kogel tegen een alien en dan beweegt alles op een natuurlijke manier. Zelfde geld ook voor een aantal games waar in dit gebeurd met physx.
Dat wordt echter niet op je GPU uitgevoerd, maar op je CPU. Dat is het hele probleem met PhysX, heel veel belangrijke dingen worden gewoon niet op de GPU uitgevoerd.

En er is helemaal NIETS natuurlijks aan hoe het papier in Batman of alle andere particles in bijvoorbeeld Mafia 2 rondvliegen, zoals ik al zei.

[ Voor 9% gewijzigd door Werelds op 26-03-2012 14:53 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 26 maart 2012 @ 14:52:
[...]

Dat wordt echter niet op je GPU uitgevoerd, maar op je CPU. Dat is het hele probleem met PhysX, heel veel belangrijke dingen worden gewoon niet op de GPU uitgevoerd.

En er is helemaal NIETS natuurlijks aan hoe het papier in Batman of alle andere particles in bijvoorbeeld Mafia 2 rondvliegen, zoals ik al zei.
Kun je dat ook beweizen? Dat de CPU dan al dat werk doet?

Er is zeker wel wat natuurlijks aan gezien. Kijk anders maar eens naar die alien demo hoe alles beweegt en die trein. Als je over een hobbel heen komt bewegende veren juist zo dat hij op een natuurlijke manier een bepaalde kant op stuitert. Dan is dan natuurlijke beweging wat gebeurt. En in metro 2033 waar bij stof heel natuurlijk op waait. Net als iemand er in het echte tegen aan blaast, dan gaat het ook zo bewegen, al die deeltjes.

[ Voor 30% gewijzigd door Verwijderd op 26-03-2012 15:00 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
De belangrijke physX berekeningen (dus dingen die echt invloed hebben op de gamewereld) worden idd altijd op de cpu uitgevoerd. Als gamemaker wil je niet alles 2x programmeren. Bovendien moet het voor mensen met een amd kaart ook vlekkeloos draaien, waarom zou je dan de moeite doen om het naar gpu te porten puur voor nvidia kaarten, terwijl het toch al goed draait.

In mafia 2 zijn die optionele apex effecten (die met gpu te versnellen zijn) idd zwaar over the top, maar wel grappig.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 26 maart 2012 @ 14:57:
Kun je dat ook beweizen? Dat de CPU dan al dat werk doet?
Eerste wat zo even in me opkwam: http://physxinfo.com/news...r-physx-cloth-simulation/
Er zijn er nog meer, maar waar het vooral op neerkomt is dat bepaalde berekeningen simpelweg niet mogelijk zijn op de GPU (of slecht draaien) vanwege de afwijkende register groottes en dergelijke. Let maar eens op je CPU usage in Batman, met PhysX aan is dat gewoon hoger dan met PhysX uit.

Er zijn in APEX inmiddels wat verbeteringen doorgevoerd en er kan ook wel iets van rigid body collision uitgevoerd worden, maar ze zijn bij mijn weten nog steeds niet in staat dit gelijktijdig met graphics uit te voeren; met andere woorden, je hebt een tweede GPU nodig die puur als PPU dienst doet. Wat echter nog veel dommer is, is dat er bugs in de RBC implementatie zitten (althans in de UDK versie van begin dit jaar) die het nagenoeg onbruikbaar maken.
Er is zeker wel wat natuurlijks aan gezien. Kijk anders maar eens naar die alien demo hoe alles beweegt en die trein. Als je over een hobbel heen komt bewegende veren juist zo dat hij op een natuurlijke manier een bepaalde kant op stuitert. Dan is dan natuurlijke beweging wat gebeurt. En in metro 2033 waar bij stof heel natuurlijk op waait. Net als iemand er in het echte tegen aan blaast, dan gaat het ook zo bewegen, al die deeltjes.
Die Alien demo zit geen PhysX in, dat is een tessellation demo. Welke trein bedoel je? Overigens is het "stuiteren over een hobbel" absoluut niets van de GPU, dat is gewoon CPU werk; komt ook nauwelijks iets van natuurkunde bij kijken.

En zoals ik al zei, volumetric smoke (en daar valt stof dus ook onder) zijn zo'n beetje het enige boeiende dat we in games hebben gezien; en Cryostasis natuurlijk. Maar juist dingen zoals de particles in Batman/Mafia 2/Rocketsled demo (bedoelde je die met de trein?) zijn belachelijk onrealistisch.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
dahakon schreef op maandag 26 maart 2012 @ 14:35:
[...]


Vergeet niet dat de besparing op PCB alweer ongedaan wordt gemaakt met het extra geheugen. Vergeet ook niet dat GF110 op een geheel volwassen en ondertussen veel goedkoper geworden 40nm proces wordt gemaakt, terwijl GK104 op een geheel nieuw en duurder dan ooit proces zit. De besparing door omvang gaat daardoor ook al weer voor een behoorlijk stuk verloren.

Verder denk ik niet dat GF110 veel heeft bijgedragen bij de winst op consumentenproducten, maar juist wel op het gebied van professionele kaarten.
De GTX580 heeft meer chips maar wel kleinere qua opslag. De GTX680 Heeft er minder maar met meer opslag. Ik denk dat dat elkaar redelijk opheft. GTX580 heeft een complexer pcb met meer banen voor het geheugen. En heeft meer onderdelen voor de Power nodig.

Dat is wel waar maar ik denk dat een 300nm2 28nm chip nog steeds een stuk goedkoper is als een 550mm2 40nm. Als dat niet zo zou zijn zouden nVidia en AMD niet over stappen. Dan wordt een chip die groter of net zo groot is als de vorige top chip gewoon te duur. (als een 300mm chip net zo duur zou zijn of duurder dan een 550mm op de vorige generatie)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DP Kunst
  • Registratie: Juni 2003
  • Laatst online: 10-09 22:34
Astennu schreef op maandag 26 maart 2012 @ 15:57:
[...]


De GTX580 heeft meer chips maar wel kleinere qua opslag. De GTX680 Heeft er minder maar met meer opslag. Ik denk dat dat elkaar redelijk opheft. GTX580 heeft een complexer pcb met meer banen voor het geheugen. En heeft meer onderdelen voor de Power nodig.
Hoe een PCB geroute is maakt geen reet uit voor de prijs. Baantjes meer of minder maakt helemaal niets uit. Als het aantal lagen en de specs van de PCBs hetzelfde zijn maakt het in prijs 0,0 verschil.

Mijn nieuwe portfolio (Under Construction) | Benieuwd wat Solar Team Twente gaat doen?


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 22:04
dahakon schreef op maandag 26 maart 2012 @ 13:44:
Laat ze nog even lekker dromen Mask, misschien heeft een enkeling straks nog wel geluk.

Anders zou je ook nog kunnen denken dat omdat de prijs wel heel erg hard naar beneden gaat, de kaart blijkbaar toch niet goed ontvangen is ;)

Ik zag verder al iemand dromen dat nVidia wel even 50 dollar winst zou kunnen pakken bij een prijs van 300 dollar, maar dat is allemaal wel heel erg optimistisch gedacht. Zo heel geweldig zijn de marges in de videokaart industrie voor consumentenkaarten nou ook weer niet. Als dergelijke winsten normaal waren, dan zou nVidia afgelopen financieel jaar wel zo'n 1.5 miljoen kaarten verkocht hebben. Klinkt niet als er veel en klinkt nog minder realistisch. Kijk anders nog eens naar de 'kosten per transistor' slide uit mijn eerdere post.
Leuk he lekker kortzichtig lullen |:( heb je mij horen zeggen dat dat het daadwerkelijke scenario is? Nee, dan hoef je het dus ook niet in je zogenaamde argument te gebruiken. En sterker, jij weet niet welke marges ze pakken dus jou speculatie is geen feit.
Werelds schreef op maandag 26 maart 2012 @ 15:14:
[...]

Eerste wat zo even in me opkwam: http://physxinfo.com/news...r-physx-cloth-simulation/
Er zijn er nog meer, maar waar het vooral op neerkomt is dat bepaalde berekeningen simpelweg niet mogelijk zijn op de GPU (of slecht draaien) vanwege de afwijkende register groottes en dergelijke. Let maar eens op je CPU usage in Batman, met PhysX aan is dat gewoon hoger dan met PhysX uit.

Er zijn in APEX inmiddels wat verbeteringen doorgevoerd en er kan ook wel iets van rigid body collision uitgevoerd worden, maar ze zijn bij mijn weten nog steeds niet in staat dit gelijktijdig met graphics uit te voeren; met andere woorden, je hebt een tweede GPU nodig die puur als PPU dienst doet. Wat echter nog veel dommer is, is dat er bugs in de RBC implementatie zitten (althans in de UDK versie van begin dit jaar) die het nagenoeg onbruikbaar maken.


[...]

Die Alien demo zit geen PhysX in, dat is een tessellation demo. Welke trein bedoel je? Overigens is het "stuiteren over een hobbel" absoluut niets van de GPU, dat is gewoon CPU werk; komt ook nauwelijks iets van natuurkunde bij kijken.

En zoals ik al zei, volumetric smoke (en daar valt stof dus ook onder) zijn zo'n beetje het enige boeiende dat we in games hebben gezien; en Cryostasis natuurlijk. Maar juist dingen zoals de particles in Batman/Mafia 2/Rocketsled demo (bedoelde je die met de trein?) zijn belachelijk onrealistisch.
Physx zou in theorie totaal over de gpu moeten gaan bij nvidia kaarten

Wikipedia: PhysX

Uiteraard is het allemaal wat minder spectaculair als men zei maarja het idee was leuk. Maar is er bij de 680 nu niet een soort nieuwe physx?

YouTube: Introducing The GeForce GTX 680

Stukje over physx waarbij ze zeggen dat het nu anders te programmeren is.

Hoeveel games er gebruik van gaan maken zullen we zien maarja het is wat leuks kwa extra.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jasper 99 schreef op maandag 26 maart 2012 @ 16:52:
Leuk he lekker kortzichtig lullen |:( heb je mij horen zeggen dat dat het daadwerkelijke scenario is? Nee, dan hoef je het dus ook niet in je zogenaamde argument te gebruiken. En sterker, jij weet niet welke marges ze pakken dus jou speculatie is geen feit.
Nou hoef je niet direct zo aangebrand te doen natuurlijk... Ik zeg nergens dat je het als daadwerkelijk (feitenlijk) scenario bracht. Maar goed, ik heb het al eerder aangegeven, het is wel terug te vinden wat voor marges nVidia haalt.

88 miljoen winst op ~3 miljard omzet in consumentenkaarten, reken de marges maar uit.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

dahakon schreef op maandag 26 maart 2012 @ 17:10:
[...]

88 miljoen winst op ~3 miljard omzet in consumentenkaarten, reken de marges maar uit.
* Fid3lity zal dat wel even doen, te verduidelijking:

88 mln / 3 mld * 100 = ~2,9%
Dus op elke euro van de omzet maken ze -gemiddeld- 3 cent winst. Pakken we even de langdurige prijs van le GTX580 erbij, a la ~ 450 euro, dan zien we dat er op zo'n kaart bij die prijs (gemiddeld natuurlijk) ongeveer 13 euro winst wordt gemaakt.

Nou zul je zeggen, "13 euro per kaart, da's weinig" en dat klopt ook. Ze zullen vast wel werken met verschillende marges op verschillende kaarten want niet elk segment verkoopt natuurlijk even goed / veel, maar om even snel mee te werken is dit gemiddelde best bruikbaar. Dat zou ook betekenen dat ze op een GTX560Ti zo'n 6 euro winst per kaart zouden maken.

Maarja, het is wel winst. Als ze het hebben over de totale kosten in dat jaar, zou dat kunnen betekenen dat alle kaarten die nu nog in de schappen liggen al zijn verrekend in de kostprijs aangezien ze in het vorige jaar geproduceerd zijn, daar komen dus geen hoge kosten meer bij. Hooguit voor vervoer, administratie, relatief kleine dingen. De rest zou dan puur extra omzet / winst zijn.

Uiteraard geldt dat hierboven alleen als nVidia de administratie op die manier zou voeren ;)

[ Voor 3% gewijzigd door Fid3lity op 27-03-2012 00:45 ]


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op maandag 26 maart 2012 @ 14:35:
Voor game developers is physX fantastisch, het is gewoon een goed bruikbare en ondersteunde physics middleware die geloof ik gratis is als je physX in je opstartschermen toont.
Dat valt nogal tegen. Er zijn zat goede alternatieven (Bullet, Newton, Havok) die goede resultaten op het scherm van al je klanten produceren, i.p.v. alleen klanten met bepaalde hardware (nvidia gpu die snel genoeg is voor hardware accelerated physics). Er zijn redelijk wat games die PhysX gebruiken, maar verreweg de meesten gebruiken geen hardware accelerated physics, omdat je dan voor een deel van je klanten een alternatief in zal moeten bouwen. Dat is meer werk en kost dus meer. Hardware accelerated physics is eigenlijk alleen interessant als nvidia op je stoep staat met een flinke zak geld, dat is dan ook meteen de reden dat het zo weinig gebruikt wordt.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Jasper 99 schreef op maandag 26 maart 2012 @ 16:52:
Physx zou in theorie totaal over de gpu moeten gaan bij nvidia kaarten
In theorie wel. Maar aangezien PhysX maar half om is geschreven voor gebruik van CUDA, is dat niet het geval. En het gedeelte dat op de CPU loopt, loopt lang niet zo lekker als het zou kunnen omdat men ook daar te lui is om alleen al eens wat SSE instructies te gebruiken, laat staan ECHT te optimaliseren. Nvidia heeft vorig jaar wel beloofd dat ze dat gingen fixen, maar of dat inmiddels gebeurd is weet ik niet - nogmaals, ik heb al vanaf het begin totaal geen interesse in PhysX gehad en dat is nooit veranderd. Niet toen het AGEIA was en ook niet toen het Nvidia werd - en om even duidelijk te zijn, ik ben pas twee jaar na de overname weer terug op AMD overgestapt, dus het is niet alsof ik daarom zo'n hekel aan PhysX heb. Het is gewoon een incomplete physics library die slechts op een deel van de markt werkt; en voor het grootste deel van die markt is de performance impact ook nog dusdanig groot dat die het op laag of zelfs uit zetten.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
volgens mij zijn er nog geen spellen uit met physx middlewares die wel de gpu kunnen aanspreken.

physx zet ook goeie resultaten op het scherm, alleen een stuk goedkoper, dat er geen gpu physx gebruikt worden zal de developers een worst wezen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bullet is Open Source en heeft ook al wat spul via OpenCL lopen, in ieder geval theoretisch.

Verder zou je moeten spreken over physics. PhysX is een merknaam, wat nu eigendom is van nVidia, niet de term voor physics in zijn algemeenheid.

Acties:
  • 0 Henk 'm!

  • el-jorge
  • Registratie: Maart 2005
  • Laatst online: 18-09 11:20

el-jorge

turn around and feel the vibe

Solictice schreef op maandag 26 maart 2012 @ 12:16:
[...]


Zou mooi zijn ja.
Hopen dat de standaard 680's rond de 400 komen, en dan non reference designs rond de 450.
Dan wordt het wellicht wel aantrekkelijk om te upgraden vanaf een 6950.
Wanneer kunnen we non reference kaarten verwachten dan?

Spielerei...


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Vandaag dan eindelijk toch kunnen besluiten met betreffende tot de beste optie voor 3 monitor gaming @ 1920x1200. Stroomverschillen heften elkaar op, FPS output was om en om op dergelijke resoluties en de features by Surround/Eyefinity waren in principe inmiddels gelijk. Vandaag las ik echter nogmaals een paar reviews door en kwam ik op een stukje van HardwareCanucks dat ik vorige x gemist had, omdat ik toen alleen naar de FPS waardes had gekeken.

Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-105.jpg
Bezel correction is an integral part of the Surround experience since it offers continual, break-free images from one screen to the next. However it does tend to hide portions of the image as it compensates for the bezel’s thickness, sometimes leading to in game menus getting cut off. The new Bezel Peaking feature allows gamers to temporarily disable bezel correction by pressing CTRL+ALT+B in order to see and interact with anything being hid. The corrective measures can be enabled again without exiting the application.
Dit was het enige nadeel dat ik soms had met Eyefinity. Iets niet zien dat achter de bezels zat. Normaal gesproken zeg je dan: Tja, zonder 3 monitors had ik dat ook niet gezien, maar er zijn soms nog wel eens momenten dat er iets achter de bezels valt dat je toch echt wilt zien. Om dit zonder enige moeite in een 3D applicatie te kunnen switchen is toch wel :9. Je kunt best wel stellen dat Surround nu Eyefinity, wat betreft features, (voor het eerst) een beetje voorbij is.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Goed nieuws! Wilde al voor de GTX680 gaan voor een triple setup, goed nieuws dus.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op maandag 26 maart 2012 @ 17:31:
* Olaf van der Spek zal dat wel even doen, te verduidelijking:
3 mld / 88 mln * 100 = ~2,9%
Eh? Daar komt toch 3409 uit? :p
Ik weet het, basisrekenen blijft lastig, niet alleen voor PABO studenten.
Pakken we even de langdurige prijs van le GTX580 erbij, a la ~ 450 euro,
nV verkoopt toch helemaal geen kaarten?
En die 450 euro, dat is de prijs die wij betalen, maar niet aan nV.
De rest zou dan puur extra omzet / winst zijn.
Zo werkt het natuurlijk niet.

[ Voor 35% gewijzigd door Olaf van der Spek op 26-03-2012 21:27 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 22-09 16:14
Olaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
[...]

Eh? Daar komt toch 3409 uit? :p
Ik weet het, basisrekenen blijft lastig, niet alleen voor PABO studenten.
Maar het percentage klopt wel :+

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Olaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
Eh? Daar komt toch 3409 uit? :p
Ik weet het, basisrekenen blijft lastig, niet alleen voor PABO studenten.
Zal wel een typo zijn t.o.v. wat ie werkelijk heeft ingevoerd in een calculator.
(88 / 3000) * 100 = 2.93333333 ==> ~2.9%

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Hij heeft de getallen gewoon omgewisseld in het opschrijven. Het is (88mil / 3000mil)*100.

Voor de rest verkoopt nVidia doorgaans alleen een eerste batch kaarten met ref design, net zoals AMD. Daarna, na de eerste lichting, gaan ze doorgaans over op verkoop van GPU or GPU+geheugen.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Net deze review nog even gelezen, echt een goed review http://www.hardwarecanuck...e-gtx-680-2gb-review.html

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
offtopic:
:+, rara waarom zou je die toch gelezen hebben ;).

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Thnx Vipeax:):)

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 22-09 15:37

superwashandje

grofheid alom

Paprika schreef op maandag 26 maart 2012 @ 20:24:
Dit was het enige nadeel dat ik soms had met Eyefinity. Iets niet zien dat achter de bezels zat. Normaal gesproken zeg je dan: Tja, zonder 3 monitors had ik dat ook niet gezien, maar er zijn soms nog wel eens momenten dat er iets achter de bezels valt dat je toch echt wilt zien. Om dit zonder enige moeite in een 3D applicatie te kunnen switchen is toch wel :9. Je kunt best wel stellen dat Surround nu Eyefinity, wat betreft features, (voor het eerst) een beetje voorbij is.
heb je al eyefinity gedraaid dan? als ik me niet vergis heeft AMD hier ook wel mogelijkheden voor. heb 1.5 jaar geleden ofzo 2 maandjes lang eyefinity gedraaid maar was niet mijn ding :P

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Draai Eyefinity sinds september 2009 :P. Die specifieke feature hebben ze niet.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 22-09 15:37

superwashandje

grofheid alom

nee niet die specifieke feature maar ze hebben wel de keuze tussen wel en geen bezel correction toch? verschil hiermee is dus dat je het in en uit kan schakelen wanneer je wil.
Moet voor AMD ook wel mogelijk zijn dan lijkt me. Alleen Nvidia doet het wel in 1x goed zo te zien waar dat bij AMD meestal in meerdere keren moet :P
Hoe zit het nou trouwens met 3 schermen op 1 nvidia kaart. moet er daar ook minstens 1 DP aansluiting bij zitten?

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Nee, pas bij 4 is dat een verplichting. DVI, DVI & HDMI werkt hierbij (GTX 680) zelfs. Bij AMD moet je het uitzetten van bezel correction moet je buiten het spel doen, nVidia doet het dus dynamisch tijdens het spelen. Dat is best een groot verschil.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 22-09 15:37

superwashandje

grofheid alom

Paprika schreef op maandag 26 maart 2012 @ 22:58:
Bij AMD moet je het uitzetten van bezel correction moet je buiten het spel doen, nVidia doet het dus dynamisch tijdens het spelen. Dat is best een groot verschil.
dat zeg ik :) :
maar ze hebben wel de keuze tussen wel en geen bezel correction toch? verschil hiermee is dus dat je het in en uit kan schakelen wanneer je wil.
maar ik dacht dus dat 1x display port per se moest ivm ramdacs en weet ik wat (zoveel weet ik er ook niet van :P) alleen was dit een harde grens/hardware limitatie begreep ik altijd van de ingewijden.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Klopt, het enige dat voor jou relevant was, was "Dat is best een groot verschil.". Ik herhaalde het even voor de duidelijkheid waar dat op doelde :P.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 02:08
Ik zie niet echt in waarom dat tijdens het spel zou moeten, je weet toch van tevoren al voor welk spel je het wel en niet wilt?

Ik kan me geen ingame moment bedenken waarop ik dacht: kon ik nu maar wisselen tussen 5760x1200 en 6000x1200.
Zelfs al kon het, zou ik het niet gebruiken.

[ Voor 8% gewijzigd door mitsumark op 26-03-2012 23:33 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
mitsumark schreef op maandag 26 maart 2012 @ 23:33:
Ik zie niet echt in waarom dat tijdens het spel zou moeten, je weet toch van tevoren al voor welk spel je het wel en niet wilt?
Als je het alleen voor een paar menu's nodig hebt is het handig om het tijdelijk uit te kunnen schakelen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Ik kan zat situaties bedenken waar ik graag even echt alles zou kunnen zien i.p.v. een stukje verscholen te hebben achter de bezels. Zeker als game developer (en ja echte 3D games bedoel ik dan) wil ik af en toe gewoon 123 kunnen switchen wegens het controleren van textures.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 02:08
Game developer... daar heeft de consument dus niks aan.
Als ik iets wil zien achter de bezel, draai/verschuif ik het beeld.
Niet dat ik denk dat de optie echt tijd/geld heeft gekost, maar ik zou het ook niet missen.

Indien een menu (statisch) echt achter de bezel verdwijnt kan het handig zijn, maar ik heb dat bij de games die ik heb gespeeld niet meegemaakt (misschien bij een oude en/of slecht ontwikkelde game?).
Kan me wel voorstellen dat dit vervelend is :P

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Klopt, hoeft ook niet voor iedereen beslissend te zijn, maar voor mij is dat wel genoeg om eindelijk een keuze te kunnen maken :P. Voor de rest was alles wel ongeveer gelijk tussen de 2 (IMO).

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Paprika schreef op maandag 26 maart 2012 @ 21:32:
[...]

Zal wel een typo zijn t.o.v. wat ie werkelijk heeft ingevoerd in een calculator.
(88 / 3000) * 100 = 2.93333333 ==> ~2.9%
Typo inderdaad :+ wat slecht zeg.. :X
Olaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
[...]

nV verkoopt toch helemaal geen kaarten?
En die 450 euro, dat is de prijs die wij betalen, maar niet aan nV.
Chips, kaarten, afijn.. Er is een verschil, maar zoals je zie heb ik het niet over aantallen gehad. Voor het voorbeeld kan het natuurlijk wel even.
[...]

Zo werkt het natuurlijk niet.
Dat zeg ik ook onderaan. Ik weet niet hoe nVidia de administratie daarvan bijhoudt, dus het kan anders lopen. Eigenlijk ging het dan alleen maar om dat percentage, de rest is gewoon een puur theoretisch voorbeeld.

[ Voor 54% gewijzigd door Fid3lity op 27-03-2012 00:55 ]


Acties:
  • 0 Henk 'm!

  • roeltjow
  • Registratie: Oktober 2011
  • Laatst online: 21-07 11:39
mischien een stomme vraag, maar zit er een verschil tussen deze 2 behalve de prijs?

club3d kaart
pricewatch: Club3D GeForce GTX 680

evga kaart
pricewatch: EVGA GeForce GTX 680

als ik het zo zie zijn het dezelfde kaarten met exact dezelfde specs alleen een andere merk, maar 50 euro minder voor de evga vind ik dan weer raar. is daar een verklaring voor?

ik zit er namenlijk aan te denken om een 680 te kopen, maar heb geen idee of er bijvoorbeeld een superieur merk is.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Allemaal reference designs... maakt dus geen zak uit op prijs na.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Garantie voorwaarden zijn wel anders.

Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Laatst online: 20-09 01:27
Zijn er al mensen met persoonlijke ervaringen met de GTX 680? en dan voornamelijk die turbo mogelijkheden.
Het is mij wat onduidelijk hoe dit nu juist opgevat moet worden.

Volgens wat in de reviews naar boven kwam , klokt de kaart automatisch omhoog, maar als jij nu zelf wil gaan OCen kan dit ook nog. Echter hier is mijn vraag , als ik de base clock bv naar 1106 zou gooien, blijft hij dan altijd boven deze base clock (gegeven dat de temp niet nr 95° neigt) of blijft de kaart een eigen willetje hebben ..

Ik ben al ff de kat uit de boom ah kijken en wordt er gek van. Ik ben vrij impressed door de Sapphire 7970 OC (zuinig, koel en heel stil) maar de 680 lijkt de betere keuze (als er aftermarket koelers zijn ivm stilte) , ook al kosten ze mij ongeveer het zelfde.
Echter wanneer de 7970 clock for clock met 680 vergeleken wordt zijn ze ongeveer hetzelfde en is het gekend dat de 7970 goed oced.
Die turbo functie van de 680 + de gedachte dat het een middle end kaart ooit was schrikken me persoonlijk af van een aankoop

Ps : ik weet dat het niet 100% hier thuis hoort maar er is geen ervaringen topic momenteel

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!

Verwijderd

De stock koeler van de gtx680 is al zeer stil, en met de temperaturen is het ook wel goed gesteld. Met betere koelpasta zal er nog wel wat winst uit gehaald kunnen worden. Met het overclocken is het zo dat als je hem bijvoorbeeld 100mhz overclockt alle snelheden omhoog gaan, de turbo zal dus vanaf deze snelheid gaan werken. Wat je wel moet doen is de TDP grens hoger instellen, anders clockt hij terug om binnen het TDP te blijven.

Zo is het mij bekend, kan zijn dat ik ergens fout zit :P

Acties:
  • 0 Henk 'm!

Verwijderd

sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 10:28:
Zijn er al mensen met persoonlijke ervaringen met de GTX 680? en dan voornamelijk die turbo mogelijkheden.
Het is mij wat onduidelijk hoe dit nu juist opgevat moet worden.

Volgens wat in de reviews naar boven kwam , klokt de kaart automatisch omhoog, maar als jij nu zelf wil gaan OCen kan dit ook nog. Echter hier is mijn vraag , als ik de base clock bv naar 1106 zou gooien, blijft hij dan altijd boven deze base clock (gegeven dat de temp niet nr 95° neigt) of blijft de kaart een eigen willetje hebben ..

Ik ben al ff de kat uit de boom ah kijken en wordt er gek van. Ik ben vrij impressed door de Sapphire 7970 OC (zuinig, koel en heel stil) maar de 680 lijkt de betere keuze (als er aftermarket koelers zijn ivm stilte) , ook al kosten ze mij ongeveer het zelfde.
Echter wanneer de 7970 clock for clock met 680 vergeleken wordt zijn ze ongeveer hetzelfde en is het gekend dat de 7970 goed oced.
Die turbo functie van de 680 + de gedachte dat het een middle end kaart ooit was schrikken me persoonlijk af van een aankoop

Ps : ik weet dat het niet 100% hier thuis hoort maar er is geen ervaringen topic momenteel
Klock voor klock moet je nooit gaan vergelijken want dan klopt het allemaal gewoon niet. Verder hou je de turbo functie als je gaat overklocken, alleen komt dan alles hoger te liggen. En je hoeft je niet af te laten schrikken door het lezen van. Het gaat namelijk om de prestaties die hij leverd en niet om de letters die over deze kaart geschreven zijn.

Frietmet was me voor.
Ik vraag me trouwens af hoe je die TDP in kunt stellen? Energiebesparings modus?

[ Voor 3% gewijzigd door Verwijderd op 27-03-2012 10:42 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:37
Powertarget -30/+30%, beetje 't zelfde als AMD dat heeft (hip slidertje enzo).

Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Laatst online: 20-09 01:27
Ik dacht op verschillende plekken gelezen te hebben dat hij zichzelf altijd kon terugklokken naar 1006 , ook al is je TDP ingesteld op maximale 132% (258W)
Net door die nieuwe boosting heb ik het gevoel dat je geen stabiele kaart krijgt maar een die maar doet wat ze wil.

Vandaar dat het me interessant lijkt om mensen die de kaart kunnen testen hebben in real world situaties om te zien wat het ding doet :)

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!

Verwijderd

Ja dat vraag ik mij dus ook al af. Zoals cod is een lichte game, de gtx680 zou bij lichte games terug gaan klocken? Nu is dit nadelig voor benchchmarks want je haalt niet alles uit de kaart dan.

[ Voor 4% gewijzigd door Verwijderd op 27-03-2012 11:22 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
Volgens mij klokt ie zich juist over in lichte games, de kaart meet hoeveel vermogen er door de vrm's stroomt, als dat lager is dan het max toegestane zal hij het voltage en de frequentie een stapje verhogen.

In furmark zal ie flink aan de bak moeten en blijft ie op de basis hangen tenzij je een goede chip te pakken hebt.

er zit wel iets in de driver dat spelmakers een "fps target" aan kunnen geven, waarbij de kaart dan die fps probeert te halen en terugklokt als hij dat makkelijk haalt. Als het lastiger wordt zal ie overklokken om die fps te halen. Zal wel wat geluid schelen waarschijnlijk.

[ Voor 29% gewijzigd door haarbal op 27-03-2012 11:36 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

In reviews word juist het tegenovergestelde gezegd. Als de game zwaar is en meer power nodig heeft zou hij zich pas de boost gebruiken en bij lichte games downlocking. Het tegenovergestelde van wat er gebeurd met de gtx580 in afterburner.

Acties:
  • 0 Henk 'm!

Verwijderd

Aan de benchmarks valt te zien dat de kaart meestal toch wel hoger kan clocken om de beste resultaten te halen. Vind zelf wel die fps-target erg handig, 200fps heb je toch niks aan, als je dat ding dan instelt op 60 fps en hij duikt daar niet onder kun je toch flink wat energie besparen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Haarbal zit er het dichtste bij, Lupp heeft het verkeerd.

Ten eerste: vergelijk het niet met Powertune. Powertune treedt pas op als je te veel gaat verbruiken, Boost treedt op voordat je te veel gebruikt.

Je hebt te maken met 2 dingen: een core clock en een power target. Dat power target staat standaard op "100%", wat gemiddeld overeen komt met zo'n 140W - dit is als het eerste punt dat verschilt per 680. Dat power target kun je opschroeven tot 132% of 170W - je kunt dit niet opschroeven naar het TDP (195W) omdat ook met lagere clocks je makkelijk aan die 195W kan komen afhankelijk van het soort load (overigens moet je al deze cijfers met een vrachtwagen zout nemen, want het TDP is dan wel 195W, daar schiet hij dik overheen). Power target op 132% betekent dus niet een TDP van 250+W - dat betekent het bij AMD *wel*. Powertune verlegt daar het TDP, dat kan met Boost niet.

De core clock is 1006 MHz, voor elke 680. Als je nu gaat gamen, kan het best zo zijn dat je maar 50% GPU load hebt en dus bij lange na niet verbruikt wat "toegelaten" is. Dit is het moment waar Boost in actie komt. Boost meet constant het verbruik en gaat de core clock in stappen van 13 MHz (dit was in elk geval bij Anand zo, en bij mijn kaart ook) verhogen tot dat verbruik het "power target" bereikt. Gaat hij vervolgens over dat doel heen, verlaagt hij weer in dezelfde stappen. De maximum clock die je in reviews ziet is 1110, maar ik ben nog niet verder gekomen dan 1084.

Wordt het verbruik echt veel te hoog, dan gaat hij uiteraard ook underclocken. Het verschil met Powertune is dat de laatste puur op verbruik en hitte werkt om je kaart te beschermen; Powertune doet pas iets aan de clock als er kans is op schade - en dan gaat de clock ook alleen omlaag totdat je weer ruim binnen de veiligheidsmarges zit. Hij gaat niet telkens in stapjes omhoog en omlaag.

Overklokken gaat ook in "offsets". Je hebt een basis clock van 1006 MHz en daar gooi jij iets bovenop - GPU Boost werkt vervolgens nog eens extra bovenop jouw offset. Nogmaals, je verandert niets aan het TDP - nu betekent die term bij Nvidia sowieso iets anders dan bij AMD, omdat Nvidia hiermee *niet* het verbruik bedoelt en AMD wel. Kijk maar naar reviews van X-Bit Labs (althans, oudere reviews - de laatste paar reviews gebruiken een lompe socket-meting :(). TDP van een 5870 was 188W; daadwerkelijke verbruik was iets van 175W. TDP van een 480 was 250W en daar lag het echte verbruik op 265W. Bij de 580 en 6970 was dat idem dito het geval. De hele term TDP is voor ons dan ook vrij nutteloos, omdat er geen harde definitie voor is wat betreft videokaarten.


Werkt het? Jawel, een beetje. Is het nuttig? Voor een leek zeker. Vind ik het prettig? Hell no, ik zou veel liever "traditioneel" overklokken. Door fatsoenlijke 2D/3D profielen in te stellen bespaar ik zelf wel stroom/lawaai/hitte wanneer ik het nodig vind.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar zit er nog wel naast gezien de kaart in gpu lichte games juist omllaag schaald en in gpu zware games waar bij het verbruik hoger word omhoog schaald. Dit zie je ook duidelijk terug in COD VS Battlefield. Zo krijgen kaaren zonder een boost een hogere fps standaard geloof ik?. Die gtx680 hoord veel meer FPS te geven in COD.

Haarbal zit er naast werelds zit er naast Lup heeft het juist.
Ik hou niet zo van om zo tegen elkaar te doen. Dat is niet netjes om te zeggen.

[ Voor 25% gewijzigd door Verwijderd op 27-03-2012 13:01 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op dinsdag 27 maart 2012 @ 12:51:
Maar zit er nog wel naast gezien de kaart in gpu lichte games juist omllaag schaald en in gpu zware games waar bij het verbruik hoger word omhoog schaald. Dit zie je ook duidelijk terug in COD VS Battlefield. Zo krijgen kaaren zonder een boost een hogere fps standaard geloof ik?. Die gtx680 hoord veel meer FPS te geven in COD.
Nee hoor, dat is niet wat Boost an sich doet. Wellicht wel in combinatie met frame rate target, maar dat heb ik (nog) niet getest. Mijn kaart is in elk geval nog niet onder de 1006 gaan zitten, ook niet in een lichte game als DotA2. Zal straks eens kijken wat hij doet in Frozen Synapse, veel lichter gaat het niet :P

Ook dat is overigens een feature waar ik serieuze bedenkingen bij heb. Als hij namelijk omlaag gaat klokken om je framerate te beperken, betekent dat ook dat FPS drops 10 keer erger aan gaan voelen. Overklokken doet immers meer voor je minimum FPS dan voor je max/avg.

Acties:
  • 0 Henk 'm!

Verwijderd

Hij klockt misschien niet onder de 1006MGZ maar terug klocken kan ook zien minder GPU gebuik. En ik denk dat dat juist gebeurd met lichte games.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nogmaals, ik zal het vanavond wel even testen, maak ik wel even een GPU-Z sensor log.

Acties:
  • 0 Henk 'm!

  • Daantje20
  • Registratie: Mei 2002
  • Laatst online: 21-08 14:41

Daantje20

Je moet leven om te leren.

Wat ik me afvraag, waarom nVidia er voor heeft gekozen om een GK104 (waar ik van hoopte dat het een kaart van rond de €230 zou opleveren) nu een highend kaart heeft gemaakt, en dan doel ik natuurlijk op de prijs.
En natuurlijk ook de vraag wanneer komen de kaarten die wel in dat prijssegment gaan zitten.

(Wacht ongeduldig op een videokaart die minder dan 250 euro kost)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:05

XanderDrake

Build the future!

Daantje20 schreef op dinsdag 27 maart 2012 @ 13:58:
Wat ik me afvraag, waarom nVidia er voor heeft gekozen om een GK104 (waar ik van hoopte dat het een kaart van rond de €230 zou opleveren) nu een highend kaart heeft gemaakt, en dan doel ik natuurlijk op de prijs.
Geld en markt aandeel natuurlijk.
Ze hebben na de matige GTX 480 en slechts iets betere GTX 580 wel wat in te halen. Waarschijnlijk zijn ze daarom druk bezig met de GK110 en zal deze niet lang op zich wachten. Waarschijnlijk krijgt deze nog een respin om iets zuiniger te worden. Nog geen woord over tape-outs, dus ik verwacht nog minstens een jaar.
nVidia zag de kans schoon om van een high-mid-end GPU een High-end GPU te maken toen de HD 7970 in hun ogen maar meh presteerde. Geeft hun een GPU waar ze én meer geld aan kunnen verdienen, én markt aandeel terug te winnen. Als de GK110 een beetje goed presteerd is hebben we waarschijnlijk een nieuwe G80 op handen *O*

Wat we nu moeten verwachten van de high-mid-end (de €230 pricerange waar jij in zit) weet ik ook niet. Misschien schuift alles binnen nVidia's line-up één plaats omhoog en moeten we wachten op de GK106?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, omdat GK104 "snel genoeg" was en GK100 hoogstwaarschijnlijk een probleem gevalletje als GF100 was.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:05

XanderDrake

Build the future!

Werelds schreef op dinsdag 27 maart 2012 @ 14:16:
Nee, omdat GK104 "snel genoeg" was en GK100 hoogstwaarschijnlijk een probleem gevalletje als GF100 was.
Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets ;)

Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?

[ Voor 5% gewijzigd door XanderDrake op 27-03-2012 14:23 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Waarschijnlijk een flinke inhaalslag op GPGPU gebied?

Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Laatst online: 20-09 01:27
GK110 heeft 50+% meer oppervlakte heeft en niet zoveel meer cuda cores (25% ish)
rekening houdend met TDP die binnen de perken moet zien te blijven en bredere geheugen bus lijkt me dat GK110 voor gamers niet zo'n grote stap zal maken , of zelf niet interessant lijkt me.
Meer gericht op GPGPU en tesla kaarten

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 22:04
hmm tussen evga en asus 680, evga heeft meer garantie toch? Verder beide helemaal reference?
Wil eigenlijk een 680 kopen maar ben bang dat die prijs best hard kan droppen en dat ik me dan genaaid ga voelen :P

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bovendien is er al nieuws langsgekomen aangaande de tape out van GK110/112. Deze heeft een ~2 maanden terug plaatsgehad en met de gangbare berekeningen is een vroegste release mogenlijk ergens eind Q2 waarschijnlijker Q3.

Dat de prijzen hoog zijn is ook helemaal niet vreemd. Het is voor het eerst in meer dan zes jaar tijd (wellicht nog veel langer, maar had geen behoefte nog dieper te graven) dat zulke grote chips op de markt komen zo vroeg in het bestaan van het proces. Daar zijn simpelweg grote kosten aan verbonden. Tot en met tenminste 80nm was de grootste launch chip altijd kleiner (meestal behoorlijk ook) dan 200mm2. Nu heb je een chip van ~300mm2 en een chip van AMD van ~350mm2. Over ongeveer twee kwartalen zou de prijs van 28nm moeten normaliseren, waarbij de prijs per chip nog altijd hoger zalczijn dan voor 40nm producten.

Voor de rest, als je een sub 250 euro kaart wilt, dan is de enige keus op 28nm gebied de HD7850 :9

[ Voor 9% gewijzigd door dahakon op 27-03-2012 14:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]

Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets ;)

Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
Ik enk verder ook zoals de gtx580 minder snelheid op de core en meer snelheid op de shaders (cuda cores)
Ik denk verder dat deze GPU wel heel wat sneller dan de gtx580 zal worden, ook in games. Meer winsten dan de gtx680.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]

Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets ;)

Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
Ik gok een 550mm2 chip. Waarschijnlijk meer shaders meer ROP's. Maar ik gok vooral wat meer focus op GPGPU en dus FP64 en weer een hardware scheduler. Dus game performance pers mm2 zal net als bij de HD79xx lager zijn maar GPGPU performance hoger.

Daarnaast een 384Bit bus voor meer memory bandbreedte.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:05

XanderDrake

Build the future!

dahakon schreef op dinsdag 27 maart 2012 @ 14:32:
Bovendien is er al nieuws langsgekomen aangaande de tape out van GK110/112. Deze heeft een ~2 maanden terug plaatsgehad en met de gangbare berekeningen is een vroegste release mogenlijk ergens eind Q2 waarschijnlijker Q3.
Oh dat heb ik gemist, de dingen die ik las waren veel minder concreet. Zo vroeg?
Wat verwachten jullie in dat geval? Een GTX 680 Ultra? Goh das lang geleden. Doet met denken aan de GTX 7800 512mb en de 8800 Ultra.
Voor de rest, als je een sub 250 euro kaart wilt, dan is de enige keus op 28nm gebied de HD7850 :9
Nu nog wel ja, nVidia moet snel daar gaan concurreren vind ik!
sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 14:25:
GK110 heeft 50+% meer oppervlakte heeft en niet zoveel meer cuda cores (25% ish)
rekening houdend met TDP die binnen de perken moet zien te blijven en bredere geheugen bus lijkt me dat GK110 voor gamers niet zo'n grote stap zal maken , of zelf niet interessant lijkt me.
Niet interessant? Laten we aannemen dat de GK104 ~10% prestaties wint als je er een 384bit geheugen bus op knalt, plus de 25% meer cuda cores, dan hebben we toch wel een 30-40% verbetering tov nu. Lijkt me niet niets.

Ik denk ook dat GPGPU belangrijker is voor de GK110 maar stel dat er meer optimalisaties op de die zitten en dingen als ROPs, dan lijkt het me dat we die GPU niet zomaar kunnen afschrijven voor gamers!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op dinsdag 27 maart 2012 @ 15:02:
[...]
Oh dat heb ik gemist, de dingen die ik las waren veel minder concreet. Zo vroeg?
Wat verwachten jullie in dat geval? Een GTX 680 Ultra? Goh das lang geleden. Doet met denken aan de GTX 7800 512mb en de 8800 Ultra.

[...]
Nu nog wel ja, nVidia moet snel daar gaan concurreren vind ik!

[...]

Niet interessant? Laten we aannemen dat de GK104 ~10% prestaties wint als je er een 384bit geheugen bus op knalt, plus de 25% meer cuda cores, dan hebben we toch wel een 30-40% verbetering tov nu. Lijkt me niet niets.

Ik denk ook dat GPGPU belangrijker is voor de GK110 maar stel dat er meer optimalisaties op de die zitten en dingen als ROPs, dan lijkt het me dat we die GPU niet zomaar kunnen afschrijven voor gamers!
Lees mijn reply boven deze ook even. Ik verwacht dat ze een aantal dingen uit de GTX580 terug berengen die er nu uit zijn. Zoals die hardware scheduler en betere FP64 performance. Dan zal de GPGPU performance tenminste weer goed zijn. Waar de GTX580 de GTX680 nu in GPGPU nog regelmatig kan verslaan.

Het zou me alleen niet verbazen als die pas eind dit jaar / begin volgend jaar komt.

[ Voor 3% gewijzigd door Astennu op 27-03-2012 15:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Laatst online: 20-09 01:27
Ik vind het jammer genoeg verdacht stil rond custom kaartjes. Zou de 680 snel released zijn zonder de partner kansen te geven om custom koelers etc te bouwen?
En ook , zou het de moeite zijn om te wachten op custom kaartjes ...
of ben ik nou te ongeduldig :9

[ Voor 6% gewijzigd door sleepwalkerbe op 27-03-2012 15:12 ]

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]

Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets ;)

Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
Zoals hierboven gezegd, minder focus op gaming. Er zal dankzij de die-size zeker wel veel winst gemaakt worden. Met "snel genoeg" doelde ik vooral op "snel genoeg om onze eigen kaarten te verslaan". Ik geloof helemaal niet in al die lulkoek dat Nvidia het gedaan zou hebben omdat 7970 "tegen viel" - de beslissing om GK100 (er van uitgaande dat hij gewoon bestond) te schrappen is al veel eerder genomen, lang voordat ze ook maar iets van Tahiti afwisten. Dat is allemaal propaganda :)
Verwijderd schreef op dinsdag 27 maart 2012 @ 14:48:
[...]
Ik enk verder ook zoals de gtx580 minder snelheid op de core en meer snelheid op de shaders (cuda cores)
Jij verwacht dat ze de hotclock wel weer terug in GK110 stoppen? Dan krijgt hij ook niet zo veel cores. Het is het een of het ander, want hoe goed GK104 ook is, >2K shaders *met* hotclock past nog steeds niet op een produceerbare die :p

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:05

XanderDrake

Build the future!

Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?

Volgens mij is het meer een voorspelling geweest. Eentje die uitkwam ;)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 15:10:
Ik vind het jammer genoeg verdacht stil rond custom kaartjes. Zou de 680 snel released zijn zonder de partner kansen te geven om custom koelers etc te bouwen?
En ook , zou het de moeite zijn om te wachten op custom kaartjes ...
of ben ik nou te ongeduldig :9
Verdacht stil?

Colurful Giving GeForce GTX680 iGame Kudan Treatment

Galaxy GTX680 4GB Shown

EVGA Announces GTX680 (LC) and Precision-X

En dit is ook maar een gerucht, had 'm vorige week nog niet voorbij zien komen in ieder geval:

nVidia GeForce Kepler GK110 Approximate Specs Leaked?

Afbeeldingslocatie: http://www.legitreviews.com/images/reviews/news/GTX685SpecsComparison.jpg
XanderDrake schreef op dinsdag 27 maart 2012 @ 15:36:
[...]

Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?

Volgens mij is het meer een voorspelling geweest. Eentje die uitkwam ;)
Dat kun je wel heel makkelijk zeggen. Als het een voorspelling was geweest hadden ze er mee moeten komen voor de launch van Tahiti. Om achteraf te zeggen dat je meer had verwacht, propaganda.

Dat ze dat ten tijden van de HD5800 en HD6900 niet deden was omdat ze geen GTX460, dan wel GTX560(Ti) hadden die AMD's toppers kon verslaan (uiteraard met een ;), neem het niet te serieus.)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dan nog annuleer je niet zomaar een GPU als die probleemloos werkt, zeker niet als het het verschil betekent tussen de concurrent helemaal de grond instampen of op gelijke hoogte zitten zoals nu. Verder vind ik het knap om zo'n "voorspelling" (ik dacht toch echt dat die opmerking pas weken NA de release kwam :P) te doen over je concurrent, die al jaren op je voorloopt als het op nieuwe nodes en de implementatie daarvan aankomt.

Overigens had Nvidia weldegelijk zulke domme opmerkingen bij Cypress; niet in het minst ook over Eyefinity, dat "gimmicky" en niet boeiend was. Frappant dat ze dan toch maar in die 6 maanden vertraging even een softwarematige hack in elkaar hebben geflanst ;)

Acties:
  • 0 Henk 'm!

  • WilliamP
  • Registratie: Augustus 2011
  • Laatst online: 18-09 11:17
@ Nvidia. Release GK110 tegelijk met Intel Ivy bridge aub. Dat zou perfect zijn!

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Werelds schreef op dinsdag 27 maart 2012 @ 15:47:
Dan nog annuleer je niet zomaar een GPU als die probleemloos werkt, zeker niet als het het verschil betekent tussen de concurrent helemaal de grond instampen of op gelijke hoogte zitten zoals nu. Verder vind ik het knap om zo'n "voorspelling" (ik dacht toch echt dat die opmerking pas weken NA de release kwam :P) te doen over je concurrent, die al jaren op je voorloopt als het op nieuwe nodes en de implementatie daarvan aankomt.

Overigens had Nvidia weldegelijk zulke domme opmerkingen bij Cypress; niet in het minst ook over Eyefinity, dat "gimmicky" en niet boeiend was. Frappant dat ze dan toch maar in die 6 maanden vertraging even een softwarematige hack in elkaar hebben geflanst ;)
Mee eens,. Als de GK100/GK110 gewerkt had en een meerwaarde had tov de GK104 hadden ze em echt wel uitgebracht.

En ook eens over Eyefinity. Dat wordt volgens mij meer gebruikt dat 3D gaming. En nu hebben ze zelf ook support voor 4 schermen op een kaart. Dus blijkbaar was het een hele nuttige gimmick ;)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op dinsdag 27 maart 2012 @ 15:47:
Dan nog annuleer je niet zomaar een GPU als die probleemloos werkt, zeker niet als het het verschil betekent tussen de concurrent helemaal de grond instampen of op gelijke hoogte zitten zoals nu. Verder vind ik het knap om zo'n "voorspelling" (ik dacht toch echt dat die opmerking pas weken NA de release kwam :P) te doen over je concurrent, die al jaren op je voorloopt als het op nieuwe nodes en de implementatie daarvan aankomt.

Overigens had Nvidia weldegelijk zulke domme opmerkingen bij Cypress; niet in het minst ook over Eyefinity, dat "gimmicky" en niet boeiend was. Frappant dat ze dan toch maar in die 6 maanden vertraging even een softwarematige hack in elkaar hebben geflanst ;)
Met alleen snelheid winsten knal je nog niet de concurent de grond in. Dat zal eerder gebeuren als zo veel performance beschikbaar kwam op een gpu als de gtx680 klein zuinig en super snel, of te wel een onmogelijke gpu nu nog.

En wat kom je ook anti nvidia over. Sofwarematige hack, gimmick. Zonder bron (best gevaarlijk hier)
En ja als ze dat hadden gezegt dan is dat best wel achterlijk van nvidia want hun weten zelf ook maar al te goed dat het een handige optie is die vast en zeker meer gebruikt zal worden. Maar goed zal AMD dan nooit eens dit soort kritiek leveren, vast wel ;)

[ Voor 10% gewijzigd door Verwijderd op 27-03-2012 16:25 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op dinsdag 27 maart 2012 @ 16:23:

En wat kom je ook anti nvidia over. Sofwarematige hack, gimmick. Zonder bron (best gevaarlijk hier)
Beter zonder bron van een persoon die weet waar die over praat, dan wel een bron van één of andere nietszeggende site, waar ze geen idee hebben waar ze over praten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Nee liever een bron want niet iedereen die hier komt weet niet waar sommige mensen misschien wat meer of minder van af kunnen weten. Ik vind het onnodige anti nvidia praat omdat ik dat ook niet weet en ook totaal geen nieuws is wat hier hoord. Ik vind, hoe het ook word gebracht, totaal niet gewenst ook want dat laat zien hoe iemand is of voor staat in negative zin.

KFK2 was wel een soort van hack maar surround is geen hack denk ik?

[ Voor 38% gewijzigd door Verwijderd op 27-03-2012 16:34 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
Met softwarematige hack bedoelt ie de surround. Wat idd op driver niveau gebeurt, om het nou een hack te noemen is ook weer overdreven. Jammer dat ze het alleen met sli hebben laten werken en niet a ala: http://www.kegetys.fi/SoftTH/

[ Voor 13% gewijzigd door haarbal op 27-03-2012 16:37 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op dinsdag 27 maart 2012 @ 16:35:
Met softwarematige hack bedoelt ie de surround. Wat idd op driver niveau gebeurt, om het nou een hack te noemen is ook weer overdreven. Jammer dat ze het alleen met sli hebben laten werken en niet a ala: http://www.kegetys.fi/SoftTH/
Maar dat was nog tot voor kort zo want met de nieuwe gtx680 kan het op een enkele kaart.
Dit is ook wel uitgebreid getest in meerdere reviews. Dit werkt gewoon net zo als AMD via de drivers want je moet daar nog altijd de schermen instellen.
http://nl.hardware.info/r...3d-vision-surround--nvenc

Wel veel te laat trouwens want zo moeilijk was dat niet te bewerkstellen.

[ Voor 12% gewijzigd door Verwijderd op 27-03-2012 16:42 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
XanderDrake schreef op dinsdag 27 maart 2012 @ 15:36:
Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?
Ze zeiden over HD5870 ook dat het hen tegenviel en dat ze meer hadden verwacht :) Het werkte toen echter niet zo heel erg goed, met het uitblijven van GTX480.
WilliamP schreef op dinsdag 27 maart 2012 @ 15:56:
@ Nvidia. Release GK110 tegelijk met Intel Ivy bridge aub. Dat zou perfect zijn!
Geen kans. Ivy staat op het punt van lanceren en GK110 is amper terug bij nVidia om te analyseren, als ze hem uberhaupt al terug hebben. Een realistisch tijdstip voor launch is ergens oktober or november, wellicht later. Het is ook onwaarschijnlijk dat ze hem als een GTX6xx uit gaan brengen. Tussen GTX480 en GTX580 zat ook maar een half jaar.

Acties:
  • 0 Henk 'm!

Verwijderd

Hopelijk wat later want ik hoef geen afgeraffelt product die onder de maat gaat presteren.
Ik hoop ook dat hij snel genoeg blijft om nog een generatie voor te kunnen blijven, maar dat laatste zal wel eer niet want dan hebben ze weer minder nodig om te maken/verkopen wat weer meer opleverd.
Pagina: 1 ... 28 ... 43 Laatste