pricewatch: Asus GeForce GTX 680XanderDrake schreef op maandag 26 maart 2012 @ 13:43:
[...]
Hmm bij mijn selectie is wel anders, €471.
Kan je ons jou pricewatch link geven?
En de goedkoopste gtx680
Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.
Verwijderd
pricewatch: Asus GeForce GTX 680XanderDrake schreef op maandag 26 maart 2012 @ 13:43:
[...]
Hmm bij mijn selectie is wel anders, €471.
Kan je ons jou pricewatch link geven?
zie editXanderDrake schreef op maandag 26 maart 2012 @ 13:43:
[...]
Hmm bij mijn selectie is wel anders, €471.
Kan je ons jou pricewatch link geven?
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Verwijderd
Deze signature is om volstrekt onduidelijke redenen verwijderd. PVOutput
Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.dahakon schreef op maandag 26 maart 2012 @ 13:44:
Laat ze nog even lekker dromen Mask, misschien heeft een enkeling straks nog wel geluk.
Anders zou je ook nog kunnen denken dat omdat de prijs wel heel erg hard naar beneden gaat, de kaart blijkbaar toch niet goed ontvangen is
Ik zag verder al iemand dromen dat nVidia wel even 50 dollar winst zou kunnen pakken bij een prijs van 300 dollar, maar dat is allemaal wel heel erg optimistisch gedacht. Zo heel geweldig zijn de marges in de videokaart industrie voor consumentenkaarten nou ook weer niet. Als dergelijke winsten normaal waren, dan zou nVidia afgelopen financieel jaar wel zo'n 1.5 miljoen kaarten verkocht hebben. Klinkt niet als er veel en klinkt nog minder realistisch. Kijk anders nog eens naar de 'kosten per transistor' slide uit mijn eerdere post.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Van de GTX680 misschien niet heel veel. Van de 7970 en 7950, 7870 wellicht wel.DRuw schreef op maandag 26 maart 2012 @ 13:55:
Ik heb echt niet de illusie dat binnenkort die prijzen echt gaan zakken hoor...
vandaar dat ik bij alternate de MSI 680 heb gehaald en ik ben er erg tevreden over.
wellciht had ik 3 maanden kunnen wachten voor 2 tientjes minder maargoed, dan ben ik daar blijkbaar te makkelijk in. Ik kan wel tenminste echt lekker gamen nu;)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Weet je ongeveer dan voor welke prijs nvidia de gtx580 maakt?Astennu schreef op maandag 26 maart 2012 @ 13:56:
[...]
Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.
Een eventueel verlies zit em volgens mij meer in het niet terug verdiende R&D budget dan in verlies maken op de kaarten als ze voor die prijs gaan verkopen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Waarom wil je zo graag PhysX hebben?Verwijderd schreef op maandag 26 maart 2012 @ 13:49:
Ik vraag me af hoe lang ik moet wachten op de hydro copper of een soort gelijke kaart.
Ik wil namelijk PHYSX hebben anders was het gewoon een hd7970 geworden.
Verwijderd
Omdat ik dar altijd nog een antal physx games speel, en in de toekomt dat ook nog wil doen.
Misschien speelt ie graag Batman Arkham City
Noem er eens een paar die je nu echt veel speelt en die je straks wil gaan kopen dan.Verwijderd schreef op maandag 26 maart 2012 @ 14:13:
[...]
Omdat ik dar altijd nog een antal physx games speel, en in de toekomt dat ook nog wil doen.
Als ik die games niet zou spelen of niet meer ging kopen was het overbodig geweest.
Edit: Ik gebruik de edit-knop vaak.
Dit is toch geheel persoonlijk? Het is voor hem een feature die hij zoals gezegd gebruikt in een aantal games, leuk meegenomen voor hem toch3XPER7 schreef op maandag 26 maart 2012 @ 14:14:
[...]
Noem er eens een paar die je nu echt veel speelt en die je straks wil gaan kopen dan.
Nee maar in vergelijking met de GTX680 zal een GTX580 duurder zijn qua materialen.Verwijderd schreef op maandag 26 maart 2012 @ 14:04:
[...]
Weet je ongeveer dan voor welke prijs nvidia de gtx580 maakt?
Dat linkt hij net:Fordox schreef op maandag 26 maart 2012 @ 14:15:
ik heb mirrors edge ook 2x uitgespeeld, is echt een stuk kaler zonder physx.
is er geen driver mod oid waardoor amd dat ook ondersteund?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Dan nog is het niet de AMD kaart die de PhysX-instructies uitvoert, maar een nVidia kaartje die je ernaast zet.Astennu schreef op maandag 26 maart 2012 @ 14:19:
[...]
Dat linkt hij net:
http://www.overclock.net/...-windows-7-with-ati-cards
Ik zag het ja. Dit was om een nVidia kaart als physX kaart te gebruiken. My bad.3XPER7 schreef op maandag 26 maart 2012 @ 14:21:
[...]
Dan nog is het niet de AMD kaart die de PhysX-instructies uitvoert, maar een nVidia kaartje die je ernaast zet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Vergeet niet dat de besparing op PCB alweer ongedaan wordt gemaakt met het extra geheugen. Vergeet ook niet dat GF110 op een geheel volwassen en ondertussen veel goedkoper geworden 40nm proces wordt gemaakt, terwijl GK104 op een geheel nieuw en duurder dan ooit proces zit. De besparing door omvang gaat daardoor ook al weer voor een behoorlijk stuk verloren.Astennu schreef op maandag 26 maart 2012 @ 13:56:
[...]
Dat zou betekenen dat ze op de GTX580 verlies maken tegen de huidige prijzen. Die chip is 550mm2 vs nog net geen 300mm2 voor kepler. Daar naast 384bit pcb vs een relatief simpel 256bit pcb.
Een eventueel verlies zit em volgens mij meer in het niet terug verdiende R&D budget dan in verlies maken op de kaarten als ze voor die prijs gaan verkopen.
Mechwarrior Online: Flapdrol
Verwijderd
Dat wordt echter niet op je GPU uitgevoerd, maar op je CPU. Dat is het hele probleem met PhysX, heel veel belangrijke dingen worden gewoon niet op de GPU uitgevoerd.Verwijderd schreef op maandag 26 maart 2012 @ 14:46:
Je hoeft geen leek te zijn om voor physx te kiesen. Ik doe het ook en ben totaal geen leek. Ik wil het juist hebben omdat het de games voor mij wat interessanter maken. Het zit op de kaart dus krijg het er bij, en handig voor die games. En physx kan wel degelijk 2 opjecten tegen elkaar aan laten botsen. Een kogel tegen een alien en dan beweegt alles op een natuurlijke manier. Zelfde geld ook voor een aantal games waar in dit gebeurd met physx.
[ Voor 9% gewijzigd door Werelds op 26-03-2012 14:53 ]
Verwijderd
Kun je dat ook beweizen? Dat de CPU dan al dat werk doet?Werelds schreef op maandag 26 maart 2012 @ 14:52:
[...]
Dat wordt echter niet op je GPU uitgevoerd, maar op je CPU. Dat is het hele probleem met PhysX, heel veel belangrijke dingen worden gewoon niet op de GPU uitgevoerd.
En er is helemaal NIETS natuurlijks aan hoe het papier in Batman of alle andere particles in bijvoorbeeld Mafia 2 rondvliegen, zoals ik al zei.
[ Voor 30% gewijzigd door Verwijderd op 26-03-2012 15:00 ]
Mechwarrior Online: Flapdrol
Eerste wat zo even in me opkwam: http://physxinfo.com/news...r-physx-cloth-simulation/Verwijderd schreef op maandag 26 maart 2012 @ 14:57:
Kun je dat ook beweizen? Dat de CPU dan al dat werk doet?
Die Alien demo zit geen PhysX in, dat is een tessellation demo. Welke trein bedoel je? Overigens is het "stuiteren over een hobbel" absoluut niets van de GPU, dat is gewoon CPU werk; komt ook nauwelijks iets van natuurkunde bij kijken.Er is zeker wel wat natuurlijks aan gezien. Kijk anders maar eens naar die alien demo hoe alles beweegt en die trein. Als je over een hobbel heen komt bewegende veren juist zo dat hij op een natuurlijke manier een bepaalde kant op stuitert. Dan is dan natuurlijke beweging wat gebeurt. En in metro 2033 waar bij stof heel natuurlijk op waait. Net als iemand er in het echte tegen aan blaast, dan gaat het ook zo bewegen, al die deeltjes.
De GTX580 heeft meer chips maar wel kleinere qua opslag. De GTX680 Heeft er minder maar met meer opslag. Ik denk dat dat elkaar redelijk opheft. GTX580 heeft een complexer pcb met meer banen voor het geheugen. En heeft meer onderdelen voor de Power nodig.dahakon schreef op maandag 26 maart 2012 @ 14:35:
[...]
Vergeet niet dat de besparing op PCB alweer ongedaan wordt gemaakt met het extra geheugen. Vergeet ook niet dat GF110 op een geheel volwassen en ondertussen veel goedkoper geworden 40nm proces wordt gemaakt, terwijl GK104 op een geheel nieuw en duurder dan ooit proces zit. De besparing door omvang gaat daardoor ook al weer voor een behoorlijk stuk verloren.
Verder denk ik niet dat GF110 veel heeft bijgedragen bij de winst op consumentenproducten, maar juist wel op het gebied van professionele kaarten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hoe een PCB geroute is maakt geen reet uit voor de prijs. Baantjes meer of minder maakt helemaal niets uit. Als het aantal lagen en de specs van de PCBs hetzelfde zijn maakt het in prijs 0,0 verschil.Astennu schreef op maandag 26 maart 2012 @ 15:57:
[...]
De GTX580 heeft meer chips maar wel kleinere qua opslag. De GTX680 Heeft er minder maar met meer opslag. Ik denk dat dat elkaar redelijk opheft. GTX580 heeft een complexer pcb met meer banen voor het geheugen. En heeft meer onderdelen voor de Power nodig.
Mijn nieuwe portfolio (Under Construction) | Benieuwd wat Solar Team Twente gaat doen?
Leuk he lekker kortzichtig lullendahakon schreef op maandag 26 maart 2012 @ 13:44:
Laat ze nog even lekker dromen Mask, misschien heeft een enkeling straks nog wel geluk.
Anders zou je ook nog kunnen denken dat omdat de prijs wel heel erg hard naar beneden gaat, de kaart blijkbaar toch niet goed ontvangen is
Ik zag verder al iemand dromen dat nVidia wel even 50 dollar winst zou kunnen pakken bij een prijs van 300 dollar, maar dat is allemaal wel heel erg optimistisch gedacht. Zo heel geweldig zijn de marges in de videokaart industrie voor consumentenkaarten nou ook weer niet. Als dergelijke winsten normaal waren, dan zou nVidia afgelopen financieel jaar wel zo'n 1.5 miljoen kaarten verkocht hebben. Klinkt niet als er veel en klinkt nog minder realistisch. Kijk anders nog eens naar de 'kosten per transistor' slide uit mijn eerdere post.
Physx zou in theorie totaal over de gpu moeten gaan bij nvidia kaartenWerelds schreef op maandag 26 maart 2012 @ 15:14:
[...]
Eerste wat zo even in me opkwam: http://physxinfo.com/news...r-physx-cloth-simulation/
Er zijn er nog meer, maar waar het vooral op neerkomt is dat bepaalde berekeningen simpelweg niet mogelijk zijn op de GPU (of slecht draaien) vanwege de afwijkende register groottes en dergelijke. Let maar eens op je CPU usage in Batman, met PhysX aan is dat gewoon hoger dan met PhysX uit.
Er zijn in APEX inmiddels wat verbeteringen doorgevoerd en er kan ook wel iets van rigid body collision uitgevoerd worden, maar ze zijn bij mijn weten nog steeds niet in staat dit gelijktijdig met graphics uit te voeren; met andere woorden, je hebt een tweede GPU nodig die puur als PPU dienst doet. Wat echter nog veel dommer is, is dat er bugs in de RBC implementatie zitten (althans in de UDK versie van begin dit jaar) die het nagenoeg onbruikbaar maken.
[...]
Die Alien demo zit geen PhysX in, dat is een tessellation demo. Welke trein bedoel je? Overigens is het "stuiteren over een hobbel" absoluut niets van de GPU, dat is gewoon CPU werk; komt ook nauwelijks iets van natuurkunde bij kijken.
En zoals ik al zei, volumetric smoke (en daar valt stof dus ook onder) zijn zo'n beetje het enige boeiende dat we in games hebben gezien; en Cryostasis natuurlijk. Maar juist dingen zoals de particles in Batman/Mafia 2/Rocketsled demo (bedoelde je die met de trein?) zijn belachelijk onrealistisch.
Nou hoef je niet direct zo aangebrand te doen natuurlijk... Ik zeg nergens dat je het als daadwerkelijk (feitenlijk) scenario bracht. Maar goed, ik heb het al eerder aangegeven, het is wel terug te vinden wat voor marges nVidia haalt.Jasper 99 schreef op maandag 26 maart 2012 @ 16:52:
Leuk he lekker kortzichtig lullenheb je mij horen zeggen dat dat het daadwerkelijke scenario is? Nee, dan hoef je het dus ook niet in je zogenaamde argument te gebruiken. En sterker, jij weet niet welke marges ze pakken dus jou speculatie is geen feit.
* Fid3lity zal dat wel even doen, te verduidelijking:dahakon schreef op maandag 26 maart 2012 @ 17:10:
[...]
88 miljoen winst op ~3 miljard omzet in consumentenkaarten, reken de marges maar uit.
[ Voor 3% gewijzigd door Fid3lity op 27-03-2012 00:45 ]
Verwijderd
Dat valt nogal tegen. Er zijn zat goede alternatieven (Bullet, Newton, Havok) die goede resultaten op het scherm van al je klanten produceren, i.p.v. alleen klanten met bepaalde hardware (nvidia gpu die snel genoeg is voor hardware accelerated physics). Er zijn redelijk wat games die PhysX gebruiken, maar verreweg de meesten gebruiken geen hardware accelerated physics, omdat je dan voor een deel van je klanten een alternatief in zal moeten bouwen. Dat is meer werk en kost dus meer. Hardware accelerated physics is eigenlijk alleen interessant als nvidia op je stoep staat met een flinke zak geld, dat is dan ook meteen de reden dat het zo weinig gebruikt wordt.haarbal schreef op maandag 26 maart 2012 @ 14:35:
Voor game developers is physX fantastisch, het is gewoon een goed bruikbare en ondersteunde physics middleware die geloof ik gratis is als je physX in je opstartschermen toont.
In theorie wel. Maar aangezien PhysX maar half om is geschreven voor gebruik van CUDA, is dat niet het geval. En het gedeelte dat op de CPU loopt, loopt lang niet zo lekker als het zou kunnen omdat men ook daar te lui is om alleen al eens wat SSE instructies te gebruiken, laat staan ECHT te optimaliseren. Nvidia heeft vorig jaar wel beloofd dat ze dat gingen fixen, maar of dat inmiddels gebeurd is weet ik niet - nogmaals, ik heb al vanaf het begin totaal geen interesse in PhysX gehad en dat is nooit veranderd. Niet toen het AGEIA was en ook niet toen het Nvidia werd - en om even duidelijk te zijn, ik ben pas twee jaar na de overname weer terug op AMD overgestapt, dus het is niet alsof ik daarom zo'n hekel aan PhysX heb. Het is gewoon een incomplete physics library die slechts op een deel van de markt werkt; en voor het grootste deel van die markt is de performance impact ook nog dusdanig groot dat die het op laag of zelfs uit zetten.Jasper 99 schreef op maandag 26 maart 2012 @ 16:52:
Physx zou in theorie totaal over de gpu moeten gaan bij nvidia kaarten
Mechwarrior Online: Flapdrol
Wanneer kunnen we non reference kaarten verwachten dan?Solictice schreef op maandag 26 maart 2012 @ 12:16:
[...]
Zou mooi zijn ja.
Hopen dat de standaard 680's rond de 400 komen, en dan non reference designs rond de 450.
Dan wordt het wellicht wel aantrekkelijk om te upgraden vanaf een 6950.
Spielerei...
Dit was het enige nadeel dat ik soms had met Eyefinity. Iets niet zien dat achter de bezels zat. Normaal gesproken zeg je dan: Tja, zonder 3 monitors had ik dat ook niet gezien, maar er zijn soms nog wel eens momenten dat er iets achter de bezels valt dat je toch echt wilt zien. Om dit zonder enige moeite in een 3D applicatie te kunnen switchen is toch welBezel correction is an integral part of the Surround experience since it offers continual, break-free images from one screen to the next. However it does tend to hide portions of the image as it compensates for the bezel’s thickness, sometimes leading to in game menus getting cut off. The new Bezel Peaking feature allows gamers to temporarily disable bezel correction by pressing CTRL+ALT+B in order to see and interact with anything being hid. The corrective measures can be enabled again without exiting the application.
Eh? Daar komt toch 3409 uit?3XPER7 schreef op maandag 26 maart 2012 @ 17:31:
* Olaf van der Spek zal dat wel even doen, te verduidelijking:
3 mld / 88 mln * 100 = ~2,9%
nV verkoopt toch helemaal geen kaarten?Pakken we even de langdurige prijs van le GTX580 erbij, a la ~ 450 euro,
Zo werkt het natuurlijk niet.De rest zou dan puur extra omzet / winst zijn.
[ Voor 35% gewijzigd door Olaf van der Spek op 26-03-2012 21:27 ]
Maar het percentage klopt welOlaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
[...]
Eh? Daar komt toch 3409 uit?
Ik weet het, basisrekenen blijft lastig, niet alleen voor PABO studenten.
Zal wel een typo zijn t.o.v. wat ie werkelijk heeft ingevoerd in een calculator.Olaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
Eh? Daar komt toch 3409 uit?
Ik weet het, basisrekenen blijft lastig, niet alleen voor PABO studenten.
heb je al eyefinity gedraaid dan? als ik me niet vergis heeft AMD hier ook wel mogelijkheden voor. heb 1.5 jaar geleden ofzo 2 maandjes lang eyefinity gedraaid maar was niet mijn dingPaprika schreef op maandag 26 maart 2012 @ 20:24:
Dit was het enige nadeel dat ik soms had met Eyefinity. Iets niet zien dat achter de bezels zat. Normaal gesproken zeg je dan: Tja, zonder 3 monitors had ik dat ook niet gezien, maar er zijn soms nog wel eens momenten dat er iets achter de bezels valt dat je toch echt wilt zien. Om dit zonder enige moeite in een 3D applicatie te kunnen switchen is toch wel. Je kunt best wel stellen dat Surround nu Eyefinity, wat betreft features, (voor het eerst) een beetje voorbij is.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
dat zeg ikPaprika schreef op maandag 26 maart 2012 @ 22:58:
Bij AMD moet je het uitzetten van bezel correction moet je buiten het spel doen, nVidia doet het dus dynamisch tijdens het spelen. Dat is best een groot verschil.
maar ik dacht dus dat 1x display port per se moest ivm ramdacs en weet ik wat (zoveel weet ik er ook niet vanmaar ze hebben wel de keuze tussen wel en geen bezel correction toch? verschil hiermee is dus dat je het in en uit kan schakelen wanneer je wil.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
[ Voor 8% gewijzigd door mitsumark op 26-03-2012 23:33 ]
Als je het alleen voor een paar menu's nodig hebt is het handig om het tijdelijk uit te kunnen schakelen.mitsumark schreef op maandag 26 maart 2012 @ 23:33:
Ik zie niet echt in waarom dat tijdens het spel zou moeten, je weet toch van tevoren al voor welk spel je het wel en niet wilt?
Typo inderdaadPaprika schreef op maandag 26 maart 2012 @ 21:32:
[...]
Zal wel een typo zijn t.o.v. wat ie werkelijk heeft ingevoerd in een calculator.
(88 / 3000) * 100 = 2.93333333 ==> ~2.9%
Chips, kaarten, afijn.. Er is een verschil, maar zoals je zie heb ik het niet over aantallen gehad. Voor het voorbeeld kan het natuurlijk wel even.Olaf van der Spek schreef op maandag 26 maart 2012 @ 21:24:
[...]
nV verkoopt toch helemaal geen kaarten?
En die 450 euro, dat is de prijs die wij betalen, maar niet aan nV.
Dat zeg ik ook onderaan. Ik weet niet hoe nVidia de administratie daarvan bijhoudt, dus het kan anders lopen. Eigenlijk ging het dan alleen maar om dat percentage, de rest is gewoon een puur theoretisch voorbeeld.[...]
Zo werkt het natuurlijk niet.
[ Voor 54% gewijzigd door Fid3lity op 27-03-2012 00:55 ]
Verwijderd
Verwijderd
Klock voor klock moet je nooit gaan vergelijken want dan klopt het allemaal gewoon niet. Verder hou je de turbo functie als je gaat overklocken, alleen komt dan alles hoger te liggen. En je hoeft je niet af te laten schrikken door het lezen van. Het gaat namelijk om de prestaties die hij leverd en niet om de letters die over deze kaart geschreven zijn.sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 10:28:
Zijn er al mensen met persoonlijke ervaringen met de GTX 680? en dan voornamelijk die turbo mogelijkheden.
Het is mij wat onduidelijk hoe dit nu juist opgevat moet worden.
Volgens wat in de reviews naar boven kwam , klokt de kaart automatisch omhoog, maar als jij nu zelf wil gaan OCen kan dit ook nog. Echter hier is mijn vraag , als ik de base clock bv naar 1106 zou gooien, blijft hij dan altijd boven deze base clock (gegeven dat de temp niet nr 95° neigt) of blijft de kaart een eigen willetje hebben ..
Ik ben al ff de kat uit de boom ah kijken en wordt er gek van. Ik ben vrij impressed door de Sapphire 7970 OC (zuinig, koel en heel stil) maar de 680 lijkt de betere keuze (als er aftermarket koelers zijn ivm stilte) , ook al kosten ze mij ongeveer het zelfde.
Echter wanneer de 7970 clock for clock met 680 vergeleken wordt zijn ze ongeveer hetzelfde en is het gekend dat de 7970 goed oced.
Die turbo functie van de 680 + de gedachte dat het een middle end kaart ooit was schrikken me persoonlijk af van een aankoop
Ps : ik weet dat het niet 100% hier thuis hoort maar er is geen ervaringen topic momenteel
[ Voor 3% gewijzigd door Verwijderd op 27-03-2012 10:42 ]
Verwijderd
[ Voor 4% gewijzigd door Verwijderd op 27-03-2012 11:22 ]
[ Voor 29% gewijzigd door haarbal op 27-03-2012 11:36 ]
Mechwarrior Online: Flapdrol
Verwijderd
Verwijderd
Verwijderd
[ Voor 25% gewijzigd door Verwijderd op 27-03-2012 13:01 ]
Nee hoor, dat is niet wat Boost an sich doet. Wellicht wel in combinatie met frame rate target, maar dat heb ik (nog) niet getest. Mijn kaart is in elk geval nog niet onder de 1006 gaan zitten, ook niet in een lichte game als DotA2. Zal straks eens kijken wat hij doet in Frozen Synapse, veel lichter gaat het nietVerwijderd schreef op dinsdag 27 maart 2012 @ 12:51:
Maar zit er nog wel naast gezien de kaart in gpu lichte games juist omllaag schaald en in gpu zware games waar bij het verbruik hoger word omhoog schaald. Dit zie je ook duidelijk terug in COD VS Battlefield. Zo krijgen kaaren zonder een boost een hogere fps standaard geloof ik?. Die gtx680 hoord veel meer FPS te geven in COD.
Verwijderd
Geld en markt aandeel natuurlijk.Daantje20 schreef op dinsdag 27 maart 2012 @ 13:58:
Wat ik me afvraag, waarom nVidia er voor heeft gekozen om een GK104 (waar ik van hoopte dat het een kaart van rond de €230 zou opleveren) nu een highend kaart heeft gemaakt, en dan doel ik natuurlijk op de prijs.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna nietsWerelds schreef op dinsdag 27 maart 2012 @ 14:16:
Nee, omdat GK104 "snel genoeg" was en GK100 hoogstwaarschijnlijk een probleem gevalletje als GF100 was.
[ Voor 5% gewijzigd door XanderDrake op 27-03-2012 14:23 ]
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
[ Voor 9% gewijzigd door dahakon op 27-03-2012 14:34 ]
Verwijderd
Ik enk verder ook zoals de gtx580 minder snelheid op de core en meer snelheid op de shaders (cuda cores)XanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]
Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets
Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
Ik gok een 550mm2 chip. Waarschijnlijk meer shaders meer ROP's. Maar ik gok vooral wat meer focus op GPGPU en dus FP64 en weer een hardware scheduler. Dus game performance pers mm2 zal net als bij de HD79xx lager zijn maar GPGPU performance hoger.XanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]
Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets
Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Oh dat heb ik gemist, de dingen die ik las waren veel minder concreet. Zo vroeg?dahakon schreef op dinsdag 27 maart 2012 @ 14:32:
Bovendien is er al nieuws langsgekomen aangaande de tape out van GK110/112. Deze heeft een ~2 maanden terug plaatsgehad en met de gangbare berekeningen is een vroegste release mogenlijk ergens eind Q2 waarschijnlijker Q3.
Nu nog wel ja, nVidia moet snel daar gaan concurreren vind ik!Voor de rest, als je een sub 250 euro kaart wilt, dan is de enige keus op 28nm gebied de HD7850
Niet interessant? Laten we aannemen dat de GK104 ~10% prestaties wint als je er een 384bit geheugen bus op knalt, plus de 25% meer cuda cores, dan hebben we toch wel een 30-40% verbetering tov nu. Lijkt me niet niets.sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 14:25:
GK110 heeft 50+% meer oppervlakte heeft en niet zoveel meer cuda cores (25% ish)
rekening houdend met TDP die binnen de perken moet zien te blijven en bredere geheugen bus lijkt me dat GK110 voor gamers niet zo'n grote stap zal maken , of zelf niet interessant lijkt me.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Lees mijn reply boven deze ook even. Ik verwacht dat ze een aantal dingen uit de GTX580 terug berengen die er nu uit zijn. Zoals die hardware scheduler en betere FP64 performance. Dan zal de GPGPU performance tenminste weer goed zijn. Waar de GTX580 de GTX680 nu in GPGPU nog regelmatig kan verslaan.XanderDrake schreef op dinsdag 27 maart 2012 @ 15:02:
[...]
Oh dat heb ik gemist, de dingen die ik las waren veel minder concreet. Zo vroeg?
Wat verwachten jullie in dat geval? Een GTX 680 Ultra? Goh das lang geleden. Doet met denken aan de GTX 7800 512mb en de 8800 Ultra.
[...]
Nu nog wel ja, nVidia moet snel daar gaan concurreren vind ik!
[...]
Niet interessant? Laten we aannemen dat de GK104 ~10% prestaties wint als je er een 384bit geheugen bus op knalt, plus de 25% meer cuda cores, dan hebben we toch wel een 30-40% verbetering tov nu. Lijkt me niet niets.
Ik denk ook dat GPGPU belangrijker is voor de GK110 maar stel dat er meer optimalisaties op de die zitten en dingen als ROPs, dan lijkt het me dat we die GPU niet zomaar kunnen afschrijven voor gamers!
[ Voor 3% gewijzigd door Astennu op 27-03-2012 15:05 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 6% gewijzigd door sleepwalkerbe op 27-03-2012 15:12 ]
Zoals hierboven gezegd, minder focus op gaming. Er zal dankzij de die-size zeker wel veel winst gemaakt worden. Met "snel genoeg" doelde ik vooral op "snel genoeg om onze eigen kaarten te verslaan". Ik geloof helemaal niet in al die lulkoek dat Nvidia het gedaan zou hebben omdat 7970 "tegen viel" - de beslissing om GK100 (er van uitgaande dat hij gewoon bestond) te schrappen is al veel eerder genomen, lang voordat ze ook maar iets van Tahiti afwisten. Dat is allemaal propagandaXanderDrake schreef op dinsdag 27 maart 2012 @ 14:22:
[...]
Kan ook, dan is een respin a lá GTX 580 nodig, enter GK110. Dat is maar een kleine aanpassing aan mijn theorie, en voor ons veranderd er bijna niets
Maar, vertel mij eens, als de GK104 'snel genoeg' is, wat kunnen we dan van de GK110 verwachten?
Jij verwacht dat ze de hotclock wel weer terug in GK110 stoppen? Dan krijgt hij ook niet zo veel cores. Het is het een of het ander, want hoe goed GK104 ook is, >2K shaders *met* hotclock past nog steeds niet op een produceerbare dieVerwijderd schreef op dinsdag 27 maart 2012 @ 14:48:
[...]
Ik enk verder ook zoals de gtx580 minder snelheid op de core en meer snelheid op de shaders (cuda cores)
Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verdacht stil?sleepwalkerbe schreef op dinsdag 27 maart 2012 @ 15:10:
Ik vind het jammer genoeg verdacht stil rond custom kaartjes. Zou de 680 snel released zijn zonder de partner kansen te geven om custom koelers etc te bouwen?
En ook , zou het de moeite zijn om te wachten op custom kaartjes ...
of ben ik nou te ongeduldig
Dat kun je wel heel makkelijk zeggen. Als het een voorspelling was geweest hadden ze er mee moeten komen voor de launch van Tahiti. Om achteraf te zeggen dat je meer had verwacht, propaganda.XanderDrake schreef op dinsdag 27 maart 2012 @ 15:36:
[...]
Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?
Volgens mij is het meer een voorspelling geweest. Eentje die uitkwam
Mee eens,. Als de GK100/GK110 gewerkt had en een meerwaarde had tov de GK104 hadden ze em echt wel uitgebracht.Werelds schreef op dinsdag 27 maart 2012 @ 15:47:
Dan nog annuleer je niet zomaar een GPU als die probleemloos werkt, zeker niet als het het verschil betekent tussen de concurrent helemaal de grond instampen of op gelijke hoogte zitten zoals nu. Verder vind ik het knap om zo'n "voorspelling" (ik dacht toch echt dat die opmerking pas weken NA de release kwam) te doen over je concurrent, die al jaren op je voorloopt als het op nieuwe nodes en de implementatie daarvan aankomt.
Overigens had Nvidia weldegelijk zulke domme opmerkingen bij Cypress; niet in het minst ook over Eyefinity, dat "gimmicky" en niet boeiend was. Frappant dat ze dan toch maar in die 6 maanden vertraging even een softwarematige hack in elkaar hebben geflanst
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Met alleen snelheid winsten knal je nog niet de concurent de grond in. Dat zal eerder gebeuren als zo veel performance beschikbaar kwam op een gpu als de gtx680 klein zuinig en super snel, of te wel een onmogelijke gpu nu nog.Werelds schreef op dinsdag 27 maart 2012 @ 15:47:
Dan nog annuleer je niet zomaar een GPU als die probleemloos werkt, zeker niet als het het verschil betekent tussen de concurrent helemaal de grond instampen of op gelijke hoogte zitten zoals nu. Verder vind ik het knap om zo'n "voorspelling" (ik dacht toch echt dat die opmerking pas weken NA de release kwam) te doen over je concurrent, die al jaren op je voorloopt als het op nieuwe nodes en de implementatie daarvan aankomt.
Overigens had Nvidia weldegelijk zulke domme opmerkingen bij Cypress; niet in het minst ook over Eyefinity, dat "gimmicky" en niet boeiend was. Frappant dat ze dan toch maar in die 6 maanden vertraging even een softwarematige hack in elkaar hebben geflanst
[ Voor 10% gewijzigd door Verwijderd op 27-03-2012 16:25 ]
Beter zonder bron van een persoon die weet waar die over praat, dan wel een bron van één of andere nietszeggende site, waar ze geen idee hebben waar ze over praten.Verwijderd schreef op dinsdag 27 maart 2012 @ 16:23:
En wat kom je ook anti nvidia over. Sofwarematige hack, gimmick. Zonder bron (best gevaarlijk hier)
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
[ Voor 38% gewijzigd door Verwijderd op 27-03-2012 16:34 ]
[ Voor 13% gewijzigd door haarbal op 27-03-2012 16:37 ]
Mechwarrior Online: Flapdrol
Verwijderd
Maar dat was nog tot voor kort zo want met de nieuwe gtx680 kan het op een enkele kaart.haarbal schreef op dinsdag 27 maart 2012 @ 16:35:
Met softwarematige hack bedoelt ie de surround. Wat idd op driver niveau gebeurt, om het nou een hack te noemen is ook weer overdreven. Jammer dat ze het alleen met sli hebben laten werken en niet a ala: http://www.kegetys.fi/SoftTH/
[ Voor 12% gewijzigd door Verwijderd op 27-03-2012 16:42 ]
Ze zeiden over HD5870 ook dat het hen tegenviel en dat ze meer hadden verwachtXanderDrake schreef op dinsdag 27 maart 2012 @ 15:36:
Valt me op dat nVidia dit niet zeiden over de HD 5800 en HD6900 serie. Als 'propaganda' zo effectief is waarom deden ze het toen dan niet?
Geen kans. Ivy staat op het punt van lanceren en GK110 is amper terug bij nVidia om te analyseren, als ze hem uberhaupt al terug hebben. Een realistisch tijdstip voor launch is ergens oktober or november, wellicht later. Het is ook onwaarschijnlijk dat ze hem als een GTX6xx uit gaan brengen. Tussen GTX480 en GTX580 zat ook maar een half jaar.WilliamP schreef op dinsdag 27 maart 2012 @ 15:56:
@ Nvidia. Release GK110 tegelijk met Intel Ivy bridge aub. Dat zou perfect zijn!
Verwijderd
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq