[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 21 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • psychodude
  • Registratie: Maart 2008
  • Laatst online: 10:50
Verwijderd schreef op donderdag 15 maart 2012 @ 09:26:
Dat later uitkomen maakt verder weinig uit in hardware land. Verkopen doen ze toch wel en gezien er nog maar weining van AMD nieuwe serie op de markt is lijkt me het sowieso geen inpac hbben op nvidia. En een aantal LAPTOP fabriekanten hebben hun laptops op grote basis vol keplers gestopt, hier en in de mid low end zal het geld zitten.
Het maakt niet zozeer uit wat betreft de tweakers welk wel even kunnen wachten. Maar voor hardware fabrikanten is het een ander verhaal. Zij willen producten kunnen blijven verkopen, en om dat te realizeren moeten ze met vernieuwing komen.

Die vernieuwing zit hem altijd in een aantal aspecten:

- Ruwe kracht in de vorm van CPU / RAM
- Besturings systeem in de vorm van laatste windows variant
- Grafisch een leuk extraatjes, in de vorm van GPU
- Overige factoren, bijv gewicht, drive snelheid met introductie SSD, nieuwe optische drives met introductie bluray, etc.

Vernieuwing in CPU land ligt alweer een aantal maanden achter ons, dus daar zal het niet vandaan komen voor modellen in Q2/Q3. Vernieuwing in besturingssysteem voorlopig nog niet, wrs pas Q4 echt aan de orde. Extraatjes alleen zijn op dit moment niet langer voldoende.

Waar ze verschil uit kunnen plukken voor Q2/Q3 is de GPU. AMD kan hierin een stabiele hoeveelheid aanleveren, is daarmee dus een veilige keuze. nVidia moet nog komen met hun release. Kunnen ze de aantallen leveren? Een lesje geschiedenis vertelt ons van niet. Apple lijkt weiselijk al afgestapt te zijn, willen uiteraard niet riskeren dat ze hun klanten de gewenste systemen niet kunnen leveren dus kiezen ze voor een alternatief. Zal me niet verbazen als een aantal andere hardware fabrikanten ook meer 7xxx series dan 6xx series gaan leveren de komende 2 kwartalen.

Voor nVidia is dat natuurlijk wel een klap. Eéntje welk uiteraard later wel weer bij zal trekken, maar uiteraard ben je als bedrijf het liefst gedurende het gehele jaar koploper.


Buiten dat om, kan ik niet wachten op de eerste benchmarks binnenkort. Heb mijn hardware upgrade plan al klaar liggen om mijn systeem een flinke boost te geven. Maar de resterende vraag is alleen nog, wordt het een R7970, of de GTX680.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 19-09 22:38

Racing_Reporter

Contentmaker

Toettoetdaan schreef op donderdag 15 maart 2012 @ 11:05:
[...]

Het is puur een specificatie, je kunt er zoveel door heen jagen als je wilt, totdat natuurlijk de kabel smelt.
Dus daar hoeft geen voorbeeld voor gegeven te worden, dit is gewoon basis natuurkunde.
Basis natuurkunde of niet, ik zou wel graag willen weten of er fabrikanten zijn geweest die dat gedaan hebben. Het lijkt me vrij onlogisch, je beperkt er de levensduur toch wel mee denk ik zo. Maar zo ja, dan kan de theoretische specificatie de sloot in.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Racing_Reporter schreef op donderdag 15 maart 2012 @ 13:30:
[...]
Het lijkt me vrij onlogisch, je beperkt er de levensduur toch wel mee denk ik zo.
Welke levensduur?

Die van zo'n 6-pins PCI-E kabel? 7(8)7

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 11:14
Die van het moederbord?

Acties:
  • 0 Henk 'm!

Verwijderd

SirNobax schreef op donderdag 15 maart 2012 @ 14:03:
[...]

Welke levensduur?

Die van zo'n 6-pins PCI-E kabel? 7(8)7
- Printsporen op PCB vanaf de connector naar PWM zijn berekend op 75W, te grote stroom kan leiden tot delaminatie van PCB.
- Contactweerstand tussen connector en kabel is niet altijd goed gedefinieerd, verhoogt risico op brand indien sprake is van slechte kabel of connector.
- Spanningsval in kabel naar voeding wordt groter door hogere stroom, dit betekend lagere efficiency en meer warmte.

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

psychodude schreef op donderdag 15 maart 2012 @ 12:27:
Vernieuwing in CPU land ligt alweer een aantal maanden achter ons, dus daar zal het niet vandaan komen voor modellen in Q2/Q3.
[kuch]Ivy Bridge release Q2[/kuch]

En Ivy is vooral interessant voor notebooks, lager stroomverbruik en een snellere IGP

[ Voor 16% gewijzigd door Zer0 op 15-03-2012 18:43 ]

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Zer0 schreef op donderdag 15 maart 2012 @ 18:43:
[...]

[kuch]Ivy Bridge release Q2[/kuch]

En Ivy is vooral interessant voor notebooks, lager stroomverbruik en een snellere IGP
Niet alleen Ivybridge, maar ook Trinity. Eigenlijk is er in Q2 meer te melden op CPU gebied dan GPU gebied.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

nV heeft ook weer een verbeterede AA in de pipeline:

http://www.techpowerup.co...gorithm-with-Kepler-.html

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toettoetdaan schreef op donderdag 15 maart 2012 @ 00:53:
[...]

Moet niets uitmaken, hoewel er gevallen bekend zijn dat er meer vermogen door het moederbord werd getrokken dan door de kabels waardoor het moederbord een beetje dood ging. (was alleen in extreme gevallen meen ik)
Hij zei één kabel niet één aansluiting, dus de stroom door het moederbord zal dan sowieso niet veranderen.
Met één aansluiting ligt het aan de videokaart wat er gebeurt. Sommige videokaarten zullen niet starten, maar ik denk niet dat er meer stroom via het PCI-e slot getrokken gaat worden denk dat het via de andere aansluiting zal gaan. Sommige videokaarten blijven overigens ook gewoon in 2D modus.
Als als je een PCI certificaat wilt en het ook nog een beetje goed wilt doen moet je verbruik toch wel 10% onder het theoretisch maximaal opneembaar vermogen zitten.
SLi certificering bij voedingen is aansluiten en kijken of het werkt tijdens 3D, is dan ook een onzin certificaat wat alleen maar geld kost.
Racing_Reporter schreef op donderdag 15 maart 2012 @ 10:52:
[...]

Vele malen meer dan 75w door 1x6, hoeveel dan precies, praktijkvoorbeelden graag?
Denk dat je er zonder problemen 20A door kan trekken en bij een spanning van 12V is dat dus 240W door een enkele 6 pins PCI-e connector.
Toettoetdaan schreef op donderdag 15 maart 2012 @ 11:05:
[...]

Het is puur een specificatie, je kunt er zoveel door heen jagen als je wilt, totdat natuurlijk de kabel smelt.
Dus daar hoeft geen voorbeeld voor gegeven te worden, dit is gewoon basis natuurkunde.
Is er omdat iedereen dan weet waar die rekening mee moet houden, de voeding maker, videokaart bakker en moederbord maker hebben er namelijk allemaal mee nodig.
Racing_Reporter schreef op donderdag 15 maart 2012 @ 13:30:
[...]

Basis natuurkunde of niet, ik zou wel graag willen weten of er fabrikanten zijn geweest die dat gedaan hebben. Het lijkt me vrij onlogisch, je beperkt er de levensduur toch wel mee denk ik zo. Maar zo ja, dan kan de theoretische specificatie de sloot in.
Iedereen houdt zich er wel aardig aan. Xbitlabs mete vroeger altijd het verbruik door het PCI-e slot, en de eventuele eerste en tweede PCI-e connector.
Denk niet dat videokaarten zo maar meer door het PCI-e slot gaat trekken zoals ik hierboven ook al zei.
Verwijderd schreef op donderdag 15 maart 2012 @ 17:59:
[...]


- Printsporen op PCB vanaf de connector naar PWM zijn berekend op 75W, te grote stroom kan leiden tot delaminatie van PCB.
Zie hierboven.
- Contactweerstand tussen connector en kabel is niet altijd goed gedefinieerd, verhoogt risico op brand indien sprake is van slechte kabel of connector.
- Spanningsval in kabel naar voeding wordt groter door hogere stroom, dit betekend lagere efficiency en meer warmte.
Deze dingen zijn dan weer vrij verwaarloosbaar, ten zei je extreem veel meer door de kabel gaat trekken en/of de connector vrij slecht is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
XanderDrake schreef op donderdag 15 maart 2012 @ 01:43:
Ze kunnen dan nog low-end gpus van zowel AMD als nVidia gebruiken hoor, niet zozeer de GT 640M. Maar het feit dat het wél gedaan wordt vind ik tekenend.
Normaliter is de snelste nVidia chip die je vind in "dunne" laptops (Ultrabooks vooralsnog niet) een GT 540M, en die verbruikt 35 watt. De GT 640M zit in dezelfde soort dunne laptops maar presteert een heel stuk (30-50%) beter dan de GT 540M!
Om even een idee te geven, Hd7750 is ruim 40% sneller dan HD6670, bij een vrijwel gelijke die-size. Daarbij is het TDP officieel ook nog eens 11Watt (18%) lager. Bij de review van Techpowerup is het werkelijke verbruik 18Watt lager bij piek (43W voor HD7750 vs 61W voor HD6670, dus 30% minder verbruik) Hierbij heeft HD7750 ook nog eens aardig wat meer GPGPU zaken aan boord. Dit is redelijk vertaalbaar naar beneden,

Een barts verbruikt max 64Watt op desktop, en ~30Watt voor de laptop. Turks doet ongeveer datzelfde. Dus Cape Verde, met een lager verbruik om mee te beginnen, zal dus ook ver beneden dat TDP te drukken zijn.

Dit even ter illustratie dat het niet zo vreemd is dat een 28nm GT640M 30-50% sneller is voor een gelijke die-size en een lagere TDP.

[ Voor 42% gewijzigd door dahakon op 15-03-2012 19:57 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Racing_Reporter schreef op donderdag 15 maart 2012 @ 13:30:
[...]

Basis natuurkunde of niet, ik zou wel graag willen weten of er fabrikanten zijn geweest die dat gedaan hebben. Het lijkt me vrij onlogisch, je beperkt er de levensduur toch wel mee denk ik zo. Maar zo ja, dan kan de theoretische specificatie de sloot in.
Uit mijn hoofd meen ik dat de 4870x2 gewoon 320watt trok in 3dmark over een 6+8pin connector.
(als je de beveiliging van een GTX580 er af trekt, trekt hij er ook 350watt zonder problemen doorheen)
-The_Mask- schreef op donderdag 15 maart 2012 @ 19:42:
[...]

Hij zei één kabel niet één aansluiting, dus de stroom door het moederbord zal dan sowieso niet veranderen.
Met één aansluiting ligt het aan de videokaart wat er gebeurt. Sommige videokaarten zullen niet starten, maar ik denk niet dat er meer stroom via het PCI-e slot getrokken gaat worden denk dat het via de andere aansluiting zal gaan. Sommige videokaarten blijven overigens ook gewoon in 2D modus.
Ik doelde meer op gevolgen als dit: http://www.evga.com/forum...749507&mpage=1&print=true
Dat de weerstand door het moederbord lager is dan door de 6/8pin kabel waardoor de belasting niet goed verdeeld is. In het geval wat ik aanhaal denk ik dat het board design van EVGA te goed was, maar dat terzijde.

Hoe meer je over dit soort richtlijnen heen gaat hoe meer je de kans loopt dat de overige componenten niet berekend zijn op de gevolgen hiervan. (Zoals -The_Mask- ook zegt)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Videokaart makers zorgen er wel voor dat de stroom goed verdeeld wordt en niet gewoon de weg met de laagste weerstand zoekt. Bijvoorbeeld stroom van het geheugen via het PCI-e slot en de GPU via de overige connectors.

Wat je bij die eVGA mobo's ziet is gewoon een ontwerpfout. Druk je namelijk vier videokaarten in zo'n mobo dan moet de stroom allemaal via de 24 pins en die heeft maar twee 12V draden. Zorg je dus niet voor een extra molex of andere stroomaansluiting op het mobo dan vraag je om problemen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Ziet er goed uit. Als het maar niet zoals nvidia's FXAA er uit gaat zien en niet zo zwaar word als MSAA

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
Review NVIDIA GeForce GTX 680 verschenen op Chinese site, maar die is hartstikke traag en vrijwel geheel down. Mirror van alle foto's en benchmarks hier.

Kort samengevat: GTX 680 zo'n 10-20% sneller dan HD 7970. Sommige games even snel.

Acties:
  • 0 Henk 'm!

  • Fordox
  • Registratie: Maart 2011
  • Laatst online: 18-09 13:05

Fordox

00101010

TomasH schreef op vrijdag 16 maart 2012 @ 16:36:
Review NVIDIA GeForce GTX 680 verschenen op Chinese site, maar die is hartstikke traag en vrijwel geheel down. Mirror van alle foto's en benchmarks hier.

Kort samengevat: GTX 680 zo'n 10-20% sneller dan HD 7970. Sommige games even snel.
ik kreeg de link ook net binnen, je was me net voor :P
ziet er wel leuk uit, nu de prijs nog :)

Edit: Ik gebruik de edit-knop vaak.


Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 09:26
ziet er goed uit voor een kaart die stieken de 660 had moeten zijn :P

Acties:
  • 0 Henk 'm!

  • Willie Billie
  • Registratie: Oktober 2004
  • Laatst online: 19-09 11:26
Woah! Als die review klopt en de GTX680 wordt gelijk geprijsd aan de 7970 of cheaper, dan is het echt een winner :)

Mijn game PC: http://tweakers.net/gallery/125384?inv_id=19781#tab:inventaris


Acties:
  • 0 Henk 'm!

Verwijderd

Ik hoop voor nvidia dat het echt zo is gesteld met de gtx680, een echte winner hebben ze daar mee in de hand. Ik had er verder wel wat meer van verwacht en ben ook benieuwd hoe de gtx680 overklockt.
Ik weet ook zeker dat ik hier op den duur een OC variant van wil hebben want wou een waardige opvolger hebben van de gtx580, zo dat ik met 1 kaart BF3 op ultra kan spelen met mijn gewenste FPS.

Als dit echt is.

[ Voor 35% gewijzigd door Verwijderd op 16-03-2012 17:25 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
Willie Billie schreef op vrijdag 16 maart 2012 @ 17:05:
Woah! Als die review klopt en de GTX680 wordt gelijk geprijsd aan de 7970 of cheaper, dan is het echt een winner :)
De prijzen zijn in pre-order ongeveer 510 euro, dus dan zal de uiteindelijke prijs plusminus die van de HD 7970 zijn. De HD 7970 zal dan waarschijnlijk wel flink in prijs dalen. Nu alleen nog afwachten hoe de beschikbaarheid wordt...
Verwijderd schreef op vrijdag 16 maart 2012 @ 17:20:
ben ook benieuwd hoe de gtx680 overklockt.
GPU Boost is een soort Turbo Boost voor NVIDIA-videokaarten. Als de GPU 100% wordt belast en er is nog ruimte binnen het TDP, dan wordt de GPU overgeklokt. In eerste instantie gebeurt dat naar de Boost Clock. Die is bij de GeForce GTX 680 standaard 1.058MHz. Vervolgens wordt er gekeken of er nog meer kan worden overgeklokt. Volgens NVIDIA zit de GPU Boost in het BIOS en wordt het hardwarematig geregeld. Via een chip die het stroomverbruik, de belasting en de temperatuur in de gaten houdt, wil NVIDIA real-time aanpassingen aan de kloks en voltages mogelijk maken.

Tijdens de meeste benchmarks en games klokte de GTX 680 over naar de standaard Boost Clock. In een aantal tests steeg de GPU-klok significanter, bijvoorbeeld naar 1.097MHz en 1.110MHz. Daarmee kunnen de prestaties tot 5% hoger worden, volgens de Chinese reviewsite.
Dat is standaard dus al mogelijk.

[ Voor 47% gewijzigd door Tomas Hochstenbach op 16-03-2012 17:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De gtx580 zal dan iets boven de prijs van de hd7970 komen te liggen lijkt mij. Hoelijk niet meer dan 10% want dan word hij al weer snel te duur. Ik denk ook dat nvidia hem goedkoper kan we doen dan de hd7970.

Maar kun je hem zelf nog verder overklocken, en hoe ver? En er voor zorgen dat hij over de max TDP heen kan gaan.

Ik vind het knap, het zelfde doen als AMD volgens de AMD liefhebbers, alleen dan beter.

[ Voor 33% gewijzigd door Verwijderd op 16-03-2012 17:38 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op donderdag 15 maart 2012 @ 00:30:
[...]

Is wel het meest logische voor Tweakers... Al dan niet daardoor, overklokbaarheid lijkt mij het meest logische.
Koekje voor Vipeax! :)
TomasH schreef op vrijdag 16 maart 2012 @ 17:27:
Volgens NVIDIA zit de GPU Boost in het BIOS en wordt het hardwarematig geregeld. Via een chip die het stroomverbruik, de belasting en de temperatuur in de gaten houdt, wil NVIDIA real-time aanpassingen aan de kloks en voltages mogelijk maken.
En welke het overklokken met reference PCB kaarten (vooralsnog) onmogelijk maakt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Zal het echt onmogelijk zijn. Heb je daar een bron of zo van want dat vind ik weer minder dan.
Ik denk zelf dat het wel mogelijk is. Als je hem zelf overklockt vallen de eigen overklock functies schat ik?

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 09:26
Verwijderd schreef op vrijdag 16 maart 2012 @ 17:29:
De gtx580 zal dan iets boven de prijs van de hd7970 komen te liggen lijkt mij. Hoelijk niet meer dan 10% want dan word hij al weer snel te duur. Ik denk ook dat nvidia hem goedkoper kan we doen dan de hd7970.

Maar kun je hem zelf nog verder overklocken, en hoe ver? En er voor zorgen dat hij over de max TDP heen kan gaan.

Ik vind het knap, het zelfde doen als AMD volgens de AMD liefhebbers, alleen dan beter.
gtx680 bedoel je neem ik aan? want als de 580 duurder is is het genant :P ! Maar we zullen zien ik denk dat nvidia wel loopt te geld wolven, want ze konden prima rond de 300 liggen volgens de eerdere geruchten. maarja zal wel wat roet in het eten zijn gekomen en gewoon de gedachten betere prestaties dan iets duurder.

Acties:
  • 0 Henk 'm!

Verwijderd

Klopt want hij moet ook duurder zijn anders verkoop AMD veel minder hd7970's.
Het zou niet eerlijk zijn. Hij moet van mij zo'n 5-10% duurder zijn.

Lol. Straks is het helemaal niet waar en iedereen blij met een dood vogeltje :o
dahakon schreef op vrijdag 16 maart 2012 @ 17:51:
Of HD7970 echt in prijs gaat dalen zal natuurlijk ook afhangen van hoe de vele reviews tezamen het beeld vormen, plus de beschikbaarheid van GTX680. Er gaan nu al verhalen dat slechts weinig chips per wafer in staat zijn om de hoge clocks van GTX680 te halen met een volledige geactiveerde chip. Interessant zullen ook de overclock resultaten zijn. HD7970 kan praktisch altijd wel de 1100MHz halen, waarmee een eventueel verschil in het voordeel van GTX680 snel verdwenen is.
Bij dit soort dingen moet je altijd even een bron vermelden want het kan net zo goed zware onzin zijn .
Misschien zijn er al zo'n 20.000 verscheept alleen al naar rotterdam?

Ik ga er iig ergens in juli een mooie overklock kaart van kopen.

Poe, dit is wel een tik in het gezicht van AMD high end grafics.

[ Voor 89% gewijzigd door Verwijderd op 16-03-2012 18:01 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Of HD7970 echt in prijs gaat dalen zal natuurlijk ook afhangen van hoe de vele reviews tezamen het beeld vormen, plus de beschikbaarheid van GTX680. Er gaan nu al verhalen dat slechts weinig chips per wafer in staat zijn om de hoge clocks van GTX680 te halen met een volledige geactiveerde chip. Interessant zullen ook de overclock resultaten zijn. HD7970 kan praktisch altijd wel de 1100MHz halen, waarmee een eventueel verschil in het voordeel van GTX680 snel verdwenen is.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 16 maart 2012 @ 17:47:
Poe, dit is wel een tik in het gezicht van AMD high end grafics.
Dit wat? De geruchten tot nu toe? We weten nog steeds niks zeker hè... En realistisch gezien zijn er gewoon geen kaarten in overvloed bij de launch. Het zal vast niet alleen maar feest zijn, er zijn altijd wel nadelen.
Ofwel toch de prestaties, of de prijs, of de beschikbaarheid, of het verbruik, of de temps, of de overclockbaarheid, of de.... je begrijpt het wel...

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Verwijderd schreef op vrijdag 16 maart 2012 @ 17:47:
Poe, dit is wel een tik in het gezicht van AMD high end grafics.
Bij AMD zullen ze er inderdaad niet blij mee zijn dat ze een kwartaal lang een lekkere marge hebben kunnen pakken omdat NVidia nog niets had...
Ik ben oprecht benieuwd naar wat de nieuwe serie van NVidia gaat doen, en dan met name hoe hoog NVidia inzet om te kunnen concurreren. Het zou vrij sneu zijn als NVidia weer te hoog blijkt in te zetten waardoor ze dure kaarten met weinig marge moeten verkopen, zo goed loopt de videokaartentak al niet de laatste tijd en een opstekertje zal ze zeker goed doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Klopt net zoals met de hd7950 en hd7970 ook net wat te duur. Maar goed dat heb je altijd met den nieuwste snelste kaarten. Heel enkel zit er een keer een 5870 gevalletje tussen maar dat zal ook niet meer zo snel gebeuren denk ik. Dit komt ook omdat velen die high end nemen er ook wel gewoon voor willen betalen, vaak gepaard met tegen zin.

Als deze straks op de prijs van de hd7970 gaat zitten is deze kaart ook te duur. Misschien niet qua prijs prestatie zals de hd7970 maar wel voor een stuk hardware wat weer gekocht moet worden.

[ Voor 42% gewijzigd door Verwijderd op 16-03-2012 19:56 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Apart dat de die-size in de tabel anders is dan de berekende die-size. Zit toch zon 35mm verschil in, en das niet niks.
Jasper 99 schreef op vrijdag 16 maart 2012 @ 16:54:
ziet er goed uit voor een kaart die stieken de 660 had moeten zijn :P
GTX670Ti mits de geruchten waar zijn.


Edit: Iemand toevallig een linkje naar een review van de 7970 met de core op 1ghz ter vergelijking? Clock voor clock lijken ze weinig te verschillen.

@Tomas,
hij kan 4 displays aansturen itt je artikel welke vermeld dat er 3 aangestuurd kunnen worden. Mits dat waar is uiteraard.

[ Voor 29% gewijzigd door spNk op 16-03-2012 20:20 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mensen die met tegenzin een product kopen zijn gewoon knettergek. Als je vindt dat een product zn prijs niet waard is moet je dat product gewoon niet kopen, en als je per se het snelste van het snelste wilt hebben moet je niet gaan zeuren dat dat duur is. Overigens kan je wel vinden dat de HD7970 en HD7950 wat prijzig zijn, ze verkopen gewoon goed voor de huidige prijzen (en dat doen/deden NVidia kaarten omgekeerd ook). Ik kan echt geen andere conclusie trekken dat er over het algemeen voldoende geconcurreerd wordt.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Nu online
Als deze straks op de prijs van de hd7970 gaat zitten is deze kaart ook te duur. Misschien niet qua prijs prestatie zals de hd7970 maar wel voor een stuk hardware wat weer gekocht moet worden.
Met deze instelling gaat het natuurlijk wel goed komen met de GPU fabrikanten :)

Ik ben het met DCM360 eens. Die videokaart is waard wat je er zelf voor uit wil geven. Als ik een euro kreeg voor iedere post waarin wordt aangegeven dat HD 7970 te duur is en/of goedkoper zou moeten zijn, dan had ik er nu eentje kunnen kopen. :+

Maar dat terzijde. Misschien hebben we ook genoeg gediscussieerd over de beprijzing van een artikel waarvan we de eerste non-speculatieve benchmarks nog moeten zien. Eerst maar eens zien, kunnen we daarna nog altijd zagen :)

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
spNk schreef op vrijdag 16 maart 2012 @ 19:58:
@Tomas,
hij kan 4 displays aansturen itt je artikel welke vermeld dat er 3 aangestuurd kunnen worden. Mits dat waar is uiteraard.
Via een DisplayPort-splitter kun je maximaal vier schermen aan laten sturen door de GTX 680.
Dat staat er dus. DisplayPorts-hubs zijn toch nog altijd 100+ euro en dat is veel. Zonder ingewikkelde constructies kun je er dus drie monitoren rechtstreeks op aansluiten.

Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Verwijderd schreef op vrijdag 16 maart 2012 @ 17:47:
Klopt want hij moet ook duurder zijn anders verkoop AMD veel minder hd7970's.
Het zou niet eerlijk zijn. Hij moet van mij zo'n 5-10% duurder zijn.

Lol. Straks is het helemaal niet waar en iedereen blij met een dood vogeltje :o

Bij dit soort dingen moet je altijd even een bron vermelden want het kan net zo goed zware onzin zijn .
Misschien zijn er al zo'n 20.000 verscheept alleen al naar rotterdam?

Ik ga er iig ergens in juli een mooie overklock kaart van kopen.

Poe, dit is wel een tik in het gezicht van AMD high end grafics.
Dus een kaart die gemiddeld, volgens een nVidia uitgegeven slide 14%* sneller is (of eigenlijk maar gem. 11.1%, als je, zoals veel gebruikt met gemiddelden de beste en slechtste uitschieter niet meerekent), vind jij wel een serieuze tik in het gezicht van AMD?

3 maanden terug werdt er in ditzelfde topic nog gehoond dat AMD een jaar na dato van de GTX580 "maar" ~20% snelheidsverbetering houdt ten opzichte van eerdergenoemde, en nu 3 maanden later is een kaart die 30-35% sneller is dan diezelfde GTX580 opeens een serieuze tik? Dat is imho wel erg met een groene zonnebril naar de wereld kijken. (zeker als je bedenkt dat bijna alle AMD's hun max OC in CCC halen, op stock voltage, en dan is het verschil 0.


*Linkje naar [Verwijderde gebruiker] post, omdat de slide ondertussen bij tweakers niet meer te vinden is (voor mij nochtans)

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Volgens mij wordt hier gezegd dat het een tik is omdat deze gpu niet bedoeld zou zijn als high-end gpu. Volgens eerdere geruchten zou deze gpu in het 2-300 euro segment moeten komen en zou er een nog veel betere gpu aankomen die zou moeten concurreren met de high-end van AMD.

Die laatste GPU is echter enorm vertraagd. Maar Nvidia kan nu wel zijn 2-300 euro gpu verkopen als een 5-600 euro gpu. Hij is niet veel sneller (als de geruchten waar zijn) dan de 7970 maar zou wel veel goedkoper zijn om te produceren (plus zuiniger / minder verbruik etc. als het klopt). En mocht AMD straks met een iets betere variant komen dan zet Nvidia dan pas zijn echte high-end gpu in.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Max Hunt schreef op vrijdag 16 maart 2012 @ 21:41:
Volgens mij wordt hier gezegd dat het een tik is omdat deze gpu niet bedoeld zou zijn als high-end gpu. Volgens eerdere geruchten zou deze gpu in het 2-300 euro segment moeten komen en zou er een nog veel betere gpu aankomen die zou moeten concurreren met de high-end van AMD.
De omvang van de chip zat op het vorige proces inderdaad in die prijs-segmenten, zoals ook die van AMD in die prijs-segmenten zat. We zitten echter met een ander (duurder, slechter yieldend) proces en AMD heeft de kans gehad om de hoofdprijs te vragen. De chip van AMD is niet significant groter en daarmee zit deze dus ook niet in een significant andere prijs-range.
Die laatste GPU is echter enorm vertraagd. Maar Nvidia kan nu wel zijn 2-300 euro gpu verkopen als een 5-600 euro gpu. Hij is niet veel sneller (als de geruchten waar zijn) dan de 7970 maar zou wel veel goedkoper zijn om te produceren (plus zuiniger / minder verbruik etc. als het klopt). En mocht AMD straks met een iets betere variant komen dan zet Nvidia dan pas zijn echte high-end gpu in.
De grootste chip heeft een 'estimated time of arrival' van ergens oktober of later, dus dat duurt nog een hele poos. Dus om die in te zetten wanneer AMD besluit een 'HD7980' op de markt te zetten, gaat niet zo maar even. Verder is de GTX680 niet 'veel goedkoper' te maken. Ja, ze kunnen wellicht 10 dollar op PCB en 20 dollar op geheugen besparen, voor een totaal van 30 dollar. Yields zijn zelfbenoemd 'niet goed' en als GTX680 dusdanig veel van de chip vraagt dat slechts een klein deel van de wafer chips levert die goed genoeg zijn, dan ben je die baten al heel snel weer kwijt. Waarschijnlijk zal GTX680 net iets goedkoper te produceren zijn dan HD7970, maar het is bij verre niet het verschil als wat je tussen GTX580 en HD6970 had.

Verder heeft nVidia over het laatste fiscale jaar een totale winst op consumentenkaarten geboekt van ik geloof 88 miljoen dollar. Dat is niet heel erg veel, als je bedenkt dat de omzet zo rond de 3 miljard dollar licht voor dat onderdeel van nVidia. nVidia kan de hoge prijzen maar wat goed gebruiken om de balans op orde te houden.

Acties:
  • 0 Henk 'm!

Verwijderd

zion schreef op vrijdag 16 maart 2012 @ 21:32:
[...]
Dus een kaart die gemiddeld, volgens een nVidia uitgegeven slide 14%* sneller is (of eigenlijk maar gem. 11.1%, als je, zoals veel gebruikt met gemiddelden de beste en slechtste uitschieter niet meerekent), vind jij wel een serieuze tik in het gezicht van AMD?

3 maanden terug werdt er in ditzelfde topic nog gehoond dat AMD een jaar na dato van de GTX580 "maar" ~20% snelheidsverbetering houdt ten opzichte van eerdergenoemde, en nu 3 maanden later is een kaart die 30-35% sneller is dan diezelfde GTX580 opeens een serieuze tik? Dat is imho wel erg met een groene zonnebril naar de wereld kijken. (zeker als je bedenkt dat bijna alle AMD's hun max OC in CCC halen, op stock voltage, en dan is het verschil 0.
Ik ben het ergens met je eens, maar dat is om het feit dat Nvidia nu een top model heeft die idd maar 30-35% (afwachten...) sneller gaat zijn dan de GTX580. De GK104 is echter (zoals al lang geleden moest blijken) nooit bedoeld als top-segment GPU, maar moet het nu op zich nemen omdat Nvidia eigenlijk wel een beetje faalt met de GK110. Want laten we wel wezen, de (hoge) verwachtingen van de opvolger van de GTX580 waren niet gestoeld op een gpu die nu maar ~300 mm² meet, maar meer rond hetzelfde formaat als de GF110.
Even los gezien van het feit dat Nvidia dus wederom z'n zaakjes niet op orde heeft lijkt de GK104 wel een knappe GPU die meer als mid-high was bedoeld, maar het nu toch (redelijk?) lijkt te kunnen opnemen tegen de high-end AMD gpu's.
Nadeel is dan weer dat (zo lijkt het) Nvidia de gpu aardig hoog moet klokken om dit te bewerkstelligen, maar is ergens ook wel logisch omdat deze gpu het dus meer had moeten opnemen tegen de HD7870 als de GK110 wel op tijd was geweest.
In het geval de GK104 het wel tegen de HD7870 had moeten opnemen hadden ze 'm ook minder hoog hoeven klokken. Maarja, dat is als, als, als de GK110 wel op tijd was geweest en dat is niet zo!

Mijn gevoel is een beetje tweezijdig (afgaande op de geruchten en als deze waar zijn). Een beetje een domper omdat men marginaal sneller lijkt te zijn en dit ook alleen maar kan doen door de gpu op z'n tenen te laten lopen. Aan de andere kant is het wel goed te zien dat Nvidia nu geen 40% meer die-size nodig heeft om een beetje mee te boeren...
Maarja, zoals zo vaak, echte conclusies kunnen we pas over week maken! Kijk er wel naar uit! :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De GK104 is een grote stap voorwaarts maar een aantal kleine stapjes terug helaas. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 18-09 13:51
Verrassing >:)
de GeForce GTX 555 (OEM)
http://www.geforce.com/Ha...tx-555-oem/specifications
is opeens spotgoedkoop als 560 SE opgedoken:
http://en.expreview.com/2...-560-se-review/21894.html
een GF114 met 192 ipv 256-bit en 288 ipv 336 SP maar bv. mooi 30% sneller als een 7770 bij BF3!
Sinds vandaag te koop voor 115€ :7
http://geizhals.at/eu/?ca...&xf=132_1024~1439_GTX+560

[ Voor 6% gewijzigd door Joepi op 17-03-2012 00:02 . Reden: aanvulling ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als je stroomverbruik voorlief neemt is het voor €115,- geen slechte koop, maar dat gaat ie in NL denk ik niet snel kosten...(?) Verder is het een behoorlijk overbodige kaart naar mijn mening. Kan je beter een HD6850 op de kop tikken.

[ Voor 29% gewijzigd door Verwijderd op 17-03-2012 01:12 ]


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Verwijderd schreef op zaterdag 17 maart 2012 @ 01:10:
Als je stroomverbruik voorlief neemt is het voor €115,- geen slechte koop, maar dat gaat ie in NL denk ik niet snel kosten...(?) Verder is het een behoorlijk overbodige kaart naar mijn mening. Kan je beter een HD6850 op de kop tikken.
Als ie dat niet gaat kosten dan word hij iig niet verkocht, behalve mensen die hem vanwege merktrouwhoud/cuda/drivers/<insert speciale reden> willen hebben gezien de 6850 coolstream ook maar € 116,50 kost.... , en de HD6850 860mhz MSI Cyclone OC voor € 132,99

(*klik voor pw*)

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 16 maart 2012 @ 21:52:
[...]


De omvang van de chip zat op het vorige proces inderdaad in die prijs-segmenten, zoals ook die van AMD in die prijs-segmenten zat. We zitten echter met een ander (duurder, slechter yieldend) proces en AMD heeft de kans gehad om de hoofdprijs te vragen. De chip van AMD is niet significant groter en daarmee zit deze dus ook niet in een significant andere prijs-range.


[...]


De grootste chip heeft een 'estimated time of arrival' van ergens oktober of later, dus dat duurt nog een hele poos. Dus om die in te zetten wanneer AMD besluit een 'HD7980' op de markt te zetten, gaat niet zo maar even. Verder is de GTX680 niet 'veel goedkoper' te maken. Ja, ze kunnen wellicht 10 dollar op PCB en 20 dollar op geheugen besparen, voor een totaal van 30 dollar. Yields zijn zelfbenoemd 'niet goed' en als GTX680 dusdanig veel van de chip vraagt dat slechts een klein deel van de wafer chips levert die goed genoeg zijn, dan ben je die baten al heel snel weer kwijt. Waarschijnlijk zal GTX680 net iets goedkoper te produceren zijn dan HD7970, maar het is bij verre niet het verschil als wat je tussen GTX580 en HD6970 had.

Verder heeft nVidia over het laatste fiscale jaar een totale winst op consumentenkaarten geboekt van ik geloof 88 miljoen dollar. Dat is niet heel erg veel, als je bedenkt dat de omzet zo rond de 3 miljard dollar licht voor dat onderdeel van nVidia. nVidia kan de hoge prijzen maar wat goed gebruiken om de balans op orde te houden.
Die 'grote' chip kunnen ze nu nog perfectioneren, als AMD dan met de hd8xxx serie komt (eind dit jaar zover ik weet) hebben ze wel een antwoord klaar. Beiden hebben een nieuwe architectuur, en 28nm zal ook nog wel gebruikt worden voor die chips, maar dat is uiteraard speculatie. Die paar dollar die ze nu besparen waren in het geval van AMD altijd een veelgebruikt argument, en nu maakt het bij nVidia opeens niks meer uit? Het zijn op de eerste plaats high-end gpu's welke niet voor de grootste inkomsten zorgen, op de tweede plaats kunnen ze op zulke zaken toch een aardige besparing boeken. Maar het is al jaren niet meer de enige markttak die nVidia bewandelt, wat een goede beslissing is geweest als je ziet dat de gt200 en gf100 toendertijd met afstand de duurste gpu's (en kaarten) waren om te produceren. Zo kun je bezig blijven, het gaat om en om, het is al een hele prestatie (imo) dat nVidia nu waarschijnlijk een kaart hebben welke 1 op 1 kan concurreren met de hd7970. Dat AMD onbehoorlijke prijzen vraagt voor de hd79xx kaarten zorgt er wel weer voor dat de prijzen hoog blijven, wat ook aan de late intrede van de gtx680 te wijten is. Ook zullen die kaarten waarschijnlijk slecht te krijgen zijn de eerst komende tijd, waardoor de prijzen nauwelijks kunnen zakken.

Die afgelopen generaties kunnen een dipje voor nVidia zijn geweest, maar AMD is nu ook niet direct een gezond bedrijf. Uiteindelijk kun je als consument van geluk spreken dat nVidia en AMD zo aan elkaar gewaagd zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

zion schreef op vrijdag 16 maart 2012 @ 21:32:
[...]


Dus een kaart die gemiddeld, volgens een nVidia uitgegeven slide 14%* sneller is (of eigenlijk maar gem. 11.1%, als je, zoals veel gebruikt met gemiddelden de beste en slechtste uitschieter niet meerekent), vind jij wel een serieuze tik in het gezicht van AMD?

3 maanden terug werdt er in ditzelfde topic nog gehoond dat AMD een jaar na dato van de GTX580 "maar" ~20% snelheidsverbetering houdt ten opzichte van eerdergenoemde, en nu 3 maanden later is een kaart die 30-35% sneller is dan diezelfde GTX580 opeens een serieuze tik? Dat is imho wel erg met een groene zonnebril naar de wereld kijken. (zeker als je bedenkt dat bijna alle AMD's hun max OC in CCC halen, op stock voltage, en dan is het verschil 0.


*Linkje naar [Verwijderde gebruiker] post, omdat de slide ondertussen bij tweakers niet meer te vinden is (voor mij nochtans)
Qua snelheid winst niet, wel omdat hij sneller is en vooral kleiner en zuiniger.
Dus ja dat kan hard aankomen bij AMD, om eigenlijk te winnen op AMD's eigen manier.
En nee ik kijk dan opjectief ;)

Maar in reviews gaan we natuurlijk geen oc kaarten vergelijken met stock kaarten dit geeft een scheef beeld. En dan nog kunnen vast en zeker ook de gtx680's overklocken.

[ Voor 6% gewijzigd door Verwijderd op 17-03-2012 08:31 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zaterdag 17 maart 2012 @ 05:23:
Die 'grote' chip kunnen ze nu nog perfectioneren, als AMD dan met de hd8xxx serie komt (eind dit jaar zover ik weet) hebben ze wel een antwoord klaar. Beiden hebben een nieuwe architectuur, en 28nm zal ook nog wel gebruikt worden voor die chips, maar dat is uiteraard speculatie.
Dat neemt natuurlijk niet weg dat nVidia GK100 liever nu al klaar had om te concurreren. Verder blijft het de vraag hoeveel GK110/112 op GPGPU is gericht. GK104 is net als GF104/114 veel meer een gamers-chip dan GF100/110 was. Maar aangezien dat nog ver weg is, is er weinig zinnigs over te zeggen.
Die paar dollar die ze nu besparen waren in het geval van AMD altijd een veelgebruikt argument, en nu maakt het bij nVidia opeens niks meer uit? Het zijn op de eerste plaats high-end gpu's welke niet voor de grootste inkomsten zorgen, op de tweede plaats kunnen ze op zulke zaken toch een aardige besparing boeken.
Die paar dollar verschil is wel een beetje in een andere verhouding als wanneer je kijkt naar HD5870 vs GTX480 of HD6970 vs GTX580. ~350mm2 vs ~550mm2 toen tegenover ~350mm2 tegenover ~300-320mm2 nu. Maar ik zei toch ook dat dit iets in het voordeel is van nVidia?
Maar het is al jaren niet meer de enige markttak die nVidia bewandelt, wat een goede beslissing is geweest als je ziet dat de gt200 en gf100 toendertijd met afstand de duurste gpu's (en kaarten) waren om te produceren. Zo kun je bezig blijven, het gaat om en om, het is al een hele prestatie (imo) dat nVidia nu waarschijnlijk een kaart hebben welke 1 op 1 kan concurreren met de hd7970.
De enige andere tak die momenteel winstgevend is, is de Tesla/Quaddro tak. Tegra is een zwaar verliesgevende tak en Tegra3 lijkt daar niet veel verandering in te kunnen brengen.
Dat AMD onbehoorlijke prijzen vraagt voor de hd79xx kaarten zorgt er wel weer voor dat de prijzen hoog blijven, wat ook aan de late intrede van de gtx680 te wijten is. Ook zullen die kaarten waarschijnlijk slecht te krijgen zijn de eerst komende tijd, waardoor de prijzen nauwelijks kunnen zakken.
Als die prijzen onbehoorlijk zijn, dan waren de prijzen van GTX280/480/580 ook enorm onbehoorlijk. Ik zelf heb het geld er niet voor over, maar voor een ieder ander is het voor zichzelf te bepalen of ze het geld er voor neer willen leggen. HD7970 is gewoon geprijsd op de plek waar het past, met betrekking tot prestaties, beschikbaarheid en process-kosten. Ze kunnen straks ongetwijfeld wel wat met de prijs zakken, maar ze moeten de ontwikkelingskosten ook terug zien te verdienen en met het feit dat de discrete markt hard krimpt (HD6670 is praktisch de laagste drempel straks met Trinity en IvyBridge) moeten ze het terugverdienen met veel minder chips. Voor nVidia zal dit echt niet anders zijn en zoals ik al aangaf, met de 'lage' prijzen van afgelopen jaren, heeft nVidia maar weinig winst kunnen pakken op de consumentenmarkt, ondanks dat er nog volop hoge volume/lage prestatie kaarten verkocht konden worden. Die ~88 miljoen dollar winst op 3 miljard omzet is erg weinig. AMD werd er continu om afgefakkeld als niet genoeg winst kunnen maken op GPU's. Dus om over 'onbehoorlijke prijzen' te beginnen, is ietwat voorbarig.
Die afgelopen generaties kunnen een dipje voor nVidia zijn geweest, maar AMD is nu ook niet direct een gezond bedrijf. Uiteindelijk kun je als consument van geluk spreken dat nVidia en AMD zo aan elkaar gewaagd zijn.
We kunnen, als consument, zeker blij zijn dat nVidia met deze GK104 AMD bij kan houden. Het zorgt er voor dat de boel relatief competitief blijft. Daarbij mag gezegd worden dat een goed overgeklokte GTX560Ti ook best wel dicht bij HD6950 kon komen, of er zelfs overheen, dusdezelfde range als GK104 in zit, was al redelijk competitief. De vraag zal alleen zijn hoeveel beter GK104 is op 1080P, vergeleken met Pitcairn, gezien HD7870 soms wel erg dicht bij HD7950 zit.
Verwijderd schreef op zaterdag 17 maart 2012 @ 08:19:
Qua snelheid winst niet, wel omdat hij sneller is en vooral kleiner en zuiniger.
Dus ja dat kan hard aankomen bij AMD, om eigenlijk te winnen op AMD's eigen manier.
En nee ik kijk dan opjectief ;)

Maar in reviews gaan we natuurlijk geen oc kaarten vergelijken met stock kaarten dit geeft een scheef beeld. En dan nog kunnen vast en zeker ook de gtx680's overklocken.
GK104 is zeker een beetje kleiner, wellicht iets sneller (zal duidelijk moeten worden wanneer de echte reviews uitkomen) en misschien zuiniger. AMD's Max boardpower zegt weinig over verbruik. De vergelijkingen zullen moeten komen uit games, om te zien welke zuiniger zal zijn. HD7970 heeft die 8-pin niet nodig voor normaal gamen, het hadden gewoon 2 keer 6-pin kunnen zijn.

Maar dan nog, zoals gezegd, toen AMD de GTX580 met ruim 20% versloeg, was het maar matigjes, ondanks de veel kleinere chip, maar als nVidia met een iets kleinere chip een beetje sneller kan zijn is het opeens een harde klap... Dat is dan niet echt objectief imo.

Wat reviews aangaat, zullen ze inderdaad stock vs stock en max overclock vs max overclock moeten testen. Op die manier kun je zien hoeveel je werkelijk uit de verschillende chips kunt halen.

Acties:
  • 0 Henk 'm!

Verwijderd

De snelheidwist is ook bij nvidia magertjes, daar doel ik dan ook niet op. Maar op de manier waar op, kleiner minder, minder. Kortom AMDS's straatje alleen dan beter
Het is de laatste jaren sowieso magertjes en ik denk dat de bedrijven dat er om doen om zo veel mogelijk te verkopen door dat ze vaker nieuwe kaarten kunnen gaan maken uit een generatie.

Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Verwijderd schreef op zaterdag 17 maart 2012 @ 08:19:
Qua snelheid winst niet, wel omdat hij sneller is en vooral kleiner en zuiniger.
Dus ja dat kan hard aankomen bij AMD, om eigenlijk te winnen op AMD's eigen manier.
En nee ik kijk dan opjectief ;)
Kleiner, correct, maar wel met meer problemen. Zuiniger in full load ook, maar 33% achterblijvend in idle (10w vs 15w), en 250% in deep idle (3w vs 15w)
Verder is het een drogredenatie om te zeggen dat het op AMD's manier winnen is, omdat de grotere die van AMD nu juist vanwege GPGPU is, dus kan je net zo goed zeggen dat AMD richting nVidia geschoven is ;)
Maar in reviews gaan we natuurlijk geen oc kaarten vergelijken met stock kaarten dit geeft een scheef beeld. En dan nog kunnen vast en zeker ook de gtx680's overklocken.
In reviews gaan we nog helemaal niks, ik heb meerdere previews gezien die varieren tussen -3% en +15%, op één bepaalde setting, op gecherrypickte (of uberhaubt valse) kaarten. (Waarmee ik geenzins wil zeggen dat het niet accuraat kán zijn, alleen dat we het niet kunnen weten)
Overigens is de algemene concensus (ook in deze topic) dat nV hoger heeft moeten klokken om een concurrend product neer te zetten, wat natuurlijk het OC potentieel wel naar beneden haalt, te meer omdat het hier (zoals door jezelf al eerder aangehaald) om de van origine midrange kaart gaat die naar topend is getrokken vanwege problemen met de eigenlijke kandidaat.

Begrijp me niet verkeerd, ik ben wel AMD geneigd, maar zeker vanwege de compabiliteit (drivers/linux/cuda) zal ik 100% zeker een nV in m'n bak zetten als ze nu "over the range" beter presteren (verbruik/kosten/performance/stabiliteit)

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

Verwijderd

Dat van idle wist ik niet. Had ik ook nog niet mee gekregen. Dat is dan weer minder want een pc staat toch altijd lang in idle stand en dat wil je toch wel zo zuinig mogelijk hebben. Ik berijp je goed verder. Ik ben alleen altijd erg optimistisch, maar goed zo ben ik.

Nvidia zal ook niet lang met de nieuwe 28nm op NR1 staan als dit klopt.
http://www.tomshardware.c...-Kepler-GTX680,15032.html
Met als daar weer een andwoord op, wat mij nu ook wel erg interessant lijkt.
http://www.3dcenter.org/n...ng-auf-gk104-basis-im-mai

[ Voor 37% gewijzigd door Verwijderd op 17-03-2012 09:10 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
Inmiddels ook een GTX 680 van Point of View: http://www.centralpoint.n...t-vga-680-a1-num-1240569/.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Ik wil nog wel eens zien hoe de GTX680 in meerdere games presteert. Ik kan me voorstellen dat in apps die veel banbreedte vragen op het vidmem de HD7970 juist sneller is.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

Maar het snelheid verschil op 3 schermen is eigenlijk niet zo goot op 3 schermen 2 VS 3 GB.
Dus ik vraag me ook af of dat zware invloed zal hebben? Zal nvidia nu dan ook ondersteuning voor meer dan 2 schermen bieden?

Gezien de benchmarks (als die echt zijn) zal dat wel geoptimaliseerd zijn.

[ Voor 15% gewijzigd door Verwijderd op 17-03-2012 10:53 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Verwijderd schreef op zaterdag 17 maart 2012 @ 10:34:
Maar het snelheid verschil op 3 schermen is eigenlijk niet zo goot op 3 schermen 2 VS 3 GB.
Dus ik vraag me ook af of dat zware invloed zal hebben? Zal nvidia nu dan ook ondersteuning voor meer dan 2 schermen bieden?
Ik bedoel de geheugen bandbreedte , 2 vs 3 gb zal idd niet snel enig verschil maken. Maar het valt ook te bezien hoeveel het eerste zal uitmaken. Misschien met veel aa en textures.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 09:26
En toch is het zonde om nu alweer prijzen van 500+ euro te zien. Het was al te verwachten maarja, toenertijd met het bericht van Charlie leek het er toch wel op dat ze voor minder op de markt zouden komen, en juist leek het me een sterke slag als je een product wat sneller is voor minder geld op de markt brengt. Iedereen zou dan wel gek zijn om een 7970 te halen dat lijkt me toch een sterkere slag dan mensen weer de optie te geven voor welk merk heb ik de voorkeur wat zijn de voordelen hier wat daar. Maarja misschien zal het wel moeten echter had ik bij +/- 400 gedacht dat ze echt goed zouden gaan, maarja beschikbaarheid zou dan waarschijnlijk ook 0 zijn binnen 1 dag :P

Acties:
  • 0 Henk 'm!

  • MailMan
  • Registratie: Juni 2002
  • Laatst online: 10:43
edit:
verkeerde topique

[ Voor 105% gewijzigd door MailMan op 17-03-2012 12:46 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
@MailMan, [Algemeen] nVidia Nieuwdiscussie Topic - Deel 54

Wat betreft die benchmark leak:
Eigenlijk best een aardig resultaat. Het enige waar ik wel mijn vraagtekens bij heb is wat een HD7970 doet met een overclock. Dat niet iedereen overclockt, betekent niet dat daar geen rekening bij hoeft worden gehouden bij de aankoop van een videokaart. Gezien veel mensen hun HD7970 op een overclock hebben lopen van >15%, zou die 10% prestatie winst al snel weg vallen.
Ik ben overigens wel heel erg blij dat ze eindelijk 3 monitoren kunnen aansturen met maar 1 videokaart (anders ben je al meteen weer verplicht in 1x 1000 euro aan GPU power uit te geven bij nVidia). Voor het eerst sinds jaren dat de Surround-mogelijkheden niet meer belemmerend zijn bij het uitkiezen van een nieuwe aankoop. Al is de memory bandwidth (door de bus) wel laag voor 3-gaming. :-(

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Ik heb gegoogled op HKEPC, maar kon niets vinden in dit topic. Op deze site verscheen gisteren de review van de GTX 680 --> http://www.hkepc.com/7672/

En een berichtje op HWI: Eerste review nVidia GTX 680 online

Tomas was weer sneller, respect! :)

http://www.bouweenpc.nl/n...geforce-gtx-680-uitgelekt

[ Voor 18% gewijzigd door frankknopers op 17-03-2012 14:29 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
frankknopers schreef op zaterdag 17 maart 2012 @ 14:28:
Ik heb gegoogled op HKEPC, maar kon niets vinden in dit topic.
Alles vanaf TomasH in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54" gaat daar zo'n beetje over :P.
Thanks ;).

[ Voor 49% gewijzigd door Tomas Hochstenbach op 17-03-2012 15:46 ]


Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 11:11
Bleh, de prijzen van de GTX680 gaan ver buiten mijn budget :(
Wanneer komt Nvidia met een betaalbare goede kaart ala 8800GT, 560 Ti ofzo?

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
vinom schreef op zaterdag 17 maart 2012 @ 17:46:
Bleh, de prijzen van de GTX680 gaan ver buiten mijn budget :(
Wanneer komt Nvidia met een betaalbare goede kaart ala 8800GT, 560 Ti ofzo?
April/mei.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Maar eigenlijk kan het al nooit een 8800GT worden, want dat had de GTX680 moeten zijn...

Acties:
  • 0 Henk 'm!

Verwijderd

Tja, vind het toch wel moeilijk te verteren dat je nu ~500,- voor een GTX680 betaald, terwijl die zelfde 'kaart' wellicht een jaar geleden geraamd stond voor ~300,- met als naam GTX660 Ti.... :X

[ Voor 3% gewijzigd door Verwijderd op 17-03-2012 18:15 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik vraag me af of het overstappen waard is van 580.
In BF3 is de kaart wel een flink stuk sneller!!

en 1536 shaders op 1Ghz is en blijft gewoon behoorlijk monster.

Ik ben beniewd wat er met de beschikbaarheid gebeurd.
Dat groene GTX 580 letterype is trouwens wel most ugly ever! :X

[ Voor 84% gewijzigd door A87 op 17-03-2012 18:50 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Lias schreef op zaterdag 17 maart 2012 @ 18:48:
Ik vraag me af of het overstappen waard is van 580.
Was jij het niet die klaagde dat een 7970 maar 40% sneller was dan een 6970? En nu is dit opeens geweldig en een upgrade-waard? :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Lias schreef op zaterdag 17 maart 2012 @ 18:48:
Ik vraag me af of het overstappen waard is van 580.
In BF3 is de kaart wel een flink stuk sneller!!

en 1536 shaders op 1Ghz is en blijft gewoon behoorlijk monster.

Ik ben beniewd wat er met de beschikbaarheid gebeurd.
Dat groene GTX 580 letterype is trouwens wel most ugly ever! :X
Je zal dan even af moeten wachten op de reviews. Als blijkt dat de GTX680 al op zijn tenen loopt en nauwelijks valt over te clocken dan kan je beter bij je GTX580 blijven en die wat overclocken.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zaterdag 17 maart 2012 @ 18:15:
Tja, vind het toch wel moeilijk te verteren dat je nu ~500,- voor een GTX680 betaald, terwijl die zelfde 'kaart' wellicht een jaar geleden geraamd stond voor ~300,- met als naam GTX660 Ti.... :X
Gelukkig is AMD er om de prijzen te drukken...

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Lias schreef op zaterdag 17 maart 2012 @ 18:48:
Ik vraag me af of het overstappen waard is van 580.
In BF3 is de kaart wel een flink stuk sneller!!

en 1536 shaders op 1Ghz is en blijft gewoon behoorlijk monster.

Ik ben beniewd wat er met de beschikbaarheid gebeurd.
Dat groene GTX 580 letterype is trouwens wel most ugly ever! :X
Dan kan je alleen voor jezelf bepalen, wat je nodig hebt om een game in jou settings op jouw manier te spelen en wat het je waard is.

Ik ben een echte GFX-whore en kies voor power zonder concessies, dus ssaa FTW.

AMD heeft nu SSAA voor DX10 en 11 ingevoerd, een aardig pluspunt, maar het is nog afhankelijk van ingame AA.
NV heeft straks TXAA, daar ben ik ook benieuwd naar en mogelijk komen ze straks ook met officiele SSAA voor dx10+

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

Voor mij zou het iig niet waard zijn tenzij ik langzamer wil uitkomen. Ik denk dat ik deze keer tot maxwell wacht.

Voor iemand die een overstap gaat maken en daar mee mooie prestatie winsten kan maken zou een top kaartje in handen kunnen hebben voor hem zelf. Hij kan op 3 schermen gaan gamen, verbruik is goed, dus ik denk dat hij ook wel goed zal koelen. Als het klopt is deze kaart ook sneller want dan kan ik zien aan 3dmark11 waar AMD iets beter mee is.

Acties:
  • 0 Henk 'm!

  • Noctonix
  • Registratie: Februari 2012
  • Laatst online: 22-07 08:08
Oeps, wrong topic.

[ Voor 95% gewijzigd door Noctonix op 18-03-2012 10:42 ]

Freedom for everyone..


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19-09 15:00

XanderDrake

Build the future!

Ik las net een uitleg over de nieuwe shaders van nVidia, de SMX. Ik snapte er alleen geen bal van, ik zag niet waarom er nu ineens zoveel op één GPU kunnen zitten. Het ligt voor de hand dat de SMXs versimpelt zijn of ingedeeld op dezelfde manier als AMD's sp's, maar hoe het nu precies zit lees ik nergens. Sterker nog, Fudzilla claimt dat het dezelfde soort shaders zijn als bij de GTX 580, maar met een andere verdeling van ROPs, clusters, texture parsers, etc.

Wie o wie kan het me uitleggen :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Dus beschikbaar in juni/juli waarschijnlijk. Hmz, wachten of niet? :+

Specs


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Nu online
Ff vraagje tussendoor.

Dus... een PCB met een 320 mm2 chip gaat zoals het zich laat aanzien voor ~€500 de deur uit. Wat zou de GK110 wel niet hebben gekost/gaan kosten???

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

Verwijderd

Naluh! schreef op zondag 18 maart 2012 @ 12:28:
[...]

Dus beschikbaar in juni/juli waarschijnlijk. Hmz, wachten of niet? :+
Nee na de release en dat is maart/april
Helixes schreef op zondag 18 maart 2012 @ 13:27:
Ff vraagje tussendoor.

Dus... een PCB met een 320 mm2 chip gaat zoals het zich laat aanzien voor ~€500 de deur uit. Wat zou de GK110 wel niet hebben gekost/gaan kosten???
Kan niemand wat over zeggen. Wel denken/inschatten maar die zal er dan wel wat naast zitten.
De chip is zelfs nog kleiner. Nog onder de 300mm2

[ Voor 49% gewijzigd door Verwijderd op 18-03-2012 13:42 ]


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 19-09 19:54
Helixes schreef op zondag 18 maart 2012 @ 13:27:
Ff vraagje tussendoor.

Dus... een PCB met een 320 mm2 chip gaat zoals het zich laat aanzien voor ~€500 de deur uit. Wat zou de GK110 wel niet hebben gekost/gaan kosten???
Was het dan juist niet zo dat de GK110 de 680 zou moeten heten, en dat die dus voor laten we zeggen 500-600 euro verkocht zou worden. En juist de GK 104 (die nu dus de 680 is, maar de 660 moest worden) voor 300-400 euro verkocht zou moeten worden?? (en misschien wel minder, maar dat hangt dan weer af van AMD, ik er dan trouwens van uit dat we de 660 tegen de 7950 kunnen zetten, beetje dezelfde verhoudingen als bij 5xx vs 6xxx)

Dat idee heb ik in ieder geval na het volgen/lezen van dit topic.

[ Voor 12% gewijzigd door Zeara op 18-03-2012 14:05 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 18 maart 2012 @ 13:40:
[...]

Nee na de release en dat is maart/april
Ik denk dat je de grap mist over het daadwerkelijk fatsoenlijk 1 bij een (r)etailer kunnen verkrijgen.
Kan niemand wat over zeggen. Wel denken/inschatten maar die zal er dan wel wat naast zitten.
De chip is zelfs nog kleiner. Nog onder de 300mm2
Als niemand er iets over kan zeggen, waarom kun je dan wel een 'kleiner dan 300mm2' claimen?

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Nu online
Verwijderd schreef op zondag 18 maart 2012 @ 13:40:
Kan niemand wat over zeggen. Wel denken/inschatten maar die zal er dan wel wat naast zitten.
De chip is zelfs nog kleiner. Nog onder de 300mm2
Dat is dan weer niet helemaal waar; frankknopers linkte eerder deze pagina van bouweenpc, waar de aangehaalde Chinezen netjes een schuifmaat langs het silicium leggen :)

Ik kwam op 318,6 of zo.
Zeara schreef op zondag 18 maart 2012 @ 14:04:
[...]


Was het dan juist niet zo dat de GK110 de 680 zou moeten heten, en dat die dus voor laten we zeggen 500-600 euro verkocht zou worden. En juist de GK 104 (die nu dus de 680 is, maar de 660 moest worden) voor 300-400 euro verkocht zou moeten worden?? (en misschien wel minder, maar dat hangt dan weer af van AMD, ik er dan trouwens van uit dat we de 660 tegen de 7950 kunnen zetten, beetje dezelfde verhoudingen als bij 5xx vs 6xxx)

Dat idee heb ik in ieder geval na het volgen/lezen van dit topic.
Het blijft een interessant gedachtenexperiment, maar waarschijnlijk zit je dicht bij de waarheid. Er is natuurlijk ook een kans dat 28nm silicium van onze Taiwanese vrienden gewoon extreem duur is. We weten dat ze de prijs verhoogd hebben, zo tegen Q4 2012. Maar goed, waarschijnlijk heb je gelijk.

Toeval wil natuurlijk wel dat de twee topkaarten van nV en AMD in prijs, prestatie en afmeting niet gek ver van elkaar verwijderd zijn, iets wat we niet kennen van voorgaande generaties. En ook de prijzen zijn niet te vergelijken met voorgaande generaties. Vroeger zouden wij ons mogelijk hebben afgevraagd wat IJzeren Neelie daarvan gevonden zou hebben...

[ Voor 54% gewijzigd door Helixes op 18-03-2012 14:29 ]

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

Verwijderd

Zeara schreef op zondag 18 maart 2012 @ 14:04:
[...]
ik er dan trouwens van uit dat we de 660 tegen de 7950 kunnen zetten, beetje dezelfde verhoudingen als bij 5xx vs 6xxx)

Dat idee heb ik in ieder geval na het volgen/lezen van dit topic.
Nou, ik denk dat het nu iets anders komt te liggen omdat de voorsprong van de GTX680 minder groot lijkt te zijn. Eerder kon men de GTX570 gelijk zetten aan de HD6970 en de GTX580 gewoon 'los' daarboven, dat lukt nu niet. Dus ik denk dat de 'GTX670' het tegen de HD7950 moet opnemen en de GTX660 (Ti) het tegen de HD7870 moet opnemen.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 11:14

Tomas Hochstenbach

Redacteur componenten
GTX 670 is een GK104 met 1.344 shaders, iets (niet veel) lagere kloks, een 256-bit bus en 2GB GDDR5. Ik zeg 10-15% langzamer dan de GTX 680.

-edit-

Ook SLI-resultaten NVIDIA GeForce GTX 680

Wel balen dat de één met een 2600K en de ander met een 3930K test, want anders zouden de resultaten beter vergelijkbaar zijn...

[ Voor 50% gewijzigd door Tomas Hochstenbach op 18-03-2012 15:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

GTX670 dus tussen HD7950 en HD7970 in? Maar dan meer richting de HD7950 denk ik...

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

TomasH schreef op zondag 18 maart 2012 @ 15:15:
GTX 670 is een GK104 met 1.344 shaders, iets (niet veel) lagere kloks, een 256-bit bus en 2GB GDDR5. Ik zeg 10-15% langzamer dan de GTX 680.

-edit-

Ook SLI-resultaten NVIDIA GeForce GTX 680

Wel balen dat de één met een 2600K en de ander met een 3930K test, want anders zouden de resultaten beter vergelijkbaar zijn...
De SLI scaling ziet er goed uit, en maakt me nieuwsgieriger naar een mogelijke GTX 660 (Ti) als opvolgers van mijn huidige 460 SLI setup. Ik hoop alleen dat nvidia niet gaat beknibbelen en een 660 met minder dan 2gb geheugen uit brengt.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
Zer0 schreef op zondag 18 maart 2012 @ 16:23:
[...]

De SLI scaling ziet er goed uit, en maakt me nieuwsgieriger naar een mogelijke GTX 660 (Ti) als opvolgers van mijn huidige 460 SLI setup. Ik hoop alleen dat nvidia niet gaat beknibbelen en een 660 met minder dan 2gb geheugen uit brengt.
Ik verwacht eigenlijk dat ze dan bijv een 192-bit bus nemen met 1.5GB geheugen, ze moeten toch ergens op beknibbelen :P

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Nu online
mdcobra schreef op zondag 18 maart 2012 @ 16:24:
[...]


Ik verwacht eigenlijk dat ze dan bijv een 192-bit bus nemen met 1.5GB geheugen, ze moeten toch ergens op beknibbelen :P
Als ze die kaart in de ~$300 niche gaan plaatsen.... niet per se :p

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op zaterdag 17 maart 2012 @ 22:05:
[...]


Gelukkig is AMD er om de prijzen te drukken...
Hoezo sarcasme :P

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jammer genoeg wel.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zondag 18 maart 2012 @ 14:04:
[...]


Ik denk dat je de grap mist over het daadwerkelijk fatsoenlijk 1 bij een (r)etailer kunnen verkrijgen.


[...]


Als niemand er iets over kan zeggen, waarom kun je dan wel een 'kleiner dan 300mm2' claimen?
Dus jij weet de huidige prijzen al want daar doelde ik op.
Hier laten ze zien (van de sineese website dat de die nog kleiner is dan via een meetlat op papier.
http://www.nordichardware...ology-price-revealed.html

Ik denk indd dat de kaarten ergens vanaf 23 maart te verkrijgen zijn want dat word als verkoopdatum gezien.
Het zou ook wel een paperlaunch kunnen worden zoals met de hd7970 en 7880 maar ik verwacht het niet.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik blijf er bij dat ik het eerst moet zien en dan pas ga geloven. Maar ik sluit niet uit dat AMD in verhouding te veel in GPGPU heeft gestoken. Waardoor de chip veel groter is geworden en de GFX power om games te spelen in verhouding minder vooruit gegaan is. Waar nVidia misschien juist wat GPGPU ingeleverd heeft en games wat meer de voorkeur heeft gegeven.

Afgelopen generaties had AMD meer FPS per MM2. Als de geruchten waar zijn lijkt dat nu te gaan veranderen. Ik zeg niet dat het niet kan maar ik vraag me af of we niet te positief zijn over benshmarks die niet officieel zijn. Wellicht valt het zodadelijk weer tegen als je reviews leest van niet pro nVidia sites (pro nVidia sites gebruiken vaak alleen TWIMTBP games die nVidia opgeeft in de reviewers guide. En dat is natuurlijk geen realistisch beeld).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ik maak me daar niet druk om gezien d3mark11 beter draaid op AMD en BF3 is ook geen PWIMTBP game.
Ik wil eigenlijk weten of zo'n enkele kaart wel voldoende zal zijn voor 3 schermen.
Zer0 schreef op zondag 18 maart 2012 @ 16:23:
[...]

De SLI scaling ziet er goed uit, en maakt me nieuwsgieriger naar een mogelijke GTX 660 (Ti) als opvolgers van mijn huidige 460 SLI setup. Ik hoop alleen dat nvidia niet gaat beknibbelen en een 660 met minder dan 2gb geheugen uit brengt.
Partners van nvidia regelen het geheugen wel. Scheelt nvidia weer geld.
Paprika schreef op zaterdag 17 maart 2012 @ 19:09:
[...]

Was jij het niet die klaagde dat een 7970 maar 40% sneller was dan een 6970? En nu is dit opeens geweldig en een upgrade-waard? :+
Ik denk dat hij zijn eigen kaart en mee bedoelde. Dan is het indd niet veel. Maar vergelijkbaar met de7970 is dat juist wel een hele mooie verbetering moet ik zeggen.

[ Voor 79% gewijzigd door Verwijderd op 19-03-2012 09:59 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Zelfs gelekte resultaten van 3dmark11 zeggen helemaal niets over de verhoudingen onderling in games. AMD heeft een geheel nieuwe architectuur en ook nVidia heeft een geheel vernieuwde architectuur. Resultaten van voorgaande series zeggen dus helemaal niets.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Zer0 schreef op zondag 18 maart 2012 @ 16:23:
Ik hoop alleen dat nvidia niet gaat beknibbelen en een 660 met minder dan 2gb geheugen uit brengt.
Verwijderd schreef op maandag 19 maart 2012 @ 09:53:
Partners van nvidia regelen het geheugen wel. Scheelt nvidia weer geld.
Je mis het punt.

Zodra de GTX660 over een 192-bit geheugenbus beschikt, kunnen die "partners" veel willen, maar zal die gewoon met 1.5GB geheugen worden geleverd.
Dan zullen er wel fabrikanten zijn die er 3GB op prikken, maar gezien de prijs van VRAM, is het waarschijnlijk dat die prijs behoorlijk dicht bij die van de GTX670 o.i.d. gaat zitten.

[ Voor 4% gewijzigd door SirNobax op 19-03-2012 10:36 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

Verwijderd

SirNobax schreef op maandag 19 maart 2012 @ 10:35:
[...]


[...]

Je mis het punt.

Zodra de GTX660 over een 192-bit geheugenbus beschikt, kunnen die "partners" veel willen, maar zal die gewoon met 1.5GB geheugen worden geleverd.
Dan zullen er wel fabrikanten zijn die er 3GB op prikken, maar gezien de prijs van VRAM, is het waarschijnlijk dat die prijs behoorlijk dicht bij die van de GTX670 o.i.d. gaat zitten.
Ik mis geen punt 8)7 . Het ging om de hoeveelheid geheugen en als je beter leest dan weet je dat ik dat bedoelde.
Ik verwacht niet dat nvidia ook een 192-bit bus zal gaan gebruiken maar gewoon de zelfde als de gtx680. Maar dat is nog even afwachten.

[ Voor 21% gewijzigd door Verwijderd op 19-03-2012 10:51 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Mooi, weet al wat ik ga kopen met me vakantie geld :D 2 x GTX 680 voor SLI.
Helaas zit ik met een 2500K @ 5Ghz. Weet niet of me CPU een bottleneck vormt.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

Verwijderd

Het mag duidelijk zijn dat het gewoon wel om de gtx680 gaat. Al dat speculeren over wat het zou worden en de specs kan nu stoppen.
Asus GeForce GTX 680 "Kepler" Graphics Card Available for Pre-Order in the US.
http://news.softpedia.com...er-in-the-US-259348.shtml

Zelf wacht ik mooi op kaartjes met 4GB en fullcover waterblok.

[ Voor 17% gewijzigd door Verwijderd op 19-03-2012 10:53 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hoe bedoel je? De specs zijn hier al lang genoemd, daar was niks speculatiefs aan en is ook vele malen betrouwbaarder dan waar je nu mee komt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Tot vlak voor de benchmark leaks wilde maar weinig geloven over de specs. Vooral de hoeveelheid cuda cores.
En dit is ook niet de eenige webshop. Ook een paar hier in nederland.

[ Voor 24% gewijzigd door Verwijderd op 19-03-2012 11:03 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 19 maart 2012 @ 09:53:
Ik maak me daar niet druk om gezien d3mark11 beter draaid op AMD
Oh, is dat zo? Als je nou eens daadwerkelijk kijkt naar 3DMark, zie je dat bepaalde tests inderdaad beter lopen op AMD, maar andere tests stukken beter op NVIDIA. Ik heb een grafhekel aan 3DMark, maar ze testen wel vrij aardig "across the board". Sterke punten van een chip worden benadrukt, zwakheden worden meteen duidelijk. Jammer genoeg geeft dit nog steeds geen enkele garantie voor daadwerkelijke performance in games. Juist in games als BF3, waar DICE codepaths heeft voor specifieke architecturen aan beide kanten. Wellicht heb je het gemist, maar ergens in december kwam er een hele korte tweet langs waarin men snel even wat tests had gedaan bij DICE met de 7970 en toen bleek dat het GF110 codepath beter liep dan alle andere - op een 7970 dus. Dat is de reden dat je bij een fatsoenlijke game geen donder aan 3DMark hebt.

Het is overigens TWIMTBP en wat betreft je laatste opmerking: de meesten van ons hadden ook gelijk. Het zijn niet dezelfde SPs (of CUDA cores, als jij ze zo wil noemen) als in GF100/GF110 ;)


En dan nu even een muurtje met tekst - als iemand een domme opmerking ziet, zeg het even want ik typ dit nu vanuit m'n bed met een lekker griepje ;)
Er is een boeiende post op het Beyond3D forum verschenen. De 7970 gebruiker heeft erg veel moeite gedaan om maar zo dicht mogelijk qua settings bij de GK104 afbeelding te komen. Zijn CPU is technisch gezien een stapje lager, maar voor de rest heeft hij dezelfde kloksnelheid ingesteld, dezelfde timings.

Er zijn wat vreemde dingen uit deze resultaten te halen. Laat ik er eerst even de 6 tests bijnemen:
Graphics Test 1: No tessellation, Heavy lighting with several shadow casting lights
Graphics Test 2: Medium tessellation, Medium lighting with few shadow casting lights
Graphics Test 3: Medium tessellation, One shadow casting light
Graphics Test 4: Heavy tessellation, Many shadow casting lights
Physics Test: Rigid body physics simulation with a large number of objects
Combined Test: Runs rigid body physics simulation on a moderate number of objects, Soft body physics using DirectCompute and the Bullet physics library running on the GPU, Medium tessellation, Medium lighting

CT komt het dichtst in de buurt bij een game die alles uit een PC perst wat er te halen valt. GT1 is een 100% shader test, GT2 haalt een beetje druk van de shaders af en voegt wat tessellation toe, GT3 test vooral tessellation met een enkele grote zware lichtbron, GT4 pusht beide tot het uiterste. De Physics test is een test om te zien hoe goed de CPU met de physics om kan gaan terwijl de GPU rendert; m.a.w. hoeveel tijd de CPU aan de physics kan besteden.


Stock Tahiti (XT) vs GK104: verliest GT1 hard, wint nipt in GT2, verliest nipt in GT3, wint aardig in GT4 en PT en vrijwel evenaart in CT.
Dit alleen al is een super vreemd beeld voor mij. Al jarenlang is het juist AMD geweest die keihard won in pure shader tests en dat gaat nu faliekant mis (zometeen meer). Echter wint AMD het nu ook ineens op tessellation, juist het vlak waar Nvidia de laatste twee jaar zo ver voor lag dankzij hun grote aantal tessellators. Ga je dan nog verder kijken zie je dat als alles samen wordt gegooid AMD toch niets achterligt uiteindelijk.
Een belangrijk punt in dit geheel is ook het Physics gedeelte; het lijkt er op dat Kepler een stukje meer CPU overhead nodig heeft om z'n werk te kunnen doen.

Tahiti XT @ GK104 clocks vs GK104: verliest GT1 nog steeds hard, maar wint de rest ruim.
Op gelijke clocks doet GK104 gewoon onder voor Tahiti. Dat AMD erg zuinig is geweest met de clocks wisten we al, maar het geeft GK104 dus een klein voordeel in reviews. Een ander punt dat mij opvalt is dat physics juist iets is terug gevallen; met andere woorden, een stock Tahiti hikt in 3DM11 niet tegen een GPU cap aan, maar op GK104 clocks komt die cap al dichter in de buurt. GK104 zit er zo te zien al vrijwel tegenaan.


Nu, waarom deze muur als ik toch geen waarde hecht aan 3DMark? Omdat het de "scores" zijn die mij niet boeien. Die zijn uit de lucht gegrepen en laten geen donder zien. Met de daadwerkelijke FPS van de tests kun je wel wat, maar die krijgen we niet altijd ;)

Het grote punt dat ik hier uit haal, is dat ik wil weten hoe het straks daadwerkelijk met de overklokbaarheid van GK104 zit. Als hij niet veel verder kan terwijl Tahiti eigenlijk poep eenvoudig sowieso 1125 op de core haalt, dan zou Tahiti toch de betere keuze kunnen blijken; voor ons tweakers althans.

GK104 lijkt tot dusverre het knapste staaltje werk van Nvidia sinds GF104 (toevallig was dat ook het knapste staaltje werk sinds G80 ;)), maar eerst zien, dan geloven. Alles wat ik heb gezien is heel wisselvallig en het lijkt er op dat er ook wat softwarematige truukjes toegepast worden.


Edit: overigens een kleine opmerking m.b.t. wat ik zei over tessellation: Nvidia heeft een tessellator per SM. AMD had er slechts 1 per "graphics engine" - 1 in Cypress dus, 2 in Cayman. Als je kijkt naar hoe tessellation zich gedroeg op kaarten van beide fabrikanten, zag je dat tot ~6 samples er geen verschil was ten tijde van Cypress, daarboven liep Nvidia gewoon weg. Met Cayman kwam die hit pas rond de 11 samples. Even afgezien van hoeveel samples nuttig zijn, is Nvidia's aanpak een van "divide & conquer" - met meer samples splitten zij die load even leuk op, althans daar lijkt het op. Zij voeren de handel gewoon parallel uit en dat werkt verdomd goed. Vandaar dat ik dus zei "vanwege hun grote aantal tessellators" - ik zou zelf namelijk dolgraag eens zien wat er was gebeurd als Cypress 4 tessellators had gehad tegenover GF100 :)

[ Voor 7% gewijzigd door Werelds op 19-03-2012 11:25 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op maandag 19 maart 2012 @ 11:02:
Tot vlak voor de benchmark leaks wilde maar weinig geloven over de specs. Vooral de hoeveelheid cuda cores.
En dit is ook niet de eenige webshop. Ook een paar hier in nederland.
De specs zijn dan ook bijna tegelijk gekomen met de eerste benchmarks, oudere specs hadden het nog altijd over hotclocks van zo'n 1400 MHz. Maar dit kwam door GPU-z welke nog geen ondersteuning had voor de GK104 en dit melden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op maandag 19 maart 2012 @ 09:53:
Ik maak me daar niet druk om gezien d3mark11 beter draaid op AMD en BF3 is ook geen PWIMTBP game.
Ik wil eigenlijk weten of zo'n enkele kaart wel voldoende zal zijn voor 3 schermen.


[...]


Partners van nvidia regelen het geheugen wel. Scheelt nvidia weer geld.


[...]


Ik denk dat hij zijn eigen kaart en mee bedoelde. Dan is het indd niet veel. Maar vergelijkbaar met de7970 is dat juist wel een hele mooie verbetering moet ik zeggen.
Een 7970 OC is dat ook niet echt voor 3x1080P Daar is CF ook echt aan te raden wil je de IQ max hebben. Kortom een GTX680 zal dat ook niet relax doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cobaltos
  • Registratie: November 2009
  • Laatst online: 28-08 12:40
Mijn oude pc draaide op een 8800GT, was een enorm fijne kaart. Daarrna overwoog ik de 560 ti maar het duurt nog even voordat ik daadwerkelijk mijn nieuwe pc ga kopen. Vandaar, heb je misschien een bron of verdere informatie over de kaart die je in april/mei verwacht?

Acties:
  • 0 Henk 'm!

Verwijderd

Reportedly, the GeForce GTX 680 is set to launch on March 22, 2012 with a predicted price tag of $500. However, NVIDIA has yet to make any official announcements regarding all these details.
Dus het is nog niet door nvidia zelf bevestigd. Het kan dus net zo goed mei zijn. En kan het net zo goed 550 gaan kosten.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Beter maken ze de prijs $400.

[ Voor 16% gewijzigd door madmaxnl op 19-03-2012 14:06 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Mwah, als AMD daadwerkelijk in April met hun HD7990 komt, lijkt het me niet ondenkbaar dat de prijzen van de 7970 en daarmee ook de GTX680 gelijk wat omlaag gaan.
Iirc waren de "suggested retail-prijzen" van AMD's dual gpu kaarten altijd tussen de 600 en 700 dollar.

Pentaxiaan

Pagina: 1 ... 21 ... 43 Laatste