[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 ... 30 Laatste
Acties:
  • 125.330 views

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:35

XanderDrake

Build the future!

Werelds schreef op vrijdag 15 februari 2013 @ 14:52:
Hecht niet te veel waarde aan de term TDP. Het is echt de meest afschuwelijke term gebruikt voor GPUs momenteel, omdat Nvidia en AMD hem allebei anders interpreteren. Sterker nog, Nvidia interpreteert hem nu anders dan anderhalf jaar geleden. Het "TDP" van een 680 in de zin van gemiddeld verbruik in games ligt eerder op 250W dan die belachelijke 195W die ze aangeven als specs.

Ik heb echt een ontzettende grafhekel aan die drie letters tegenwoordig, omdat iedereen het gebruikt ter vergelijking met andere kaarten terwijl er drie verschillende manieren zijn waarop het geinterpreteerd wordt.
Werelds, damn kerel, je windt je wel op over dingen he :+

Deze tabel ziet er inderdaad wel redelijk realistisch uit, al verwacht ik dat de 780 TI iets sneller is dan dat, puur naar de specs kijkend.
Werelds schreef op vrijdag 15 februari 2013 @ 14:23:
Verminderen kan altijd, maar met AFR komen ze er nooit vanaf, is technisch gezien gewoon niet mogelijk. Wat zorgwekkender is is inderdaad dat microstuttering zich in grotere mate voordoet met de huidige generatie single GPUs.
Ik heb nooit gezegd dat het nVidia het heeft laten verdwijnen, dat gaat inderdaad niet. Maar als je kijkt naar dat plaatje dat ik mee leverde via de link, zie je dat je het niet gaat merken. Geen piek (dus microstutter) komt in de buurt van de 20ms latency, das 50fps. Das al volledig soepel.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 14-07 16:04
Werelds schreef op vrijdag 15 februari 2013 @ 14:23:
[...]

Overigens wederom een tabelletje gefabriceerd (heb hem hier nog niet langs zien komen):

[afbeelding]
Lijkt mij wel heel erg fake.
Bijna alles is identiek aan de 6xx reeks, met hier en daar een tiental MHz meer en een bredere geheugenbus.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
XanderDrake schreef op vrijdag 15 februari 2013 @ 15:19:
Werelds, damn kerel, je windt je wel op over dingen he :+
Valt wel mee hoor, ik typ het erger dan het is, want om mij in het echt geïrriteerd te krijgen moet je al heel ver gaan :p

Dit zijn gewoon het soort dingen waardoor mensen van kamp A of kamp B altijd tegenover de ander beweren dat kaart/chip X beter is dan Y, want het "TDP" is lager en toch doet hij het beter !11!1!1one!enzo

Het is dus heel jammer dat die hele term TDP echt geen moer zegt over het verbruik van een kaart en/of chip, of zelfs maar over de hitte ontwikkeling (want dit is technisch gezien waar TDP over zou moeten gaan). Is hetzelfde verhaal als bij auto's: een auto kan z'n maximum koppel en vermogen bij 7000 RPM hebben en een "verbruik" van 1:30...als je onder de 2000 RPM blijft, uitzonderlijk rustig op trekt en vooral snelweg rijdt. Dan haal je dat vermogen dus nooit. Mijn eigen wagen zou een verbruik van 1:17-1:18 (en "gemiddeld" 1:14) hebben, maar in de praktijk haal ik slechts 1:12 als ik "bewust" rijdt. Als m'n voet een beetje zwaar wordt (is vaak lastig om hem omhoog te houden :+) dan zakt ie gerust onder de 1:10.

Verschil is alleen dat koppel, vermogen en verbruik bij auto's tenminste altijd hetzelfde betekenen, zelfs dat is hier niet het geval. Waar verbruik wel in verband staat met vermogen/koppel, is dat met TDP het geval niet meer. Het slaat namelijk niet op een gemiddelde, niet op een minimum en ook niet op een maximum. Het slaat ook niet op hoeveel hitte er nog uit de chip komt na inefficiëntie. Het is ook niet zo dat ze zeggen "bij X% load". Dus wat zegt het dan nog? TDP is geen bruikbare spec of argument meer helaas.
catfish schreef op vrijdag 15 februari 2013 @ 15:29:
Lijkt mij wel heel erg fake.
Bijna alles is identiek aan de 6xx reeks, met hier en daar een tiental MHz meer en een bredere geheugenbus.
Waarom lijkt jou deze dan heel erg fake?

Heb je al eens gekeken naar GF110 tegenover GF100? Een 30 MHz meer op de core en het geheugen, kleinere (!) bus. TDP wat verbeterd, maar that's it. Afgezien van de net iets betere performance/transistor, wat ook hier weer het geval zou zijn.

Juist hierom is dit de meest realistische tot nu toe.

[ Voor 9% gewijzigd door Werelds op 15-02-2013 17:15 ]


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 14-07 16:04
Werelds schreef op vrijdag 15 februari 2013 @ 17:07:
[...]
Waarom lijkt jou deze dan heel erg fake?

Heb je al eens gekeken naar GF110 tegenover GF100? Een 30 MHz meer op de core en het geheugen, kleinere (!) bus. TDP wat verbeterd, maar that's it. Afgezien van de net iets betere performance/transistor, wat ook hier weer het geval zou zijn.

Juist hierom is dit de meest realistische tot nu toe.
Omdat deze tabel hetzelfde aantal transistors vermeldt, dezelfde die size,... enkel de kloksnelheid en de geheugenbusbreedte is anders.
Het zou natuurlijk wel kunnen dat nVidia z'n GF11x chips wat heeft bijgewerkt en dan als nieuw product op de markt zet. (Dat zou niet echt de eerste keer zijn.)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Zou kunnen? Het is wel zeker dat GK114 niets meer dan een bijgeschaafde GK104 zal zijn, dat is hoe beide fabrikanten te werk gaan. GF100/GF110 zijn overigens de 470/480 en 570/580 voor de duidelijkheid, en om het dan correct te bekijken moet je de 480 met de 570 vergelijken omdat beide een cluster hebben uitgeschakeld (beide hebben dus 480 actieve "CUDA Cores"). GF100 was dusdanig slecht dat de yield op volledig werkende chips te klein was om te verkopen.

Van GF100 (480) naar GF110 (570) krijg je dan het volgende:
- Exact hetzelfde aantal transistors
- 9mmˆ2 kleinere die
- 256 MB minder geheugen met als resultaat een bus van 320 t.o.v. 384
- +32 MHz op de core, +26 MHz op het geheugen (3800 vs 3696 met QDR, dus (3800 - 3696) / 4 = 26)
- 8 ROPs minder

Dat de die net iets kleiner is kwam bij GF110 doordat ze van GF104 geleerd hadden en hier en daar wat geschaafd hebben, want GF114 was EXACT even groot als GF104. Als je die twee voor de rest vergelijkt, kom je op precies dezelfde verschillen (of gebrek daaraan) uit. Wederom weer even in het achterhoofd houden dat GF114 beter door de productie kwam dan GF104, dus ook bij GF104 mistte er een heel cluster.

[ Voor 13% gewijzigd door Werelds op 15-02-2013 22:30 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op vrijdag 15 februari 2013 @ 11:10:
[...]

Dank dat ie dat bedoelde met 'effectief' bruikbaar...
Nee lees de andere posts maar.
Werelds schreef op vrijdag 15 februari 2013 @ 14:23:
[...]
Overigens wederom een tabelletje gefabriceerd (heb hem hier nog niet langs zien komen):

[afbeelding]
Lachwekkend oOo

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 23:01

Tomas Hochstenbach

Redacteur componenten
Die GK110 heet niet voor niets Titan en geen 7xx...

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Veel daarvan is inderdaad lachwekkend, ik neem hem dan ook niet serieus :P

Neemt niet weg dat degene die deze bedacht heeft op sommige vlakken weldegelijk goed heeft nagedacht en dichter bij de realiteit zal zitten dan andere fabricaties.

We zullen het snel genoeg zien, ik geloof in elk geval niet in een magische sprong van 80%. Titan slaat dan ook meer op de specs van de chip dan de performance gok ik :p

Acties:
  • 0 Henk 'm!

  • 02Sjoerd
  • Registratie: September 2011
  • Laatst online: 08-07 22:14
Is het mogelijk dat als de Titan morgen wordt geintroduceert de prijzen vd huidige videokaarten dalen? Of is dat onzin?
Want ik kan nu al gaan bestellen, maar misschien is het slimmer om te wachten tot morgen mocht er nog iets onverwachts aangekondigt worden..

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Aangezien de Titan met geen mogelijkheid gaat concurreren met de meeste videokaarten van minder dan 500 euro zal de invloed op de prijzen van videokaarten nihil zijn.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

http://videocardz.com/ima...rce-GTX-Titan-Picture.jpg

Zie het al weer voor me.. 3-way 4-way gekken.
haha wordt weer benchmarks kijken morgen :D.

[ Voor 181% gewijzigd door A87 op 18-02-2013 00:44 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Kwestie van cash ervoor hebben en gaan met die banaan !!! There is no such thing as "overkill" :P })

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

Ik moet die Titan hebben! :*)

Hoop dat de reviews goed bevallen en dan maar pre-orderen.
Eindelijk kunnen mijn GTX480's naar het bejaarden tehuis ;w

En maar hopen dat de prijs een beetje meevalt. 3 jaar geleden €1100,- betaald voor 2x GTX480 dus als deze ~ €800,- gaat kosten en 50-60% sneller is dan de GTX680 ..... _/-\o_ im happy to pay!

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Fusion_XT schreef op maandag 18 februari 2013 @ 10:38:
Ik moet die Titan hebben! :*)

Hoop dat de reviews goed bevallen en dan maar pre-orderen.
Eindelijk kunnen mijn GTX480's naar het bejaarden tehuis ;w

En maar hopen dat de prijs een beetje meevalt. 3 jaar geleden €1100,- betaald voor 2x GTX480 dus als deze ~ €800,- gaat kosten en 50-60% sneller is dan de GTX680 ..... _/-\o_ im happy to pay!
http://videocardz.com/396...eforce-gtx-titan-pictured

Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is ;)

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

calsonic schreef op maandag 18 februari 2013 @ 10:50:
[...]


http://videocardz.com/396...eforce-gtx-titan-pictured

Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is ;)
Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'n }).
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

calsonic schreef op maandag 18 februari 2013 @ 10:50:
[...]


http://videocardz.com/396...eforce-gtx-titan-pictured

Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is ;)
hoeveel oplagen waren er van de 690? Want die worden nog steeds verkocht.
BTW met 1 scherm merk ik nog dat mijn 3770 een 7970 1,1 ghz bottlenecked met vaak gpu load 85-95% ofso... met fps van rond 80
Voor 1 scherm hoef je iig geen titan te kopen lolz. Echt een kaart voor 3 monitoren is het eigenlijk

[ Voor 21% gewijzigd door A87 op 18-02-2013 11:08 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
A87 schreef op maandag 18 februari 2013 @ 11:05:
[...]


hoeveel oplagen waren er van de 690? Want die worden nog steeds verkocht.
BTW met 1 scherm merk ik nog dat mijn 3770 een 7970 1,1 ghz bottlenecked met vaak gpu load 85-95% ofso... met fps van rond 80
Voor 1 scherm hoef je iig geen titan te kopen lolz. Echt een kaart voor 3 monitoren is het eigenlijk
De 690 wordt ook nog steeds geproduceerd - die zou niet in een beperkte oplage gemaakt worden.

Denk zelf dat de meeste kopers van een Titan hem ook alleen maar kopen om simpelweg de sterkste single gpu te hebben.
Ik wil hem kopen om er zeker een paar jaar _/-\o_ flink plezier van te hebben.
Fusion_XT schreef op maandag 18 februari 2013 @ 10:52:
[...]


Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'n }).
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.
Meer is altijd beter - misschien dan zelfs wel een SLI setup - gewoon omdat het kan _/-\o_

[ Voor 26% gewijzigd door calsonic op 18-02-2013 11:17 ]


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

calsonic schreef op maandag 18 februari 2013 @ 11:15:
[...]


De 690 wordt ook nog steeds geproduceerd - die zou niet in een beperkte oplage gemaakt worden.

Denk zelf dat de meeste kopers van een Titan hem ook alleen maar kopen om simpelweg de sterkste single gpu te hebben.
Ik wil hem kopen om er zeker een paar jaar _/-\o_ flink plezier van te hebben.


[...]


Meer is altijd beter - misschien dan zelfs wel een SLI setup - gewoon omdat het kan _/-\o_
Ik geef liever ook altijd iets meer uit om er zo zeker van te zijn een aantal jaar zorgeloos te kunnen gamen :D.. dan elk jaar een nieuwe GPU te moeten aanschaffen.

Mijn GTX480's (3 jaartjes oud) doen het zelfs nu nog geweldig. BF3 high/ultra 1080P 4xMSAA = 50~100 FPS (depends on map).

Paar weken geleden mijn X58 mobo voorzien van een I7 980x (zeer leuke prijs) en ik kan er weer een jaar of 2 tegen aan _/-\o_ . Aangezien Hasswell nou niet een onwijze vooruitgang gaat worden.
Nu nog Titan en het feestje is weer compleet :*)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Dat kan ik dus echt niet hoor, ik koop elke 6 maanden oid nieuw spul omdat ik het leuk vind om de postbode voor de deur te hebben staan... lol :+
480 sli was eigenlijk tot vandaag meer dan zat. toch wilde ik weer persee nieuw spul.
Alleen rond 900 euro betalen in 1 klap voor 1 videokaart vind ik net ff te veel zegmaar }:O.

Als je er 2-3 jaar mee doet ok, dan zeker 900 waard, imo

off/
Wat betreft 980x....... ik ging over van i5 760 3.9 naar 3770 en de fps is gewoon veel soepeler, dus zeker geen afrader om over te stappen op een nieuw platform aangezien je duidelijk minder last hebt van latencies tov oudere generatie 920/ etc.
Ivy Birdge is echt een vooruitgang! Ook al is de fps niet veel hoger, het werkt gewoon fijner > smoother

Dit idee
http://techreport.com/r.x/ivy-bridge/skyrim-beyond-17.gif
http://techreport.com/rev...0k-ivy-bridge-processor/6

Met videokaarten speelt dit fenomeen ook een rol....

[ Voor 98% gewijzigd door A87 op 18-02-2013 12:23 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Fusion_XT schreef op maandag 18 februari 2013 @ 10:52:
[...]


Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'n }).
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.
Als de prestaties inderdaad minder zijn dan een GTX 690 vind ik het best duur aangezien je die voor dezelfde prijs hebt. En GTX670 SLI bijvoorbeeld heb je voor 700 a 720 wat ook redelijk vergelijkbaar is qua prestaties met een GTX 690.

Voordeel is dan vooral het surplus aan geheugen, 1 card+ 1 GPU solution en potentieel minder Microstuttering. Dat laatste is al erg laag bij nVidia, zelfs in SLI of 690. Het is beperkt meetbaar maar in praktijk ga je het denk ik niet zien.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Jammer genoeg morgen pas de eerste officiële specificaties en benchmarks.
En misschien vanaf donderdag te koop.

http://videocardz.com/396...nch-postponed-to-feb-19th

[ Voor 12% gewijzigd door calsonic op 18-02-2013 12:59 ]


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Help!!!! schreef op maandag 18 februari 2013 @ 12:27:
[...]

Als de prestaties inderdaad minder zijn dan een GTX 690 vind ik het best duur aangezien je die voor dezelfde prijs hebt. En GTX670 SLI bijvoorbeeld heb je voor 700 a 720 wat ook redelijk vergelijkbaar is qua prestaties met een GTX 690.
Daar zat ik ook al aan te denken. Neem dan een 670 / 680 4GB versie sli.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
mukkel schreef op maandag 18 februari 2013 @ 13:24:
[...]


Daar zat ik ook al aan te denken. Neem dan een 670 / 680 4GB versie sli.
Dan heb je wel een hoger stroomverbruik en meer hitte in je case, de Titan blaast de hete lucht je kast uit.

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

19feb komt ie nu uit, benches/reviews komen de 21ste pas uit.

Hopelijk heeft er iemand schijt aan de NDA!... need benches !

http://videocardz.com/396...nch-postponed-to-feb-19th

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Fusion_XT schreef op maandag 18 februari 2013 @ 13:40:
19feb komt ie nu uit, benches/reviews komen de 21ste pas uit.

Hopelijk heeft er iemand schijt aan de NDA!... need benches !

http://videocardz.com/396...nch-postponed-to-feb-19th
En vanaf het moment dat hij te koop is moet je er snel bij zijn want die 10.000 zijn zo weg ;)

[ Voor 17% gewijzigd door calsonic op 18-02-2013 14:03 ]


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

calsonic schreef op maandag 18 februari 2013 @ 14:02:
[...]


En vanaf het moment dat hij te koop is moet je er snel bij zijn want die 10.000 zijn zo weg ;)
Dat komt wel goed... overal pre-orderen :D.

[ Voor 33% gewijzigd door Fusion_XT op 18-02-2013 14:07 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Die 690s die zogenaamd limited zouden zijn, zijn ook nog gewoon te krijgen.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Sn0wblind schreef op maandag 18 februari 2013 @ 14:30:
Die 690s die zogenaamd limited zouden zijn, zijn ook nog gewoon te krijgen.
Er komt waarschijnlijk nog wel een partij na die 10.000 stuks alleen wanneer is nog niets van bekend.

[ Voor 27% gewijzigd door calsonic op 18-02-2013 14:37 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

tegen de tijd dat ik geld over heb zullen ze wel goed leverbaar zijn ^^. maandje of 5

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Maar de 690s verschillen totaal niet onderling dus dat er iets minder merken beschikbaar zijn heeft meer alleen invloed op de eventuele garantie afhandeling.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Sn0wblind schreef op maandag 18 februari 2013 @ 15:50:
Maar de 690s verschillen totaal niet onderling dus dat er iets minder merken beschikbaar zijn heeft meer alleen invloed op de eventuele garantie afhandeling.
Daar heb je idd gelijk in.
A87 schreef op maandag 18 februari 2013 @ 14:48:
tegen de tijd dat ik geld over heb zullen ze wel goed leverbaar zijn ^^. maandje of 5
Dan ben je zeker een student ofzo?

[ Voor 28% gewijzigd door calsonic op 18-02-2013 18:06 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Hier zijn ze dan de Officiële specificaties van de Titan!

http://videocardz.com/396...titan-announcement-leaked

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Schraal dat ze een enkele titan vergelijken met de 680 / 7970.
En pas bij multi monito setup de 690 meepakken.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

http://www.overclock.net/...views-gtx-titan-announced.
maarja, laat ze nu maar eens snel met mooiere games komen ook . >:)

Wel nice dat AMD nu ook werk heeft te verichten en niet op de luie reet blijft zitten ^^. Hopelijk nog 10% performance er bij binnen 6 maanden

[ Voor 174% gewijzigd door A87 op 18-02-2013 18:59 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
mukkel schreef op maandag 18 februari 2013 @ 18:52:
Schraal dat ze een enkele titan vergelijken met de 680 / 7970.
En pas bij multi monito setup de 690 meepakken.
Ziet er idd goed uit. :P
Op basis van deze benchmarks zou de Titan, 25% tot 40% sneller dan HD7970 of GTX680.
Het zal me benieuwen hoeveel trager de Titan trager zou blijken te zijn dan de HD7990 of GTX690.
Voormelde kaartjes zijn immers te verkrijgen vanaf ~850 tot 900 Euro

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Op normale HD reso's zal zeker Titan nog deels CPU-limited zijn, dus ik verwacht nog wel wat meer winst op hogere res. en/of SSAA. -> 60% of meer. Hopelijk, anders is het voor mij iig niet de prijs van het overstappen waard.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

In BF3 heb je trouwens altijd wel een CPU bottleneck @ 1080. de 3770 worstelt hier soms met 80% gpu load en 7970 met 16 spelers

[ Voor 45% gewijzigd door A87 op 18-02-2013 22:26 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 13-07 13:53
Drivers moeten eerst maar eens maturen wat eerlijk vergelijken betreft.
Ik ben vooral benieuwd naar de prijs voor de Nederlandse consument.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Zal vast wel een euro of 750-800 worden... waarsch minder dan een 7990 of 690

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Ik denk stiekem meer.
Aangezien het de snelste single GPU wordt / marketing.
Volgens mij heb ik hier el een adviesprijs van +/- 860 voorbij zien komen.


Offtopic:

En elke keer dat geneuzel van cpu bottleneck..
FFS ik heb hier het GPU gebruik in BF3 nog nooit onder de 97-98% gezien.
Het is alleen lager als ik V-sync aan zet, wat dus begrijpelijk is.
CPU belasting is +/- 50% (2600K @ 4,5)

Zowel 570 SLI op een 2500K / 670 op 2600K ongeacht wat voor slots server.
@ ultra op normaal 1920*1080

Dus een 7970 moet, mag en gaat totaal geen prestatie verlies hebben icm een 3770 in BF3.
Dan zou je toch echt richting drivers/software moeten kijken.

Makkelijk te checken door je alleen resolutie even laag te zetten.
FPS gelijk => cpu bottle
FPS omhoog => Ok :)

[ Voor 70% gewijzigd door mukkel op 18-02-2013 23:20 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

mukkel schreef op maandag 18 februari 2013 @ 22:44:

Offtopic:

En elke keer dat geneuzel van cpu bottleneck..
FFS ik heb hier het GPU gebruik in BF3 nog nooit onder de 97-98% gezien.
Het is alleen lager als ik V-sync aan zet, wat dus begrijpelijk is.
CPU belasting is +/- 50% (2600K @ 4,5)

Zowel 570 SLI op een 2500K / 670 op 2600K ongeacht wat voor slots server.
@ ultra op normaal 1920*1080

Dus een 7970 moet, mag en gaat totaal geen prestatie verlies hebben icm een 3770 in BF3.
Dan zou je toch echt richting drivers moeten kijken.
Dat ligt natuurlijk aan de gameengine en de perf. van de GPU. Voor een GPU van het kaliber Titan zal het wel eens een ander verhaal kunnen zijn en zal die ook met een snelle CPU in normale HD res. nog (deels ) CPU-limited kunnen zijn afh. van de engine.

Ik durf bijna te wedden dat het in 2500x1600 en/of 4xSSAA richting de 60% zal gaan en dan ten opzichte van een 4GB GTX680 om evt. vidmem. limiten uit te sluiten.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Maar A87 heeft het niet over de titan, maar een HD7970 op normaal 1920*1080 in BF3 icm een 3770
Vandaar de "oftopic" mode.

Natuurlijk kan er met een monster kaart een een bottle ontstaan, maar niet voor het bovenstaande :)
Hij gooit nogal vaak en makkelijk met die term

Nu weer terug on topic :) anders krijgen we dadelijk een welles / nietes rage.
Enige wat ik hoop is dat de prijzen van de 600 reeks zakken, dan komt de 670 sli dichterbij ;)

Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
A87 schreef op maandag 18 februari 2013 @ 22:25:
In BF3 heb je trouwens altijd wel een CPU bottleneck @ 1080. de 3770 worstelt hier soms met 80% gpu load en 7970 met 16 spelers
Klopt volgens mij niet. Ik heb met een OC-ed 2500k nog geen vol cpu gebruik. Zit vaak rond de 50 op 64p servers in combi met een Geforce 670GTX. Ik heb wel adaptive vsync aan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Zitten jullie op zo iets te wachten?:

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2013/February/nvidia_geforcetitan_7.jpg

Dit is wel een beetje wat ik zelf had verwacht. Op hogere resoluties verwacht ik er nog wel iets meer van. Maar ik ben benieuwd naar de betrouwbare reviews van Anandtech en zo. En hopelijk testen ze de HD7970 wel met de nieuwe 13.1 of 13.2 drivers en pakken ze geen tests met 12.10 of oudere drivers er bij. Dat zou niet eerlijk zijn.

Maar het is duidelijk welke kaart de single GPU kroon in 2013 zal hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Sn0wblind schreef op maandag 18 februari 2013 @ 23:45:
[...]

Klopt volgens mij niet. Ik heb met een OC-ed 2500k nog geen vol cpu gebruik. Zit vaak rond de 50 op 64p servers in combi met een Geforce 670GTX. Ik heb wel adaptive vsync aan.
Lijkt me idd ook stug want een 3570 is ook sterk genoeg om een 680sli of 7970cf van data te voorzien.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
calsonic schreef op dinsdag 19 februari 2013 @ 08:36:
[...]


Lijkt me idd ook stug want een 3570 is ook sterk genoeg om een 680sli of 7970cf van data te voorzien.
Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.

[ Voor 8% gewijzigd door Astennu op 19-02-2013 08:50 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Astennu schreef op dinsdag 19 februari 2013 @ 08:50:
[...]


Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.
Uiteraard is het verschil in cpu speed bij benchen goed te zien.
Maar het ging in dit geval om gamen en dan maakt het weinig uit - of je moet een zwakke cpu hebben dan loont het uiteraard wel.

[ Voor 5% gewijzigd door calsonic op 19-02-2013 09:09 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Astennu schreef op dinsdag 19 februari 2013 @ 08:50:
[...]
Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.
De meeste games hebben nog steeds liever meer cycles dan meer cores. De meeste (inclusief Frostbite) gebruiken inmiddels wel 4 cores als het kan, maar hun workload is niet dusdanig te verdelen dat ze ook echt alle 4 de cores volledig kunnen belasten, het blijft altijd beperkt tot 1 of 2 cores waar het merendeel van het werk op gebeurt.

En BF3 heeft zelfs met mijn i5-760 @ 4.2 geen CPU bottleneck. Advies is dus om gewoon te overklokken - is ook echt geen reden om het niet te doen met SB/IB, want die zijn belachelijk makkelijk naar de 4 GHz te halen. 4.5 is ook een eitje als je eenmaal van de stock koeler af bent :)
Astennu schreef op dinsdag 19 februari 2013 @ 08:00:
Zitten jullie op zo iets te wachten?:

[afbeelding]

Dit is wel een beetje wat ik zelf had verwacht. Op hogere resoluties verwacht ik er nog wel iets meer van. Maar ik ben benieuwd naar de betrouwbare reviews van Anandtech en zo. En hopelijk testen ze de HD7970 wel met de nieuwe 13.1 of 13.2 drivers en pakken ze geen tests met 12.10 of oudere drivers er bij. Dat zou niet eerlijk zijn.

Maar het is duidelijk welke kaart de single GPU kroon in 2013 zal hebben.
Als deze klopt..goh, zat ik toch aardig dicht in de buurt bij wat er uit rolt. In elk geval niet de bijna-690 waar zovelen op hoopten - helaas niet tegen beter weten in 8)7


Edit: zie nu dat deze bij dezelfde serie als de "slides" zat. Nog maar afwachten dus :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Werelds schreef op dinsdag 19 februari 2013 @ 09:51:
[...]

De meeste games hebben nog steeds liever meer cycles dan meer cores. De meeste (inclusief Frostbite) gebruiken inmiddels wel 4 cores als het kan, maar hun workload is niet dusdanig te verdelen dat ze ook echt alle 4 de cores volledig kunnen belasten, het blijft altijd beperkt tot 1 of 2 cores waar het merendeel van het werk op gebeurt.

En BF3 heeft zelfs met mijn i5-760 @ 4.2 geen CPU bottleneck. Advies is dus om gewoon te overklokken - is ook echt geen reden om het niet te doen met SB/IB, want die zijn belachelijk makkelijk naar de 4 GHz te halen. 4.5 is ook een eitje als je eenmaal van de stock koeler af bent :)
Ik snap je reactie helemaal niet? ik stelde dat toch helemaal niet ter discussie? Ik reageerde alleen op iemand die zij dat SLi en CF setups niet CPU limited zouden zijn. Waar ik aan geef dat zelf een single card op 1080p CPU limited is door de snelste CPU's op dit moment. en dat hogere clockspeeds juist helpen waar hij beweerde dat je geen bottelnek zou hebben.

Later geeft hij aan dat het ging over merkbare verschillen tijdens gamen maar dat je het niet merkt betekend niet dat de CPU niet de bottelnek is voor je GPU.

Ik ben er zelf van op de hoogte dat meer dan Quad core amper zin heeft voor games en de meeste games helaas nog steeds 1-2 cores gebruiken.
Als deze klopt..goh, zat ik toch aardig dicht in de buurt bij wat er uit rolt. In elk geval niet de bijna-690 waar zovelen op hoopten - helaas niet tegen beter weten in 8)7


Edit: zie nu dat deze bij dezelfde serie als de "slides" zat. Nog maar afwachten dus :)
Tja gezien de specs kon hij niet eens zo snel zijn als een GTX690. Ook niet als alle 2880 shaders actief waren geweest en als hij op 1000 MHz had gedraaid. Als je dat wilt moet je al richting de 1200 MHz toe en dat is niet te doen met een normaal verbruik. Ik had zelf max 50-60% sneller dan een GTX680 verwacht. Ik denk dat hij dat in bepaalde situaties wel zal halen. Maar lang niet in alle situaties en lagere resoluties.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik bedoelde meer dat op 1080 zon kaart nogal overkill wordt ... alleen voor metro 2033 niet.. ^^
Met 6gb ram kan je het beter inzetten voor 3+ schermen, denk... ook zonde van het ram anders

En ja BF3 trekt gewoon zwaar aan de CPU dus je hebt snel dat er minder werk te verrichten valt om de GPU aan te sturen

[ Voor 60% gewijzigd door A87 op 19-02-2013 10:48 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Astennu schreef op dinsdag 19 februari 2013 @ 10:41:
Ik snap je reactie helemaal niet? ik stelde dat toch helemaal niet ter discussie?
Excuseer, dat was de bedoeling ook niet. Ik wilde jouw punt alleen verduidelijken tegenover de rest :(
Tja gezien de specs kon hij niet eens zo snel zijn als een GTX690. Ook niet als alle 2880 shaders actief waren geweest en als hij op 1000 MHz had gedraaid. Als je dat wilt moet je al richting de 1200 MHz toe en dat is niet te doen met een normaal verbruik. Ik had zelf max 50-60% sneller dan een GTX680 verwacht. Ik denk dat hij dat in bepaalde situaties wel zal halen. Maar lang niet in alle situaties en lagere resoluties.
Kan met die specs zeker wel - als het een chip betrof op dezelfde indeling als GK104, maar het gaat hier om een chip met veel meer focus op GPGPU dan GK104. Jij snapt het, ik snap het, maar genoeg mensen niet, die geloven echt dat Nvidia (of AMD) zo'n sprong zou kunnen maken met zo'n chip :p

Acties:
  • 0 Henk 'm!

  • Atrevir
  • Registratie: November 2011
  • Laatst online: 31-03 00:07

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Werelds schreef op dinsdag 19 februari 2013 @ 10:48:
[...]

Excuseer, dat was de bedoeling ook niet. Ik wilde jouw punt alleen verduidelijken tegenover de rest :(
In dat geval bedankt :)
Kan met die specs zeker wel - als het een chip betrof op dezelfde indeling als GK104, maar het gaat hier om een chip met veel meer focus op GPGPU dan GK104. Jij snapt het, ik snap het, maar genoeg mensen niet, die geloven echt dat Nvidia (of AMD) zo'n sprong zou kunnen maken met zo'n chip :p
Maar als het een chip met de indeling van de GK104 betrof had je meer dan 3000 shaders gehad.
GK110 heeft er fysiek 2880. Maar een deel staat uit. En de clocks kun je misschien wel naar 900-1000 brengen maar dan ga je zo richting over over de 350 watt heen qua verbruik.

Dus het kan wel maar niet binnen dat TDP budget :) dan moet je 400 watt beschikbaar hebben en dat soort dingen kunnen vandaag de dag niet meer voor Single GPU kaarten. (speciale OC edities daar gelaten)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

Nieuw info http://videocardz.com/397...med-plus-the-latest-leaks

En final specs.

Jammer dat de titan bijna 100Mhz lager geclockt is dan de '' rumors ''. De performance is hierdoor vind ik (in verhouding met de prijs) te laag.
Helemaals als ie ~800/900 euro gaat kosten. Mocht het nou zo zijn dat het een OC monster is dan word het een ander verhaal >:) .. (helemaal op water 8) )

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Fusion_XT schreef op dinsdag 19 februari 2013 @ 11:03:
Nieuw info http://videocardz.com/397...med-plus-the-latest-leaks

En final specs.

Jammer dat de titan bijna 100Mhz lager geclockt is dan de '' rumors ''. De performance is hierdoor vind ik (in verhouding met de prijs) te laag.
Helemaals als ie ~800/900 euro gaat kosten. Mocht het nou zo zijn dat het een OC monster is dan word het een ander verhaal >:) .. (helemaal op water 8) )
Welke geruchten bedoel je dan? want ik heb ook geruchten gezien van 732 MHz dus ik was zelf verbaast over 837 en 875 turbo. Helemaal met een TDP van 250 watt.

Het zou best kunnen dat je met goede cooling 1000-1100 kan halen met overvolten. Maar het verbruik zal dan wel behoorlijk zijn.

En ik snap niet dat mensen verbaast zijn over de prijs voor dit relatief kleine beetje extra performance. Dit was al vanaf dag 1 bekend. En er zijn ook genoeg mensen geweest die meteen zijden dat 80-90% sneller veel te ambitieus is.

[ Voor 12% gewijzigd door Astennu op 19-02-2013 11:12 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Best extreem. GTX 280 240 shaders... en 4.5 jaar later al 2660.. met zelfde tdp.
De benaming eindelijk eens origineel, beter dan die kreten met getallen ^^

[ Voor 59% gewijzigd door A87 op 19-02-2013 11:14 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
A87 schreef op dinsdag 19 februari 2013 @ 11:12:
Best extreem. GTX 280 240 shaders... en 4.5 jaar later al 2660.. met zelfde tdp
Zegt niets. Het zijn hele andere shaders. De shaders van de GTX280 lijken meer op die van de GTX480 en de 580 dan op die van de GTX6xx serie. En zelfs die zijn al heel erg verschillend.

Zie ook de overstap van de 512 shaders van de GTX580 naar de 2880 shaders van de GK110. Dat is 5x zo veel. Maar dat betekend niet dat GK110 5x zo snel is. Een shader van een GTX580 is krachtiger dan die van de GK104 of GK110. Het is een hele andere architectuur.

Bij AMD is dat andersom GCN shaders zijn krachtiger dan een VLIW5 of VLIW4 shader. Maar bij de overgang van X1900 naar HD29xx gingen ze ook van weinig naar veel instructie units. (320 shaders voor de HD2900XT).
Later ging dat aantal vors omhoog echter werden niet minder krachtig aangezien de architectuur hetzelfde was.

nVidia ging van "weinig" krachtige shaders op hogere clocks naar iets minder krachtige shaders op wat lagere clocks (in ieder geval dezelfde clocks als de rest van de core waar de shaders eerst hoger geclockt waren dan de overige componenten in de GPU).

Een lang verhaal kort. Het aantal shaders alleen zegt niets over de prestaties. Je kunt chips maken met 10.000 shaders die trager zijn dan de huidige kaarten. De ene unit is gewoon groter dan de ander. En dat bepaalt meer hoeveel er in een GPU passen. Als je de GTX580 architectuur had gepakt en die op 28nm uit gebracht had had je er misschien 768-1024 gehad.

[ Voor 15% gewijzigd door Astennu op 19-02-2013 11:21 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

Astennu schreef op dinsdag 19 februari 2013 @ 11:11:
[...]


Welke geruchten bedoel je dan? want ik heb ook geruchten gezien van 732 MHz dus ik was zelf verbaast over 837 en 875 turbo. Helemaal met een TDP van 250 watt.

Het zou best kunnen dat je met goede cooling 1000-1100 kan halen met overvolten. Maar het verbruik zal dan wel behoorlijk zijn.

En ik snap niet dat mensen verbaast zijn over de prijs voor dit relatief kleine beetje extra performance. Dit was al vanaf dag 1 bekend. En er zijn ook genoeg mensen geweest die meteen zijden dat 80-90% sneller veel te ambitieus is.
De geruchten een paar maanden geleden van 732Mhz waren gebaseerd op de standaard clocks van de Tesla variant (k20 en k20x).

Daarna kwamen de geruchten van 915Mhz en ipv 2880 cuda cores naar 2688 cores. Ook kwam een boost clock van 1+Ghz naar voren.
Helaas niets meer dan waar. Zoals ik het nu zie dan is de Titan een pracht van een kaart maar te duur voor de geleverde performance.

Rond de €599,- / €649,- is voor de behaalde performance een schappelijke prijs.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Fusion_XT schreef op dinsdag 19 februari 2013 @ 11:22:
[...]


De geruchten een paar maanden geleden van 732Mhz waren gebaseerd op de standaard clocks van de Tesla variant (k20 en k20x).

Daarna kwamen de geruchten van 915Mhz en ipv 2880 cuda cores naar 2688 cores. Ook kwam een boost clock van 1+Ghz naar voren.
Helaas niets meer dan waar. Zoals ik het nu zie dan is de Titan een pracht van een kaart maar te duur voor de geleverde performance.

Rond de €599,- / €649,- is voor de behaalde performance een schappelijke prijs.
Tja dat is gewoon niet realistisch. Die 2880 shader chips gaan denk ik naar de K20 kaarten. Ik kan me voorstellen dat de Yields niet al te best zijn met dit soort grote chips.
915 mhz met 1 GHz boost kan niet met 235 watt TDP ook niet met 250. Zie ook het verbruik van de GTX680 met een veel kleinere core.

Dus het was wishfull thinking....
Ik ben het met je eens over de prijs. Al is het volgens mij geen product wat nVidia massaal kan maken. En ze weten dat het wel een beetje speciaal is. Dus ze vragen er gewoon meer voor. Ze weten ook wel dat er genoeg mensen zullen zijn die het er voor over hebben. De mensen die het er niet voor over hebben verwijzen ze door naar de GTX680.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Specificaties bevestigd door Nvidia.

http://videocardz.com/397...med-plus-the-latest-leaks

Edit. Dit nieuws was dus al gepost.

[ Voor 12% gewijzigd door calsonic op 19-02-2013 12:03 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Wanneer is die NDA nou eindelijk eens voorbij?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Atrevir
  • Registratie: November 2011
  • Laatst online: 31-03 00:07
edward2 schreef op dinsdag 19 februari 2013 @ 13:06:
Wanneer is die NDA nou eindelijk eens voorbij?
Dat jah. Ik zit de hele dag al te wachten tot ik eindelijk sites zoals Tomshardware opeens hun artiekelen zie opknallen

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

edward2 schreef op dinsdag 19 februari 2013 @ 13:06:
Wanneer is die NDA nou eindelijk eens voorbij?
NDA eindigt vandaag om 13:00 GMT las ik zo net ergens...
Atrevir schreef op dinsdag 19 februari 2013 @ 13:33:
[...]

Dat jah. Ik zit de hele dag al te wachten tot ik eindelijk sites zoals Tomshardware opeens hun artiekelen zie opknallen
en de reviews komen pas de 21ste.

Acties:
  • 0 Henk 'm!

  • Atrevir
  • Registratie: November 2011
  • Laatst online: 31-03 00:07
Fusion_XT schreef op dinsdag 19 februari 2013 @ 13:37:
[...]


NDA eindigt vandaag om 13:00 GMT las ik zo net ergens...


[...]


en de reviews komen pas de 21ste.
Ah bedankt. Ik hoop dat je gelijk hebt over die NDA want het is echt akelig stil op alle techsites op het moment en ik vertrouw het niet

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

Update: Not only ASUS and EVGA

Galaxy, ASUS and EVGA are not the only manufacturers to launch the Titan. There will be few versions of it. Some of them are missing the Boost clock, while others are clocked at 900 MHz. According to the rumors, this still leaves a headroom for overclocking. Meaning each Titan could possibly be clocked at one GHz. What is also means is that each model will have a different pricing. Friendly advice, if you are really into buying the Titan, buy the cheapest one and wait for someone to come up with a modified BIOS with boost clock unlocked (but some would actually prefer only one clock mode), and of course wait for proper reviews :)
Galaxy GTX Titan with no boost

Apparently not only ASUS and EVGA are preparing the GTX Titan. Galaxy is also one of them. According to the source, the card would consume 235W, while offering only one clock of 875 MHz (there is no boost clock with this card). This is something completely opposite to the next leak (below), which confirms both boost clock and 250W TDP.
Kijk dit klinkt al beter in de oren :9 ...

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Fusion_XT schreef op dinsdag 19 februari 2013 @ 13:45:
[...]


Kijk dit klinkt al beter in de oren :9 ...
Verschillende types dat klinkt idd leuk.
Hopelijk de laagst geklokte €700....mooie prijs

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Ik zou iedereen aan raden gewoon even af te wachten. Goed overclocken zal wel geen probleem zijn alleen ga je dan wel makkelijk over de 250 watt heen.

En persoonlijk heb ik liever een kaart zonder boost.

[ Voor 15% gewijzigd door Astennu op 19-02-2013 14:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Astennu schreef op dinsdag 19 februari 2013 @ 14:05:
Ik zou iedereen aan raden gewoon even af te wachten. Goed overclocken zal wel geen probleem zijn alleen ga je dan wel makkelijk over de 250 watt heen.
300 watt mag ook wel als hij daardoor meteen 10-25% sneller is...

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

Astennu schreef op dinsdag 19 februari 2013 @ 14:05:
Ik zou iedereen aan raden gewoon even af te wachten. Goed overclocken zal wel geen probleem zijn alleen ga je dan wel makkelijk over de 250 watt heen.

En persoonlijk heb ik liever een kaart zonder boost.
Lol mijn GTX480's in SLI op water trekken meer dan 700Watt op 820Mhz core .. Dus dat die Titan dan over de 250/300 Watt gaat boeit me niks ;) ..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
calsonic schreef op dinsdag 19 februari 2013 @ 14:07:
[...]


300 watt mag ook wel als hij daardoor meteen 10-25% sneller is...
Als je met voltages gaat spelen gaat het exponentieel omhoog. Ik denk dat 10-15% extra wel richting de 300 watt gaat als 250 standaard is.
Fusion_XT schreef op dinsdag 19 februari 2013 @ 14:10:
[...]


Lol mijn GTX480's in SLI op water trekken meer dan 700Watt op 820Mhz core .. Dus dat die Titan dan over de 250/300 Watt gaat boeit me niks ;) ..
Als je dat soort kaarten hebt kan ik me dat voorstellen ja. Maar omdat jou dat niets boeit betekend het nog niet dat het de rest van de wereld niets boeit. AMD wordt door nVidia gebruikers ook regelmatig afgekraakt omdat ze een hoger piek verbruik hebben (avg in games scheelt het maar 5-10 watt). Dus dat soort mensen zouden dit dan ook belangrijk moeten vinden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

February 19th, 2013

NVIDIA GeForce GTX Titan Released

NVIDIA has just announced the new single-gpu monster – GeForce GTX Titan. The review date has been moved to February 21st, so for now we can only take a loot at those high-definition images.

Link


:9 :P :*) 8) _/-\o_ :9~ O+

[ Voor 44% gewijzigd door Fusion_XT op 19-02-2013 14:29 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Fusion_XT schreef op dinsdag 19 februari 2013 @ 14:27:
February 19th, 2013

NVIDIA GeForce GTX Titan Released

NVIDIA has just announced the new single-gpu monster – GeForce GTX Titan. The review date has been moved to February 21st, so for now we can only take a loot at those high-definition images.

Link


:9 :P :*) 8) _/-\o_ :9~ O+
_/-\o_ DCII _/-\o_

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

In the first batch only ASUS and EVGA will launch the GeForce GTX Titan. This will be followed by Colorful, Gainward, Galaxy, Gigabyte, Inno3D, MSI and Palit with more models. NVIDIA did not forbid to modify the cards, meaning, manufactures are free to introduce custom models, maybe even with a custom cooling.
Dit is helemaal kicke! Alleen moet je waarschijnlijk een maand gaan wachten voordat er custom modellen op de markt verschijnen....

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Jongens, nogmaals, dat "TDP" van 250W is niet het verbruik. Dit ding gaat sowieso al tegen de 300W aan zitten qua verbruik.

Een GTX 680 heeft een "TDP" van 195W. In de praktijk gebruikt hij onder Metro @ 1080p echter al een 30-40W meer dan dat, zonder overklok en laat staan overvolten. Ga je overklokken dan zit je gegarandeerd al tegen de 330 aan te hikken en ga je dan daarbij overvolten schiet je zo door naar de 400 hoor.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Fusion_XT schreef op dinsdag 19 februari 2013 @ 14:35:
[...]


Dit is helemaal kicke! Alleen moet je waarschijnlijk een maand gaan wachten voordat er custom modellen op de markt verschijnen....
Dan wacht ik wel een maand want heb toch het liefst weer een stille en koele DCII
Werelds schreef op dinsdag 19 februari 2013 @ 14:39:
Jongens, nogmaals, dat "TDP" van 250W is niet het verbruik. Dit ding gaat sowieso al tegen de 300W aan zitten qua verbruik.

Een GTX 680 heeft een "TDP" van 195W. In de praktijk gebruikt hij onder Metro @ 1080p echter al een 30-40W meer dan dat, zonder overklok en laat staan overvolten. Ga je overklokken dan zit je gegarandeerd al tegen de 330 aan te hikken en ga je dan daarbij overvolten schiet je zo door naar de 400 hoor.
Mijn gamepc staat toch niet 24/7 aan - alleen aan als ik aan het gamen ben dus dan mag hij van mij wel 400 watt verbruiken.

[ Voor 49% gewijzigd door calsonic op 19-02-2013 14:55 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Wat je daar dus even simpelweg vergeet is dat met dat verbruik de warmteproductie evenredig omhoog gaat en dat je dus zonder water ook aardig wat kabaal gaat krijgen - er van uitgaande dat de koeler in elk geval ver genoeg mee wilt. Ik denk dat het qua overklokken nog wel eens vies tegen kan gaan vallen, aangezien er dus blijkbaar meteen al een vapour chamber op zit - en die is dan nog aardig uit de kluiten gewassen ook. Zit er niet voor niks op.

We zullen het vanzelf zien als de NDA opgeheven wordt. Als alles wat we nu zien klopt is het echt slechts een kaart om AMD de ogen uit te steken, want prijzen op verbruik, thermals of performance/watt zal die zo niet binnen gaan slepen. Dan blijven de 7970 en 680 de meest boeiende kaarten (en met de huidige prijzen vooral de 7970 natuurlijk) :)

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op dinsdag 19 februari 2013 @ 15:05:
Wat je daar dus even simpelweg vergeet is dat met dat verbruik de warmteproductie evenredig omhoog gaat en dat je dus zonder water ook aardig wat kabaal gaat krijgen - er van uitgaande dat de koeler in elk geval ver genoeg mee wilt. Ik denk dat het qua overklokken nog wel eens vies tegen kan gaan vallen, aangezien er dus blijkbaar meteen al een vapour chamber op zit - en die is dan nog aardig uit de kluiten gewassen ook. Zit er niet voor niks op.

We zullen het vanzelf zien als de NDA opgeheven wordt. Als alles wat we nu zien klopt is het echt slechts een kaart om AMD de ogen uit te steken, want prijzen op verbruik, thermals of performance/watt zal die zo niet binnen gaan slepen. Dan blijven de 7970 en 680 de meest boeiende kaarten (en met de huidige prijzen vooral de 7970 natuurlijk) :)
Standaard verbruikt hij nog steeds minder als een 7970 en is met die standaard settings een stuk sneller.
Overklokken is leuk voor hoge bench scores maar totaal nutteloos voor games want daar draait hij zijn hand niet voor om natuurlijk.
De referentiekoeler die erop zit is nog stiller als die van de 680 - en die was al aardig stil en gelukkig niet die lawaaibak die er op de 7970 zat - gelukkig hebben ze dat bij Nvidia beter voor elkaar.

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 10-07 09:49
Kun je zoveel blaaten over powerverbruik als je het over een single-card über high-end videokaart hebt? 8)7 Wees blij dat er eindelijk weer eens een nieuwe high-end kaart uitkomt... 8)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
calsonic schreef op dinsdag 19 februari 2013 @ 15:10:
[...]
Standaard verbruikt hij nog steeds minder als een 7970 en is met die standaard settings een stuk sneller.
Overklokken is leuk voor hoge bench scores maar totaal nutteloos voor games want daar draait hij zijn hand niet voor om natuurlijk.
De referentiekoeler die erop zit is nog stiller als die van de 680 - en die was al aardig stil en gelukkig niet die lawaaibak die er op de 7970 zat - gelukkig hebben ze dat bij Nvidia beter voor elkaar.
_O-

De koeler op de 680 is alles behalve stil. Nvidia's standard fan profiel is stiller dan dat van AMD ja, maar daar heb je het ook mee gehad. Als je pech hebt, zoals ik, en een chip hebt die hoge voltages nodig heeft en aardig wat leakage, heb je een zo 1% fan speed per graad nodig om de temperatuur bij te benen; met Nvidia's standaard profiel zat ik over de 80 graden heen. Nu heb ik zelf een profiel ingesteld en om onder volle load op of onder de 70 graden te blijven heb ik 74-75% fan speed nodig. Dan is hij alles behalve stil. Beide koelers zijn lawaaimakers als ze op toeren komen, het verschil zit hem puur in het standaard fan profiel. Ik wil je best eens laten horen wat voor kabaal die van mij maakt, stil is anders :)

Overklokken geen nut voor games? Juist met een kaart die vaak tegen een upper limit aan loopt (V-sync) wil je overklokken zodat je minimum stevig omhoog wordt gekrikt. +100 MHz op je core kan al snel betekenen dat je minimum 5-10 FPS hoger ligt - je maximum verandert waarschijnlijk een stuk minder, maar die is ook minder belangrijk.

En standaard verbruikt hij minder dan een 7970? Huh? Wat? Heb ik ergens iets gemist? :S
Een 7970 verbruikt iets meer dan een 680, zo'n 240 op stock. Ga je dan op zo'n 1150/1750 zitten, zit je ergens rond de 300W (hangt af van hoe veel volt je chip nodig heeft). Dat zit in beide gevallen ruim onder wat ik hierboven aan gaf. Zelfs al is "TDP" deze keer het verbruik, dan nog zit hij niet *onder* de 7970.

@ Gurneyhck: het is niet alleen verbruik zoals ik al zei. Hoger verbruik -> meer hitte -> meer koeling nodig -> meer lawaai (zonder water althans).

Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

GeForce GTX Titan 6GB - the fastest GPU you have ever seen

Klik

Een quote uit bovenstaande:
I mention this specifically as the Geforce GTX Titan has been designed to overclock. The AIB partners will be allowed to offer voltage unlocked SKUs. And combined with GPU Boost 2.0 you will see this product boosting towards the 1100~1150 MHz range once you tweak it. The reference clock however is 836 MHz with a boost clock of 876 MHz.

However, tweaked... we got it running at 1176 MHz my man
.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
The product is obviously PCI-Express 3.0 ready and has a TDP of around 250W with a typical idle power draw of 15 Watts. That TDP is a maximum, overall and on average your GPU will not consume that amount of power.
Die Hilbert toch _O-

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op dinsdag 19 februari 2013 @ 15:25:
[...]

_O-

De koeler op de 680 is alles behalve stil. Nvidia's standard fan profiel is stiller dan dat van AMD ja, maar daar heb je het ook mee gehad. Als je pech hebt, zoals ik, en een chip hebt die hoge voltages nodig heeft en aardig wat leakage, heb je een zo 1% fan speed per graad nodig om de temperatuur bij te benen; met Nvidia's standaard profiel zat ik over de 80 graden heen. Nu heb ik zelf een profiel ingesteld en om onder volle load op of onder de 70 graden te blijven heb ik 74-75% fan speed nodig. Dan is hij alles behalve stil. Beide koelers zijn lawaaimakers als ze op toeren komen, het verschil zit hem puur in het standaard fan profiel. Ik wil je best eens laten horen wat voor kabaal die van mij maakt, stil is anders :)

Overklokken geen nut voor games? Juist met een kaart die vaak tegen een upper limit aan loopt (V-sync) wil je overklokken zodat je minimum stevig omhoog wordt gekrikt. +100 MHz op je core kan al snel betekenen dat je minimum 5-10 FPS hoger ligt - je maximum verandert waarschijnlijk een stuk minder, maar die is ook minder belangrijk.

En standaard verbruikt hij minder dan een 7970? Huh? Wat? Heb ik ergens iets gemist? :S
Een 7970 verbruikt iets meer dan een 680, zo'n 240 op stock. Ga je dan op zo'n 1150/1750 zitten, zit je ergens rond de 300W (hangt af van hoe veel volt je chip nodig heeft). Dat zit in beide gevallen ruim onder wat ik hierboven aan gaf. Zelfs al is "TDP" deze keer het verbruik, dan nog zit hij niet *onder* de 7970.

@ Gurneyhck: het is niet alleen verbruik zoals ik al zei. Hoger verbruik -> meer hitte -> meer koeling nodig -> meer lawaai (zonder water althans).
Ik heb zowel de 7970 als de 680 gehad en dat is dus echt een wereld van verschil.
Wat de 7970 op 50% fanspeed aan geluid produceerd doet de 680 nog nieteens voluit.
btw De 680 kwam hier nooit boven de 64ºC uit op 60% fanspeed.

En als je zo tegen de Geforce Titan bent of het gewoon niet kunt betalen dan blijf je hier toch weg.

[ Voor 3% gewijzigd door calsonic op 19-02-2013 15:40 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
calsonic schreef op dinsdag 19 februari 2013 @ 15:37:
[...]
Ik heb zowel de 7970 als de 680 gehad en dat is dus echt een wereld van verschil.
Wat de 7970 op 50% fanspeed aan geluid produceerd doet de 680 nog nieteens voluit.
btw De 680 kwam hier nooit boven de 64ºC uit op 60% fanspeed.
Dat laatste geloof ik dus werkelijk niets van. Dan heb je hem ook nooit echt gestressed. En voor de rest: vreemd, aangezien elke review de twee binnen zo'n 2dB(A) van elkaar had staan - en dat zijn dus standard fan profiles. Ze zijn allebei gewoon lawaaiig als de pest, zo simpel is het.
En als je zo tegen Nvidia bent of het gewoon niet kunt betalen dan blijf je hier toch weg.
Ik heb zelf Nvidia, het geld is ook niet bepaald een issue. En ik heb de afgelopen twintig jaar toch wel twee keer zo veel Nvidia kaarten gehad dan AMD/ATI, dus nee, dat is het ook niet voordat je daar mee komt. Ik ben gewoon een realist. Erg leuk overigens, dat meteen op de man gaan spelen.
EUR 800 Ex VAT
GBP 827 Inc. VAT
USD 999 Inc. VAT
800 EUR zonder BTW. 1000+ Euro met BTW en winkel toevoegingen? Dan mag ik hopen dat de grafiekjes er kilometers naast zitten, want dat is zelfs een sprong van 50% niet waard.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op dinsdag 19 februari 2013 @ 15:45:
[...]

Dat laatste geloof ik dus werkelijk niets van. Dan heb je hem ook nooit echt gestressed. En voor de rest: vreemd, aangezien elke review de twee binnen zo'n 2dB(A) van elkaar had staan - en dat zijn dus standard fan profiles. Ze zijn allebei gewoon lawaaiig als de pest, zo simpel is het.


[...]

Ik heb zelf Nvidia, het geld is ook niet bepaald een issue. En ik heb de afgelopen twintig jaar toch wel twee keer zo veel Nvidia kaarten gehad dan AMD/ATI, dus nee, dat is het ook niet voordat je daar mee komt. Ik ben gewoon een realist. Erg leuk overigens, dat meteen op de man gaan spelen.


[...]

800 EUR zonder BTW. 1000+ Euro met BTW en winkel toevoegingen? Dan mag ik hopen dat de grafiekjes er kilometers naast zitten, want dat is zelfs een sprong van 50% niet waard.
Of jij me geloof of niet boeit me niets ik heb de kaarten van de laatste 4 generaties allemaal gehad zowel groen als rood dus ik weet waar ik over praat.
Al kost hij €2000 who cares it's only money!

Acties:
  • 0 Henk 'm!

  • Streskip
  • Registratie: December 2010
  • Laatst online: 13-07 04:44
calsonic schreef op dinsdag 19 februari 2013 @ 15:51:
[...]

Al kost hij €2000 who cares it's only money!
Je doet ook niet echt je best om het wel geloofwaardig te maken :+

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Streskip schreef op dinsdag 19 februari 2013 @ 15:51:
[...]


Je doet ook niet echt je best om het wel geloofwaardig te maken :+
Komt omdat als iemand alleen maar loopt af te geven je toch ook denkt r*t toch op of niet?

Hij is nog stiller als de 680
YouTube: NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

[ Voor 23% gewijzigd door calsonic op 19-02-2013 16:03 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:35

XanderDrake

Build the future!

calsonic schreef op dinsdag 19 februari 2013 @ 15:51:
Al kost hij €2000 who cares it's only money!
Waar is die 4x GTX 690 setup van je dan :X

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
XanderDrake schreef op dinsdag 19 februari 2013 @ 16:03:
[...]

Waar is die 4x GTX 690 setup van je dan :X
Heb de 690 gehad maar ook alweer eruit gedaan.
Enige kaart die ik niet heb gehad is 7990 en aangezien amd stotterd op mijn huidige setup ga ik die ook niet halen.

[ Voor 21% gewijzigd door calsonic op 19-02-2013 16:05 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Ik loop helemaal niet af te geven. Wat jij beweert is echter gewoon nergens terug te vinden buiten jouw posts. Vrijwel elke review heeft de twee kaarten op maximaal 5dB(A) van elkaar staan met standaard fan profiles. Daarbij draait de 680 ook consequent enkele graden warmer. Zoals ik al zei, AMD heeft standaard een aggressiever profiel en ga je dan het verschil in temperatuur goed maken kom je op gelijke geluidsniveaus, daar de geluidsproductie geen lineaire vergelijking is.

Hilbert's preview (en andere overigens ook) laat ook zien dat het verbruik van Titan zonder overklokken al een dikke 20W boven de 7970 GE ligt, dus dan hebben we dat puntje van je ook weerlegd. Zoals ik al zei ligt de 7970 op zijn beurt wel iets boven de 680, dat heb ik ook nooit ontkend (sterker nog, dat gaf ik zelf aan).

Ga je vervolgens naar temperaturen heeft ook elke site zowel de 680 als de 7970 ruim boven de 70 graden zitten onder load (waarbij Hilbert zo'n beetje de enige is die ze gelijk heeft staan, op andere sites zoals AT zit de 680 boven de 7970), dus jouw "64 graden op 60% fanspeed" mag je dan ook wel bewijzen, aangezien het niet overeen komt met mijn eigen 680, niet met reviews en ook niet met resultaten die ik op alle forums tegen kom.


Kunnen we dan nu terug naar de discussie van Titan?

Mooie kaart, maar die prijs is echt te veel van het goede. Als ik zo alle previews bekijk, zitten ze ook allemaal op dat hoge verbruik, hoge temperatuur en evenveel lawaai als GK104 en Tahiti (of zelfs meer). Op lucht gaat dat dus een straaljager betekenen en is de ruimte sowieso al relatief beperkt. Ik ben benieuwd naar de performance, maar nogmaals, ik hoop echt dat wat we tot nu toe gezien hebben er kilometers naast zit. Leuk voor de idioten die inderdaad met 7990's en Quad-setups zitten, maar daar blijft het ook bij.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik ben benieuwd naar de GPGPU performance van deze Titan kaart. GTX680 had geen kans tegen de HD7970(GE), maar deze Titan wil ik wel eens zien.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Die gaat hij langs. Daar twijfel ik geen seconde aan :)

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op dinsdag 19 februari 2013 @ 16:10:
Ik loop helemaal niet af te geven. Wat jij beweert is echter gewoon nergens terug te vinden buiten jouw posts. Vrijwel elke review heeft de twee kaarten op maximaal 5dB(A) van elkaar staan met standaard fan profiles. Daarbij draait de 680 ook consequent enkele graden warmer. Zoals ik al zei, AMD heeft standaard een aggressiever profiel en ga je dan het verschil in temperatuur goed maken kom je op gelijke geluidsniveaus, daar de geluidsproductie geen lineaire vergelijking is.

Hilbert's preview (en andere overigens ook) laat ook zien dat het verbruik van Titan zonder overklokken al een dikke 20W boven de 7970 GE ligt, dus dan hebben we dat puntje van je ook weerlegd. Zoals ik al zei ligt de 7970 op zijn beurt wel iets boven de 680, dat heb ik ook nooit ontkend (sterker nog, dat gaf ik zelf aan).

Ga je vervolgens naar temperaturen heeft ook elke site zowel de 680 als de 7970 ruim boven de 70 graden zitten onder load (waarbij Hilbert zo'n beetje de enige is die ze gelijk heeft staan, op andere sites zoals AT zit de 680 boven de 7970), dus jouw "64 graden op 60% fanspeed" mag je dan ook wel bewijzen, aangezien het niet overeen komt met mijn eigen 680, niet met reviews en ook niet met resultaten die ik op alle forums tegen kom.


Kunnen we dan nu terug naar de discussie van Titan?

Mooie kaart, maar die prijs is echt te veel van het goede. Als ik zo alle previews bekijk, zitten ze ook allemaal op dat hoge verbruik, hoge temperatuur en evenveel lawaai als GK104 en Tahiti (of zelfs meer). Op lucht gaat dat dus een straaljager betekenen en is de ruimte sowieso al relatief beperkt. Ik ben benieuwd naar de performance, maar nogmaals, ik hoop echt dat wat we tot nu toe gezien hebben er kilometers naast zit. Leuk voor de idioten die inderdaad met 7990's en Quad-setups zitten, maar daar blijft het ook bij.
ahum..
http://nl.hardware.info/r...0-review-geluidsproductie
40dB(gtx680) tov 57dB(hd7970) is aanzienlijk

Acties:
  • 0 Henk 'm!

  • sjaakwortel
  • Registratie: April 2009
  • Laatst online: 23:30
http://www.guru3d.com/art...preview_reference,11.html

Hier zeggen ze dat 40 om 41 decibel is, wat dus een heel klein verschil is.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
sjaakwortel schreef op dinsdag 19 februari 2013 @ 16:49:
http://www.guru3d.com/art...preview_reference,11.html

Hier zeggen ze dat 40 om 41 decibel is, wat dus een heel klein verschil is.
Zoals ik daarstraks al vertelde heb ik ze dus beide zelf gehad en het verschil in geluid was erg groot.
Als jij ze ook alle 2 zelf hebt gehad heb je recht van spreken en niet iets gaan citeren wat een ander ergens op een site heeft gezegd.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Guru3D meet door een dichte behuizing op 75 cm afstand, HWI meet 10 cm van de kaart zelf af.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
3XPER7 schreef op dinsdag 19 februari 2013 @ 17:02:
Guru3D meet door een dichte behuizing op 75 cm afstand, HWI meet 10 cm van de kaart zelf af.
Ik heb het persoonlijk ondervonden en zit er ook 1 meter vandaan.

Maar nu stop ik ermee jullie hebben gelijk - veel plezier ermee.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Werelds schreef op dinsdag 19 februari 2013 @ 16:14:
Die gaat hij langs. Daar twijfel ik geen seconde aan :)
Ik ga door ook vanuit, alleen is de vraag hoeveel ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Fusion_XT schreef op dinsdag 19 februari 2013 @ 15:29:
GeForce GTX Titan 6GB - the fastest GPU you have ever seen

Klik

Een quote uit bovenstaande:


[...]
Ja Anandtech had ook al goede resultaten. Die Boost 2.0 werkt wel goed:
Of course total power consumption is still a technical concern here, though much less so. Technically NVIDIA is watching both the temperature and the power consumption and clamping down when either is hit. But since GPU Boost 2 does away with the concept of separate power targets – sticking solely with the TDP instead – in the design of Titan there’s quite a bit more room for boosting thanks to the fact that it can keep on boosting right up until the point it hits the 250W TDP limit. Our Titan sample can boost its clockspeed by up to 19% (837MHz to 992MHz), whereas our GTX 680 sample could only boost by 10% (1006MHz to 1110MHz).
Best indrukwekkend. Maar ik ben benieuwd wat er gebeurd als je echt zware apps gaat draaien. Zoals Furmark en zo. En ik ben benieuwd wat hij verbruikt met furmark en games. Zeker als je het hebt over 1100+ MHz.

En daarnaast kun je nu wel overvolten:
There are a number of reasons for this, and hopefully one day soon we’ll be able to get into NVIDIA’s Project Greenlight video card approval process in significant detail so that we can better explain this, but the primary concern was that without strict voltage limits some of the more excessive users may blow out their cards with voltages set too high. And while the responsibility for this ultimately falls to the user, and in some cases the manufacturer of their card (depending on the warrant), it makes NVIDIA look bad regardless. The end result being that voltage control on the GTX 680 (and lower cards) was disabled for everyone, regardless of what a card was capable of.

With Titan this has finally changed, at least to some degree. In short, NVIDIA is bringing back overvoltage control, albeit in a more limited fashion.

For Titan cards, partners will have the final say in whether they wish to allow overvolting or not. If they choose to allow it, they get to set a maximum voltage (Vmax) figure in their VBIOS. The user in turn is allowed to increase their voltage beyond NVIDIA’s default reliability voltage limit (Vrel) up to Vmax. As part of the process however users have to acknowledge that increasing their voltage beyond Vrel puts their card at risk and may reduce the lifetime of the card. Only once that’s acknowledged will users be able to increase their voltages beyond Vrel.

With that in mind, beyond overvolting overclocking has also changed in some more subtle ways. Memory and core offsets are still in place, but with the switch from power based monitoring to temperature based monitoring, the power target slider has been augmented with a separate temperature target slider.

The power target slider is still responsible for controlling the TDP as before, but with the ability to prioritize temperatures over power consumption it appears to be somewhat redundant (or at least unnecessary) for more significant overclocking. That leaves us with the temperature slider, which is really a control for two functions.

First and foremost of course is that the temperature slider controls what the target temperature is for Titan. By default for Titan is 80C, and it may be turned all the way up to 95C. The higher the temperature setting the more frequently Titan can reach its highest boost bins, in essence making this a weaker form of overclocking just like the power target adjustment was on GTX 680.

The second function controlled by the temperature slider is the fan curve, which for all practical purposes follows the temperature slider. With modern video cards ramping up their fan speeds rather quickly once cards get into the 80C range, merely increasing the power target alone wouldn’t be particularly desirable in most cases due to the extra noise it generates, so NVIDIA tied in the fan curve to the temperature slider. By doing so it ensures that fan speeds stay relatively low until they start exceeding the temperature target. This seems a bit counterintuitive at first, but when put in perspective of the goal – higher temperatures without an increase in fan speed – this starts to make sense.
Dit was iets wat de GTX680 niet mocht doen. Dus het lijkt er op dat dit wel een erg leuk OC kaartje kan zijn. Jammer dat hij zo extreem duur moet zijn.

[ Voor 61% gewijzigd door Astennu op 19-02-2013 19:14 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-07 09:43
Leuk hoe in die HWI review de gewone 7970 10 dB(A) luider is dan de GE, welke overal anders als luidste van de drie uit de bus komt? Het is geloof ik maar goed dat ik nooit naar HWI surf :|

Zie ook dat Hilbert het TDP van de 680 op 170 heeft staan |:(
madmaxnl schreef op dinsdag 19 februari 2013 @ 18:42:
Ik ga door ook vanuit, alleen is de vraag hoeveel ;)
Ik heb nog eens even naar de resultaten van Tahiti gekeken op compute gebied. Als ik zo naar de specs van Titan kijk, denk ik dat ik mijn verwachtingen iets bij moet stellen. Ik denk dat dat nog wel eens een prachtig gevecht kan gaan worden met sommige toepassingen, Tahiti doet het beter dan ik me herinner van vorig jaar. Als ik het vergelijk met GK104, zal het in het ergste geval zo'n 1.5 keer sneller zijn, maar over het algemeen moeten we denk ik tussen een factor 2 en 2.5 kijken, met uitschieters naar de 3. De FP64 snelheid ligt nu natuurlijk op 1/3 van de FP32 (8 keer zo veel, 680 zit op slechts 1/24), dus dat is gigantisch. Het aantal flops ligt dan ook nog hoger, maar dit is door die FMA combinatie vanaf Fermi altijd een beetje lastig in te schatten.

Ik ben eigenlijk benieuwder naar de compute performance dan de gaming performance, haha, dat laatste gaat in verhouding tot GK104 en Tahiti toch tegenvallen :D
Pagina: 1 ... 6 ... 30 Laatste

Dit topic is gesloten.