Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Lijkt mij wel heel erg fake.Werelds schreef op vrijdag 15 februari 2013 @ 14:23:
[...]
Overigens wederom een tabelletje gefabriceerd (heb hem hier nog niet langs zien komen):
[afbeelding]
Bijna alles is identiek aan de 6xx reeks, met hier en daar een tiental MHz meer en een bredere geheugenbus.
Valt wel mee hoor, ik typ het erger dan het is, want om mij in het echt geïrriteerd te krijgen moet je al heel ver gaanXanderDrake schreef op vrijdag 15 februari 2013 @ 15:19:
Werelds, damn kerel, je windt je wel op over dingen he
Dit zijn gewoon het soort dingen waardoor mensen van kamp A of kamp B altijd tegenover de ander beweren dat kaart/chip X beter is dan Y, want het "TDP" is lager en toch doet hij het beter !11!1!1one!enzo
Het is dus heel jammer dat die hele term TDP echt geen moer zegt over het verbruik van een kaart en/of chip, of zelfs maar over de hitte ontwikkeling (want dit is technisch gezien waar TDP over zou moeten gaan). Is hetzelfde verhaal als bij auto's: een auto kan z'n maximum koppel en vermogen bij 7000 RPM hebben en een "verbruik" van 1:30...als je onder de 2000 RPM blijft, uitzonderlijk rustig op trekt en vooral snelweg rijdt. Dan haal je dat vermogen dus nooit. Mijn eigen wagen zou een verbruik van 1:17-1:18 (en "gemiddeld" 1:14) hebben, maar in de praktijk haal ik slechts 1:12 als ik "bewust" rijdt. Als m'n voet een beetje zwaar wordt (is vaak lastig om hem omhoog te houden
Verschil is alleen dat koppel, vermogen en verbruik bij auto's tenminste altijd hetzelfde betekenen, zelfs dat is hier niet het geval. Waar verbruik wel in verband staat met vermogen/koppel, is dat met TDP het geval niet meer. Het slaat namelijk niet op een gemiddelde, niet op een minimum en ook niet op een maximum. Het slaat ook niet op hoeveel hitte er nog uit de chip komt na inefficiëntie. Het is ook niet zo dat ze zeggen "bij X% load". Dus wat zegt het dan nog? TDP is geen bruikbare spec of argument meer helaas.
Waarom lijkt jou deze dan heel erg fake?catfish schreef op vrijdag 15 februari 2013 @ 15:29:
Lijkt mij wel heel erg fake.
Bijna alles is identiek aan de 6xx reeks, met hier en daar een tiental MHz meer en een bredere geheugenbus.
Heb je al eens gekeken naar GF110 tegenover GF100? Een 30 MHz meer op de core en het geheugen, kleinere (!) bus. TDP wat verbeterd, maar that's it. Afgezien van de net iets betere performance/transistor, wat ook hier weer het geval zou zijn.
Juist hierom is dit de meest realistische tot nu toe.
[ Voor 9% gewijzigd door Werelds op 15-02-2013 17:15 ]
Omdat deze tabel hetzelfde aantal transistors vermeldt, dezelfde die size,... enkel de kloksnelheid en de geheugenbusbreedte is anders.Werelds schreef op vrijdag 15 februari 2013 @ 17:07:
[...]
Waarom lijkt jou deze dan heel erg fake?
Heb je al eens gekeken naar GF110 tegenover GF100? Een 30 MHz meer op de core en het geheugen, kleinere (!) bus. TDP wat verbeterd, maar that's it. Afgezien van de net iets betere performance/transistor, wat ook hier weer het geval zou zijn.
Juist hierom is dit de meest realistische tot nu toe.
Het zou natuurlijk wel kunnen dat nVidia z'n GF11x chips wat heeft bijgewerkt en dan als nieuw product op de markt zet. (Dat zou niet echt de eerste keer zijn.)
Van GF100 (480) naar GF110 (570) krijg je dan het volgende:
- Exact hetzelfde aantal transistors
- 9mmˆ2 kleinere die
- 256 MB minder geheugen met als resultaat een bus van 320 t.o.v. 384
- +32 MHz op de core, +26 MHz op het geheugen (3800 vs 3696 met QDR, dus (3800 - 3696) / 4 = 26)
- 8 ROPs minder
Dat de die net iets kleiner is kwam bij GF110 doordat ze van GF104 geleerd hadden en hier en daar wat geschaafd hebben, want GF114 was EXACT even groot als GF104. Als je die twee voor de rest vergelijkt, kom je op precies dezelfde verschillen (of gebrek daaraan) uit. Wederom weer even in het achterhoofd houden dat GF114 beter door de productie kwam dan GF104, dus ook bij GF104 mistte er een heel cluster.
[ Voor 13% gewijzigd door Werelds op 15-02-2013 22:30 ]
Nee lees de andere posts maar.Verwijderd schreef op vrijdag 15 februari 2013 @ 11:10:
[...]
Dank dat ie dat bedoelde met 'effectief' bruikbaar...
LachwekkendWerelds schreef op vrijdag 15 februari 2013 @ 14:23:
[...]
Overigens wederom een tabelletje gefabriceerd (heb hem hier nog niet langs zien komen):
[afbeelding]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Veel daarvan is inderdaad lachwekkend, ik neem hem dan ook niet serieus
Neemt niet weg dat degene die deze bedacht heeft op sommige vlakken weldegelijk goed heeft nagedacht en dichter bij de realiteit zal zitten dan andere fabricaties.
We zullen het snel genoeg zien, ik geloof in elk geval niet in een magische sprong van 80%. Titan slaat dan ook meer op de specs van de chip dan de performance gok ik
Want ik kan nu al gaan bestellen, maar misschien is het slimmer om te wachten tot morgen mocht er nog iets onverwachts aangekondigt worden..
Zie het al weer voor me.. 3-way 4-way gekken.
haha wordt weer benchmarks kijken morgen
[ Voor 181% gewijzigd door A87 op 18-02-2013 00:44 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Kwestie van cash ervoor hebben en gaan met die banaan !!! There is no such thing as "overkill"A87 schreef op zondag 17 februari 2013 @ 20:27:
http://videocardz.com/ima...rce-GTX-Titan-Picture.jpg
Zie het al weer voor me.. 3-way 4-way gekken.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Hoop dat de reviews goed bevallen en dan maar pre-orderen.
Eindelijk kunnen mijn GTX480's naar het bejaarden tehuis
En maar hopen dat de prijs een beetje meevalt. 3 jaar geleden €1100,- betaald voor 2x GTX480 dus als deze ~ €800,- gaat kosten en 50-60% sneller is dan de GTX680 .....
http://videocardz.com/396...eforce-gtx-titan-picturedFusion_XT schreef op maandag 18 februari 2013 @ 10:38:
Ik moet die Titan hebben!![]()
Hoop dat de reviews goed bevallen en dan maar pre-orderen.
Eindelijk kunnen mijn GTX480's naar het bejaarden tehuis![]()
En maar hopen dat de prijs een beetje meevalt. 3 jaar geleden €1100,- betaald voor 2x GTX480 dus als deze ~ €800,- gaat kosten en 50-60% sneller is dan de GTX680 .....im happy to pay!
Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is
Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'ncalsonic schreef op maandag 18 februari 2013 @ 10:50:
[...]
http://videocardz.com/396...eforce-gtx-titan-pictured
Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.
hoeveel oplagen waren er van de 690? Want die worden nog steeds verkocht.calsonic schreef op maandag 18 februari 2013 @ 10:50:
[...]
http://videocardz.com/396...eforce-gtx-titan-pictured
Gaat iets van €860 kosten - daar koop ik hem ook voor - komen er maar 10.000 van dus idd bestellen zodra hij beschikbaar is
BTW met 1 scherm merk ik nog dat mijn 3770 een 7970 1,1 ghz bottlenecked met vaak gpu load 85-95% ofso... met fps van rond 80
Voor 1 scherm hoef je iig geen titan te kopen lolz. Echt een kaart voor 3 monitoren is het eigenlijk
[ Voor 21% gewijzigd door A87 op 18-02-2013 11:08 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
De 690 wordt ook nog steeds geproduceerd - die zou niet in een beperkte oplage gemaakt worden.A87 schreef op maandag 18 februari 2013 @ 11:05:
[...]
hoeveel oplagen waren er van de 690? Want die worden nog steeds verkocht.
BTW met 1 scherm merk ik nog dat mijn 3770 een 7970 1,1 ghz bottlenecked met vaak gpu load 85-95% ofso... met fps van rond 80
Voor 1 scherm hoef je iig geen titan te kopen lolz. Echt een kaart voor 3 monitoren is het eigenlijk
Denk zelf dat de meeste kopers van een Titan hem ook alleen maar kopen om simpelweg de sterkste single gpu te hebben.
Ik wil hem kopen om er zeker een paar jaar
Meer is altijd beter - misschien dan zelfs wel een SLI setup - gewoon omdat het kanFusion_XT schreef op maandag 18 februari 2013 @ 10:52:
[...]
Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'n.
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.
[ Voor 26% gewijzigd door calsonic op 18-02-2013 11:17 ]
Ik geef liever ook altijd iets meer uit om er zo zeker van te zijn een aantal jaar zorgeloos te kunnen gamencalsonic schreef op maandag 18 februari 2013 @ 11:15:
[...]
De 690 wordt ook nog steeds geproduceerd - die zou niet in een beperkte oplage gemaakt worden.
Denk zelf dat de meeste kopers van een Titan hem ook alleen maar kopen om simpelweg de sterkste single gpu te hebben.
Ik wil hem kopen om er zeker een paar jaarflink plezier van te hebben.
[...]
Meer is altijd beter - misschien dan zelfs wel een SLI setup - gewoon omdat het kan
Mijn GTX480's (3 jaartjes oud) doen het zelfs nu nog geweldig. BF3 high/ultra 1080P 4xMSAA = 50~100 FPS (depends on map).
Paar weken geleden mijn X58 mobo voorzien van een I7 980x (zeer leuke prijs) en ik kan er weer een jaar of 2 tegen aan
Nu nog Titan en het feestje is weer compleet
480 sli was eigenlijk tot vandaag meer dan zat. toch wilde ik weer persee nieuw spul.
Alleen rond 900 euro betalen in 1 klap voor 1 videokaart vind ik net ff te veel zegmaar
Als je er 2-3 jaar mee doet ok, dan zeker 900 waard, imo
off/
Wat betreft 980x....... ik ging over van i5 760 3.9 naar 3770 en de fps is gewoon veel soepeler, dus zeker geen afrader om over te stappen op een nieuw platform aangezien je duidelijk minder last hebt van latencies tov oudere generatie 920/ etc.
Ivy Birdge is echt een vooruitgang! Ook al is de fps niet veel hoger, het werkt gewoon fijner > smoother
Dit idee
http://techreport.com/r.x/ivy-bridge/skyrim-beyond-17.gif
http://techreport.com/rev...0k-ivy-bridge-processor/6
Met videokaarten speelt dit fenomeen ook een rol....
[ Voor 98% gewijzigd door A87 op 18-02-2013 12:23 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Als de prestaties inderdaad minder zijn dan een GTX 690 vind ik het best duur aangezien je die voor dezelfde prijs hebt. En GTX670 SLI bijvoorbeeld heb je voor 700 a 720 wat ook redelijk vergelijkbaar is qua prestaties met een GTX 690.Fusion_XT schreef op maandag 18 februari 2013 @ 10:52:
[...]
Ja had het net gelezen! €860,- is een mooie prijs!. Hij ziet er ook als een beest uit. Hopelijk komt er snel een WC Fullcover block uit van EK etc.. en dan dik OC'n.
Had ergens gelezen dat de initial release 10.000 stuks waren maar er meer opkomst zijn nadat de launch is geweest.
Voordeel is dan vooral het surplus aan geheugen, 1 card+ 1 GPU solution en potentieel minder Microstuttering. Dat laatste is al erg laag bij nVidia, zelfs in SLI of 690. Het is beperkt meetbaar maar in praktijk ga je het denk ik niet zien.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
En misschien vanaf donderdag te koop.
http://videocardz.com/396...nch-postponed-to-feb-19th
[ Voor 12% gewijzigd door calsonic op 18-02-2013 12:59 ]
Daar zat ik ook al aan te denken. Neem dan een 670 / 680 4GB versie sli.Help!!!! schreef op maandag 18 februari 2013 @ 12:27:
[...]
Als de prestaties inderdaad minder zijn dan een GTX 690 vind ik het best duur aangezien je die voor dezelfde prijs hebt. En GTX670 SLI bijvoorbeeld heb je voor 700 a 720 wat ook redelijk vergelijkbaar is qua prestaties met een GTX 690.
Dan heb je wel een hoger stroomverbruik en meer hitte in je case, de Titan blaast de hete lucht je kast uit.mukkel schreef op maandag 18 februari 2013 @ 13:24:
[...]
Daar zat ik ook al aan te denken. Neem dan een 670 / 680 4GB versie sli.
Hopelijk heeft er iemand schijt aan de NDA!... need benches !
http://videocardz.com/396...nch-postponed-to-feb-19th
En vanaf het moment dat hij te koop is moet je er snel bij zijn want die 10.000 zijn zo wegFusion_XT schreef op maandag 18 februari 2013 @ 13:40:
19feb komt ie nu uit, benches/reviews komen de 21ste pas uit.
Hopelijk heeft er iemand schijt aan de NDA!... need benches !
http://videocardz.com/396...nch-postponed-to-feb-19th
[ Voor 17% gewijzigd door calsonic op 18-02-2013 14:03 ]
Dat komt wel goed... overal pre-orderencalsonic schreef op maandag 18 februari 2013 @ 14:02:
[...]
En vanaf het moment dat hij te koop is moet je er snel bij zijn want die 10.000 zijn zo weg
[ Voor 33% gewijzigd door Fusion_XT op 18-02-2013 14:07 ]
Er komt waarschijnlijk nog wel een partij na die 10.000 stuks alleen wanneer is nog niets van bekend.Sn0wblind schreef op maandag 18 februari 2013 @ 14:30:
Die 690s die zogenaamd limited zouden zijn, zijn ook nog gewoon te krijgen.
[ Voor 27% gewijzigd door calsonic op 18-02-2013 14:37 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Daar heb je idd gelijk in.Sn0wblind schreef op maandag 18 februari 2013 @ 15:50:
Maar de 690s verschillen totaal niet onderling dus dat er iets minder merken beschikbaar zijn heeft meer alleen invloed op de eventuele garantie afhandeling.
Dan ben je zeker een student ofzo?A87 schreef op maandag 18 februari 2013 @ 14:48:
tegen de tijd dat ik geld over heb zullen ze wel goed leverbaar zijn ^^. maandje of 5
[ Voor 28% gewijzigd door calsonic op 18-02-2013 18:06 ]
http://videocardz.com/396...titan-announcement-leaked
En pas bij multi monito setup de 690 meepakken.
maarja, laat ze nu maar eens snel met mooiere games komen ook .
Wel nice dat AMD nu ook werk heeft te verichten en niet op de luie reet blijft zitten ^^. Hopelijk nog 10% performance er bij binnen 6 maanden
[ Voor 174% gewijzigd door A87 op 18-02-2013 18:59 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Ziet er idd goed uit.mukkel schreef op maandag 18 februari 2013 @ 18:52:
Schraal dat ze een enkele titan vergelijken met de 680 / 7970.
En pas bij multi monito setup de 690 meepakken.
Op basis van deze benchmarks zou de Titan, 25% tot 40% sneller dan HD7970 of GTX680.
Het zal me benieuwen hoeveel trager de Titan trager zou blijken te zijn dan de HD7990 of GTX690.
Voormelde kaartjes zijn immers te verkrijgen vanaf ~850 tot 900 Euro
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Niet op voorraad.
[ Voor 45% gewijzigd door A87 op 18-02-2013 22:26 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Ik ben vooral benieuwd naar de prijs voor de Nederlandse consument.
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Aangezien het de snelste single GPU wordt / marketing.
Volgens mij heb ik hier el een adviesprijs van +/- 860 voorbij zien komen.
Offtopic:
En elke keer dat geneuzel van cpu bottleneck..
FFS ik heb hier het GPU gebruik in BF3 nog nooit onder de 97-98% gezien.
Het is alleen lager als ik V-sync aan zet, wat dus begrijpelijk is.
CPU belasting is +/- 50% (2600K @ 4,5)
Zowel 570 SLI op een 2500K / 670 op 2600K ongeacht wat voor slots server.
@ ultra op normaal 1920*1080
Dus een 7970 moet, mag en gaat totaal geen prestatie verlies hebben icm een 3770 in BF3.
Dan zou je toch echt richting drivers/software moeten kijken.
Makkelijk te checken door je alleen resolutie even laag te zetten.
FPS gelijk => cpu bottle
FPS omhoog => Ok
[ Voor 70% gewijzigd door mukkel op 18-02-2013 23:20 ]
Dat ligt natuurlijk aan de gameengine en de perf. van de GPU. Voor een GPU van het kaliber Titan zal het wel eens een ander verhaal kunnen zijn en zal die ook met een snelle CPU in normale HD res. nog (deels ) CPU-limited kunnen zijn afh. van de engine.mukkel schreef op maandag 18 februari 2013 @ 22:44:
Offtopic:
En elke keer dat geneuzel van cpu bottleneck..
FFS ik heb hier het GPU gebruik in BF3 nog nooit onder de 97-98% gezien.
Het is alleen lager als ik V-sync aan zet, wat dus begrijpelijk is.
CPU belasting is +/- 50% (2600K @ 4,5)
Zowel 570 SLI op een 2500K / 670 op 2600K ongeacht wat voor slots server.
@ ultra op normaal 1920*1080
Dus een 7970 moet, mag en gaat totaal geen prestatie verlies hebben icm een 3770 in BF3.
Dan zou je toch echt richting drivers moeten kijken.
Ik durf bijna te wedden dat het in 2500x1600 en/of 4xSSAA richting de 60% zal gaan en dan ten opzichte van een 4GB GTX680 om evt. vidmem. limiten uit te sluiten.
Niet op voorraad.
Vandaar de "oftopic" mode.
Natuurlijk kan er met een monster kaart een een bottle ontstaan, maar niet voor het bovenstaande
Hij gooit nogal vaak en makkelijk met die term
Nu weer terug on topic
Enige wat ik hoop is dat de prijzen van de 600 reeks zakken, dan komt de 670 sli dichterbij
Klopt volgens mij niet. Ik heb met een OC-ed 2500k nog geen vol cpu gebruik. Zit vaak rond de 50 op 64p servers in combi met een Geforce 670GTX. Ik heb wel adaptive vsync aan.A87 schreef op maandag 18 februari 2013 @ 22:25:
In BF3 heb je trouwens altijd wel een CPU bottleneck @ 1080. de 3770 worstelt hier soms met 80% gpu load en 7970 met 16 spelers

Dit is wel een beetje wat ik zelf had verwacht. Op hogere resoluties verwacht ik er nog wel iets meer van. Maar ik ben benieuwd naar de betrouwbare reviews van Anandtech en zo. En hopelijk testen ze de HD7970 wel met de nieuwe 13.1 of 13.2 drivers en pakken ze geen tests met 12.10 of oudere drivers er bij. Dat zou niet eerlijk zijn.
Maar het is duidelijk welke kaart de single GPU kroon in 2013 zal hebben.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Lijkt me idd ook stug want een 3570 is ook sterk genoeg om een 680sli of 7970cf van data te voorzien.Sn0wblind schreef op maandag 18 februari 2013 @ 23:45:
[...]
Klopt volgens mij niet. Ik heb met een OC-ed 2500k nog geen vol cpu gebruik. Zit vaak rond de 50 op 64p servers in combi met een Geforce 670GTX. Ik heb wel adaptive vsync aan.
Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.calsonic schreef op dinsdag 19 februari 2013 @ 08:36:
[...]
Lijkt me idd ook stug want een 3570 is ook sterk genoeg om een 680sli of 7970cf van data te voorzien.
[ Voor 8% gewijzigd door Astennu op 19-02-2013 08:50 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Uiteraard is het verschil in cpu speed bij benchen goed te zien.Astennu schreef op dinsdag 19 februari 2013 @ 08:50:
[...]
Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.
Maar het ging in dit geval om gamen en dan maakt het weinig uit - of je moet een zwakke cpu hebben dan loont het uiteraard wel.
[ Voor 5% gewijzigd door calsonic op 19-02-2013 09:09 ]
De meeste games hebben nog steeds liever meer cycles dan meer cores. De meeste (inclusief Frostbite) gebruiken inmiddels wel 4 cores als het kan, maar hun workload is niet dusdanig te verdelen dat ze ook echt alle 4 de cores volledig kunnen belasten, het blijft altijd beperkt tot 1 of 2 cores waar het merendeel van het werk op gebeurt.Astennu schreef op dinsdag 19 februari 2013 @ 08:50:
[...]
Ik denk dat je op 1080p met een enkele GTX680 of 7970 best verschil kan zien tussen een 3570 @ 3.5 of 4,5 GHz. Het zal niet bij alle games zo zijn. Maar wel bij een aantal. Misschien is het niet merkbaar in de gameplay maar wel in de benshmark scores.
En BF3 heeft zelfs met mijn i5-760 @ 4.2 geen CPU bottleneck. Advies is dus om gewoon te overklokken - is ook echt geen reden om het niet te doen met SB/IB, want die zijn belachelijk makkelijk naar de 4 GHz te halen. 4.5 is ook een eitje als je eenmaal van de stock koeler af bent
Als deze klopt..goh, zat ik toch aardig dicht in de buurt bij wat er uit rolt. In elk geval niet de bijna-690 waar zovelen op hoopten - helaas niet tegen beter weten inAstennu schreef op dinsdag 19 februari 2013 @ 08:00:
Zitten jullie op zo iets te wachten?:
[afbeelding]
Dit is wel een beetje wat ik zelf had verwacht. Op hogere resoluties verwacht ik er nog wel iets meer van. Maar ik ben benieuwd naar de betrouwbare reviews van Anandtech en zo. En hopelijk testen ze de HD7970 wel met de nieuwe 13.1 of 13.2 drivers en pakken ze geen tests met 12.10 of oudere drivers er bij. Dat zou niet eerlijk zijn.
Maar het is duidelijk welke kaart de single GPU kroon in 2013 zal hebben.
Edit: zie nu dat deze bij dezelfde serie als de "slides" zat. Nog maar afwachten dus
Ik snap je reactie helemaal niet? ik stelde dat toch helemaal niet ter discussie? Ik reageerde alleen op iemand die zij dat SLi en CF setups niet CPU limited zouden zijn. Waar ik aan geef dat zelf een single card op 1080p CPU limited is door de snelste CPU's op dit moment. en dat hogere clockspeeds juist helpen waar hij beweerde dat je geen bottelnek zou hebben.Werelds schreef op dinsdag 19 februari 2013 @ 09:51:
[...]
De meeste games hebben nog steeds liever meer cycles dan meer cores. De meeste (inclusief Frostbite) gebruiken inmiddels wel 4 cores als het kan, maar hun workload is niet dusdanig te verdelen dat ze ook echt alle 4 de cores volledig kunnen belasten, het blijft altijd beperkt tot 1 of 2 cores waar het merendeel van het werk op gebeurt.
En BF3 heeft zelfs met mijn i5-760 @ 4.2 geen CPU bottleneck. Advies is dus om gewoon te overklokken - is ook echt geen reden om het niet te doen met SB/IB, want die zijn belachelijk makkelijk naar de 4 GHz te halen. 4.5 is ook een eitje als je eenmaal van de stock koeler af bent
Later geeft hij aan dat het ging over merkbare verschillen tijdens gamen maar dat je het niet merkt betekend niet dat de CPU niet de bottelnek is voor je GPU.
Ik ben er zelf van op de hoogte dat meer dan Quad core amper zin heeft voor games en de meeste games helaas nog steeds 1-2 cores gebruiken.
Tja gezien de specs kon hij niet eens zo snel zijn als een GTX690. Ook niet als alle 2880 shaders actief waren geweest en als hij op 1000 MHz had gedraaid. Als je dat wilt moet je al richting de 1200 MHz toe en dat is niet te doen met een normaal verbruik. Ik had zelf max 50-60% sneller dan een GTX680 verwacht. Ik denk dat hij dat in bepaalde situaties wel zal halen. Maar lang niet in alle situaties en lagere resoluties.Als deze klopt..goh, zat ik toch aardig dicht in de buurt bij wat er uit rolt. In elk geval niet de bijna-690 waar zovelen op hoopten - helaas niet tegen beter weten in
Edit: zie nu dat deze bij dezelfde serie als de "slides" zat. Nog maar afwachten dus
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met 6gb ram kan je het beter inzetten voor 3+ schermen, denk... ook zonde van het ram anders
En ja BF3 trekt gewoon zwaar aan de CPU dus je hebt snel dat er minder werk te verrichten valt om de GPU aan te sturen
[ Voor 60% gewijzigd door A87 op 19-02-2013 10:48 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Excuseer, dat was de bedoeling ook niet. Ik wilde jouw punt alleen verduidelijken tegenover de restAstennu schreef op dinsdag 19 februari 2013 @ 10:41:
Ik snap je reactie helemaal niet? ik stelde dat toch helemaal niet ter discussie?
Kan met die specs zeker wel - als het een chip betrof op dezelfde indeling als GK104, maar het gaat hier om een chip met veel meer focus op GPGPU dan GK104. Jij snapt het, ik snap het, maar genoeg mensen niet, die geloven echt dat Nvidia (of AMD) zo'n sprong zou kunnen maken met zo'n chipTja gezien de specs kon hij niet eens zo snel zijn als een GTX690. Ook niet als alle 2880 shaders actief waren geweest en als hij op 1000 MHz had gedraaid. Als je dat wilt moet je al richting de 1200 MHz toe en dat is niet te doen met een normaal verbruik. Ik had zelf max 50-60% sneller dan een GTX680 verwacht. Ik denk dat hij dat in bepaalde situaties wel zal halen. Maar lang niet in alle situaties en lagere resoluties.
In dat geval bedanktWerelds schreef op dinsdag 19 februari 2013 @ 10:48:
[...]
Excuseer, dat was de bedoeling ook niet. Ik wilde jouw punt alleen verduidelijken tegenover de rest
Maar als het een chip met de indeling van de GK104 betrof had je meer dan 3000 shaders gehad.Kan met die specs zeker wel - als het een chip betrof op dezelfde indeling als GK104, maar het gaat hier om een chip met veel meer focus op GPGPU dan GK104. Jij snapt het, ik snap het, maar genoeg mensen niet, die geloven echt dat Nvidia (of AMD) zo'n sprong zou kunnen maken met zo'n chip
GK110 heeft er fysiek 2880. Maar een deel staat uit. En de clocks kun je misschien wel naar 900-1000 brengen maar dan ga je zo richting over over de 350 watt heen qua verbruik.
Dus het kan wel maar niet binnen dat TDP budget
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
En final specs.
Jammer dat de titan bijna 100Mhz lager geclockt is dan de '' rumors ''. De performance is hierdoor vind ik (in verhouding met de prijs) te laag.
Helemaals als ie ~800/900 euro gaat kosten. Mocht het nou zo zijn dat het een OC monster is dan word het een ander verhaal
Welke geruchten bedoel je dan? want ik heb ook geruchten gezien van 732 MHz dus ik was zelf verbaast over 837 en 875 turbo. Helemaal met een TDP van 250 watt.Fusion_XT schreef op dinsdag 19 februari 2013 @ 11:03:
Nieuw info http://videocardz.com/397...med-plus-the-latest-leaks
En final specs.
Jammer dat de titan bijna 100Mhz lager geclockt is dan de '' rumors ''. De performance is hierdoor vind ik (in verhouding met de prijs) te laag.
Helemaals als ie ~800/900 euro gaat kosten. Mocht het nou zo zijn dat het een OC monster is dan word het een ander verhaal.. (helemaal op water
)
Het zou best kunnen dat je met goede cooling 1000-1100 kan halen met overvolten. Maar het verbruik zal dan wel behoorlijk zijn.
En ik snap niet dat mensen verbaast zijn over de prijs voor dit relatief kleine beetje extra performance. Dit was al vanaf dag 1 bekend. En er zijn ook genoeg mensen geweest die meteen zijden dat 80-90% sneller veel te ambitieus is.
[ Voor 12% gewijzigd door Astennu op 19-02-2013 11:12 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De benaming eindelijk eens origineel, beter dan die kreten met getallen ^^
[ Voor 59% gewijzigd door A87 op 19-02-2013 11:14 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Zegt niets. Het zijn hele andere shaders. De shaders van de GTX280 lijken meer op die van de GTX480 en de 580 dan op die van de GTX6xx serie. En zelfs die zijn al heel erg verschillend.A87 schreef op dinsdag 19 februari 2013 @ 11:12:
Best extreem. GTX 280 240 shaders... en 4.5 jaar later al 2660.. met zelfde tdp
Zie ook de overstap van de 512 shaders van de GTX580 naar de 2880 shaders van de GK110. Dat is 5x zo veel. Maar dat betekend niet dat GK110 5x zo snel is. Een shader van een GTX580 is krachtiger dan die van de GK104 of GK110. Het is een hele andere architectuur.
Bij AMD is dat andersom GCN shaders zijn krachtiger dan een VLIW5 of VLIW4 shader. Maar bij de overgang van X1900 naar HD29xx gingen ze ook van weinig naar veel instructie units. (320 shaders voor de HD2900XT).
Later ging dat aantal vors omhoog echter werden niet minder krachtig aangezien de architectuur hetzelfde was.
nVidia ging van "weinig" krachtige shaders op hogere clocks naar iets minder krachtige shaders op wat lagere clocks (in ieder geval dezelfde clocks als de rest van de core waar de shaders eerst hoger geclockt waren dan de overige componenten in de GPU).
Een lang verhaal kort. Het aantal shaders alleen zegt niets over de prestaties. Je kunt chips maken met 10.000 shaders die trager zijn dan de huidige kaarten. De ene unit is gewoon groter dan de ander. En dat bepaalt meer hoeveel er in een GPU passen. Als je de GTX580 architectuur had gepakt en die op 28nm uit gebracht had had je er misschien 768-1024 gehad.
[ Voor 15% gewijzigd door Astennu op 19-02-2013 11:21 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De geruchten een paar maanden geleden van 732Mhz waren gebaseerd op de standaard clocks van de Tesla variant (k20 en k20x).Astennu schreef op dinsdag 19 februari 2013 @ 11:11:
[...]
Welke geruchten bedoel je dan? want ik heb ook geruchten gezien van 732 MHz dus ik was zelf verbaast over 837 en 875 turbo. Helemaal met een TDP van 250 watt.
Het zou best kunnen dat je met goede cooling 1000-1100 kan halen met overvolten. Maar het verbruik zal dan wel behoorlijk zijn.
En ik snap niet dat mensen verbaast zijn over de prijs voor dit relatief kleine beetje extra performance. Dit was al vanaf dag 1 bekend. En er zijn ook genoeg mensen geweest die meteen zijden dat 80-90% sneller veel te ambitieus is.
Daarna kwamen de geruchten van 915Mhz en ipv 2880 cuda cores naar 2688 cores. Ook kwam een boost clock van 1+Ghz naar voren.
Helaas niets meer dan waar. Zoals ik het nu zie dan is de Titan een pracht van een kaart maar te duur voor de geleverde performance.
Rond de €599,- / €649,- is voor de behaalde performance een schappelijke prijs.
Tja dat is gewoon niet realistisch. Die 2880 shader chips gaan denk ik naar de K20 kaarten. Ik kan me voorstellen dat de Yields niet al te best zijn met dit soort grote chips.Fusion_XT schreef op dinsdag 19 februari 2013 @ 11:22:
[...]
De geruchten een paar maanden geleden van 732Mhz waren gebaseerd op de standaard clocks van de Tesla variant (k20 en k20x).
Daarna kwamen de geruchten van 915Mhz en ipv 2880 cuda cores naar 2688 cores. Ook kwam een boost clock van 1+Ghz naar voren.
Helaas niets meer dan waar. Zoals ik het nu zie dan is de Titan een pracht van een kaart maar te duur voor de geleverde performance.
Rond de €599,- / €649,- is voor de behaalde performance een schappelijke prijs.
915 mhz met 1 GHz boost kan niet met 235 watt TDP ook niet met 250. Zie ook het verbruik van de GTX680 met een veel kleinere core.
Dus het was wishfull thinking....
Ik ben het met je eens over de prijs. Al is het volgens mij geen product wat nVidia massaal kan maken. En ze weten dat het wel een beetje speciaal is. Dus ze vragen er gewoon meer voor. Ze weten ook wel dat er genoeg mensen zullen zijn die het er voor over hebben. De mensen die het er niet voor over hebben verwijzen ze door naar de GTX680.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://videocardz.com/397...med-plus-the-latest-leaks
Edit. Dit nieuws was dus al gepost.
[ Voor 12% gewijzigd door calsonic op 19-02-2013 12:03 ]
Niet op voorraad.
Dat jah. Ik zit de hele dag al te wachten tot ik eindelijk sites zoals Tomshardware opeens hun artiekelen zie opknallenedward2 schreef op dinsdag 19 februari 2013 @ 13:06:
Wanneer is die NDA nou eindelijk eens voorbij?
NDA eindigt vandaag om 13:00 GMT las ik zo net ergens...edward2 schreef op dinsdag 19 februari 2013 @ 13:06:
Wanneer is die NDA nou eindelijk eens voorbij?
en de reviews komen pas de 21ste.Atrevir schreef op dinsdag 19 februari 2013 @ 13:33:
[...]
Dat jah. Ik zit de hele dag al te wachten tot ik eindelijk sites zoals Tomshardware opeens hun artiekelen zie opknallen
Ah bedankt. Ik hoop dat je gelijk hebt over die NDA want het is echt akelig stil op alle techsites op het moment en ik vertrouw het nietFusion_XT schreef op dinsdag 19 februari 2013 @ 13:37:
[...]
NDA eindigt vandaag om 13:00 GMT las ik zo net ergens...
[...]
en de reviews komen pas de 21ste.
Kijk dit klinkt al beter in de orenUpdate: Not only ASUS and EVGA
Galaxy, ASUS and EVGA are not the only manufacturers to launch the Titan. There will be few versions of it. Some of them are missing the Boost clock, while others are clocked at 900 MHz. According to the rumors, this still leaves a headroom for overclocking. Meaning each Titan could possibly be clocked at one GHz. What is also means is that each model will have a different pricing. Friendly advice, if you are really into buying the Titan, buy the cheapest one and wait for someone to come up with a modified BIOS with boost clock unlocked (but some would actually prefer only one clock mode), and of course wait for proper reviews
Galaxy GTX Titan with no boost
Apparently not only ASUS and EVGA are preparing the GTX Titan. Galaxy is also one of them. According to the source, the card would consume 235W, while offering only one clock of 875 MHz (there is no boost clock with this card). This is something completely opposite to the next leak (below), which confirms both boost clock and 250W TDP.
Verschillende types dat klinkt idd leuk.Fusion_XT schreef op dinsdag 19 februari 2013 @ 13:45:
[...]
Kijk dit klinkt al beter in de oren...
Hopelijk de laagst geklokte €700....mooie prijs
En persoonlijk heb ik liever een kaart zonder boost.
[ Voor 15% gewijzigd door Astennu op 19-02-2013 14:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
300 watt mag ook wel als hij daardoor meteen 10-25% sneller is...Astennu schreef op dinsdag 19 februari 2013 @ 14:05:
Ik zou iedereen aan raden gewoon even af te wachten. Goed overclocken zal wel geen probleem zijn alleen ga je dan wel makkelijk over de 250 watt heen.
Lol mijn GTX480's in SLI op water trekken meer dan 700Watt op 820Mhz core .. Dus dat die Titan dan over de 250/300 Watt gaat boeit me niksAstennu schreef op dinsdag 19 februari 2013 @ 14:05:
Ik zou iedereen aan raden gewoon even af te wachten. Goed overclocken zal wel geen probleem zijn alleen ga je dan wel makkelijk over de 250 watt heen.
En persoonlijk heb ik liever een kaart zonder boost.
Als je met voltages gaat spelen gaat het exponentieel omhoog. Ik denk dat 10-15% extra wel richting de 300 watt gaat als 250 standaard is.calsonic schreef op dinsdag 19 februari 2013 @ 14:07:
[...]
300 watt mag ook wel als hij daardoor meteen 10-25% sneller is...
Als je dat soort kaarten hebt kan ik me dat voorstellen ja. Maar omdat jou dat niets boeit betekend het nog niet dat het de rest van de wereld niets boeit. AMD wordt door nVidia gebruikers ook regelmatig afgekraakt omdat ze een hoger piek verbruik hebben (avg in games scheelt het maar 5-10 watt). Dus dat soort mensen zouden dit dan ook belangrijk moeten vinden.Fusion_XT schreef op dinsdag 19 februari 2013 @ 14:10:
[...]
Lol mijn GTX480's in SLI op water trekken meer dan 700Watt op 820Mhz core .. Dus dat die Titan dan over de 250/300 Watt gaat boeit me niks..
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
NVIDIA GeForce GTX Titan Released
NVIDIA has just announced the new single-gpu monster – GeForce GTX Titan. The review date has been moved to February 21st, so for now we can only take a loot at those high-definition images.
Link
[ Voor 44% gewijzigd door Fusion_XT op 19-02-2013 14:29 ]
Fusion_XT schreef op dinsdag 19 februari 2013 @ 14:27:
February 19th, 2013
NVIDIA GeForce GTX Titan Released
NVIDIA has just announced the new single-gpu monster – GeForce GTX Titan. The review date has been moved to February 21st, so for now we can only take a loot at those high-definition images.
Link
![]()
![]()
![]()
![]()
![]()
![]()
Dit is helemaal kicke! Alleen moet je waarschijnlijk een maand gaan wachten voordat er custom modellen op de markt verschijnen....In the first batch only ASUS and EVGA will launch the GeForce GTX Titan. This will be followed by Colorful, Gainward, Galaxy, Gigabyte, Inno3D, MSI and Palit with more models. NVIDIA did not forbid to modify the cards, meaning, manufactures are free to introduce custom models, maybe even with a custom cooling.
Een GTX 680 heeft een "TDP" van 195W. In de praktijk gebruikt hij onder Metro @ 1080p echter al een 30-40W meer dan dat, zonder overklok en laat staan overvolten. Ga je overklokken dan zit je gegarandeerd al tegen de 330 aan te hikken en ga je dan daarbij overvolten schiet je zo door naar de 400 hoor.
Dan wacht ik wel een maand want heb toch het liefst weer een stille en koele DCIIFusion_XT schreef op dinsdag 19 februari 2013 @ 14:35:
[...]
Dit is helemaal kicke! Alleen moet je waarschijnlijk een maand gaan wachten voordat er custom modellen op de markt verschijnen....
Mijn gamepc staat toch niet 24/7 aan - alleen aan als ik aan het gamen ben dus dan mag hij van mij wel 400 watt verbruiken.Werelds schreef op dinsdag 19 februari 2013 @ 14:39:
Jongens, nogmaals, dat "TDP" van 250W is niet het verbruik. Dit ding gaat sowieso al tegen de 300W aan zitten qua verbruik.
Een GTX 680 heeft een "TDP" van 195W. In de praktijk gebruikt hij onder Metro @ 1080p echter al een 30-40W meer dan dat, zonder overklok en laat staan overvolten. Ga je overklokken dan zit je gegarandeerd al tegen de 330 aan te hikken en ga je dan daarbij overvolten schiet je zo door naar de 400 hoor.
[ Voor 49% gewijzigd door calsonic op 19-02-2013 14:55 ]
We zullen het vanzelf zien als de NDA opgeheven wordt. Als alles wat we nu zien klopt is het echt slechts een kaart om AMD de ogen uit te steken, want prijzen op verbruik, thermals of performance/watt zal die zo niet binnen gaan slepen. Dan blijven de 7970 en 680 de meest boeiende kaarten (en met de huidige prijzen vooral de 7970 natuurlijk)
Standaard verbruikt hij nog steeds minder als een 7970 en is met die standaard settings een stuk sneller.Werelds schreef op dinsdag 19 februari 2013 @ 15:05:
Wat je daar dus even simpelweg vergeet is dat met dat verbruik de warmteproductie evenredig omhoog gaat en dat je dus zonder water ook aardig wat kabaal gaat krijgen - er van uitgaande dat de koeler in elk geval ver genoeg mee wilt. Ik denk dat het qua overklokken nog wel eens vies tegen kan gaan vallen, aangezien er dus blijkbaar meteen al een vapour chamber op zit - en die is dan nog aardig uit de kluiten gewassen ook. Zit er niet voor niks op.
We zullen het vanzelf zien als de NDA opgeheven wordt. Als alles wat we nu zien klopt is het echt slechts een kaart om AMD de ogen uit te steken, want prijzen op verbruik, thermals of performance/watt zal die zo niet binnen gaan slepen. Dan blijven de 7970 en 680 de meest boeiende kaarten (en met de huidige prijzen vooral de 7970 natuurlijk)
Overklokken is leuk voor hoge bench scores maar totaal nutteloos voor games want daar draait hij zijn hand niet voor om natuurlijk.
De referentiekoeler die erop zit is nog stiller als die van de 680 - en die was al aardig stil en gelukkig niet die lawaaibak die er op de 7970 zat - gelukkig hebben ze dat bij Nvidia beter voor elkaar.
calsonic schreef op dinsdag 19 februari 2013 @ 15:10:
[...]
Standaard verbruikt hij nog steeds minder als een 7970 en is met die standaard settings een stuk sneller.
Overklokken is leuk voor hoge bench scores maar totaal nutteloos voor games want daar draait hij zijn hand niet voor om natuurlijk.
De referentiekoeler die erop zit is nog stiller als die van de 680 - en die was al aardig stil en gelukkig niet die lawaaibak die er op de 7970 zat - gelukkig hebben ze dat bij Nvidia beter voor elkaar.
De koeler op de 680 is alles behalve stil. Nvidia's standard fan profiel is stiller dan dat van AMD ja, maar daar heb je het ook mee gehad. Als je pech hebt, zoals ik, en een chip hebt die hoge voltages nodig heeft en aardig wat leakage, heb je een zo 1% fan speed per graad nodig om de temperatuur bij te benen; met Nvidia's standaard profiel zat ik over de 80 graden heen. Nu heb ik zelf een profiel ingesteld en om onder volle load op of onder de 70 graden te blijven heb ik 74-75% fan speed nodig. Dan is hij alles behalve stil. Beide koelers zijn lawaaimakers als ze op toeren komen, het verschil zit hem puur in het standaard fan profiel. Ik wil je best eens laten horen wat voor kabaal die van mij maakt, stil is anders
Overklokken geen nut voor games? Juist met een kaart die vaak tegen een upper limit aan loopt (V-sync) wil je overklokken zodat je minimum stevig omhoog wordt gekrikt. +100 MHz op je core kan al snel betekenen dat je minimum 5-10 FPS hoger ligt - je maximum verandert waarschijnlijk een stuk minder, maar die is ook minder belangrijk.
En standaard verbruikt hij minder dan een 7970? Huh? Wat? Heb ik ergens iets gemist?
Een 7970 verbruikt iets meer dan een 680, zo'n 240 op stock. Ga je dan op zo'n 1150/1750 zitten, zit je ergens rond de 300W (hangt af van hoe veel volt je chip nodig heeft). Dat zit in beide gevallen ruim onder wat ik hierboven aan gaf. Zelfs al is "TDP" deze keer het verbruik, dan nog zit hij niet *onder* de 7970.
@ Gurneyhck: het is niet alleen verbruik zoals ik al zei. Hoger verbruik -> meer hitte -> meer koeling nodig -> meer lawaai (zonder water althans).
Klik
Een quote uit bovenstaande:
I mention this specifically as the Geforce GTX Titan has been designed to overclock. The AIB partners will be allowed to offer voltage unlocked SKUs. And combined with GPU Boost 2.0 you will see this product boosting towards the 1100~1150 MHz range once you tweak it. The reference clock however is 836 MHz with a boost clock of 876 MHz.
However, tweaked... we got it running at 1176 MHz my man.
Die Hilbert tochThe product is obviously PCI-Express 3.0 ready and has a TDP of around 250W with a typical idle power draw of 15 Watts. That TDP is a maximum, overall and on average your GPU will not consume that amount of power.
Ik heb zowel de 7970 als de 680 gehad en dat is dus echt een wereld van verschil.Werelds schreef op dinsdag 19 februari 2013 @ 15:25:
[...]
![]()
De koeler op de 680 is alles behalve stil. Nvidia's standard fan profiel is stiller dan dat van AMD ja, maar daar heb je het ook mee gehad. Als je pech hebt, zoals ik, en een chip hebt die hoge voltages nodig heeft en aardig wat leakage, heb je een zo 1% fan speed per graad nodig om de temperatuur bij te benen; met Nvidia's standaard profiel zat ik over de 80 graden heen. Nu heb ik zelf een profiel ingesteld en om onder volle load op of onder de 70 graden te blijven heb ik 74-75% fan speed nodig. Dan is hij alles behalve stil. Beide koelers zijn lawaaimakers als ze op toeren komen, het verschil zit hem puur in het standaard fan profiel. Ik wil je best eens laten horen wat voor kabaal die van mij maakt, stil is anders
Overklokken geen nut voor games? Juist met een kaart die vaak tegen een upper limit aan loopt (V-sync) wil je overklokken zodat je minimum stevig omhoog wordt gekrikt. +100 MHz op je core kan al snel betekenen dat je minimum 5-10 FPS hoger ligt - je maximum verandert waarschijnlijk een stuk minder, maar die is ook minder belangrijk.
En standaard verbruikt hij minder dan een 7970? Huh? Wat? Heb ik ergens iets gemist?
Een 7970 verbruikt iets meer dan een 680, zo'n 240 op stock. Ga je dan op zo'n 1150/1750 zitten, zit je ergens rond de 300W (hangt af van hoe veel volt je chip nodig heeft). Dat zit in beide gevallen ruim onder wat ik hierboven aan gaf. Zelfs al is "TDP" deze keer het verbruik, dan nog zit hij niet *onder* de 7970.
@ Gurneyhck: het is niet alleen verbruik zoals ik al zei. Hoger verbruik -> meer hitte -> meer koeling nodig -> meer lawaai (zonder water althans).
Wat de 7970 op 50% fanspeed aan geluid produceerd doet de 680 nog nieteens voluit.
btw De 680 kwam hier nooit boven de 64ºC uit op 60% fanspeed.
En als je zo tegen de Geforce Titan bent of het gewoon niet kunt betalen dan blijf je hier toch weg.
[ Voor 3% gewijzigd door calsonic op 19-02-2013 15:40 ]
Dat laatste geloof ik dus werkelijk niets van. Dan heb je hem ook nooit echt gestressed. En voor de rest: vreemd, aangezien elke review de twee binnen zo'n 2dB(A) van elkaar had staan - en dat zijn dus standard fan profiles. Ze zijn allebei gewoon lawaaiig als de pest, zo simpel is het.calsonic schreef op dinsdag 19 februari 2013 @ 15:37:
[...]
Ik heb zowel de 7970 als de 680 gehad en dat is dus echt een wereld van verschil.
Wat de 7970 op 50% fanspeed aan geluid produceerd doet de 680 nog nieteens voluit.
btw De 680 kwam hier nooit boven de 64ºC uit op 60% fanspeed.
Ik heb zelf Nvidia, het geld is ook niet bepaald een issue. En ik heb de afgelopen twintig jaar toch wel twee keer zo veel Nvidia kaarten gehad dan AMD/ATI, dus nee, dat is het ook niet voordat je daar mee komt. Ik ben gewoon een realist. Erg leuk overigens, dat meteen op de man gaan spelen.En als je zo tegen Nvidia bent of het gewoon niet kunt betalen dan blijf je hier toch weg.
800 EUR zonder BTW. 1000+ Euro met BTW en winkel toevoegingen? Dan mag ik hopen dat de grafiekjes er kilometers naast zitten, want dat is zelfs een sprong van 50% niet waard.EUR 800 Ex VAT
GBP 827 Inc. VAT
USD 999 Inc. VAT
Of jij me geloof of niet boeit me niets ik heb de kaarten van de laatste 4 generaties allemaal gehad zowel groen als rood dus ik weet waar ik over praat.Werelds schreef op dinsdag 19 februari 2013 @ 15:45:
[...]
Dat laatste geloof ik dus werkelijk niets van. Dan heb je hem ook nooit echt gestressed. En voor de rest: vreemd, aangezien elke review de twee binnen zo'n 2dB(A) van elkaar had staan - en dat zijn dus standard fan profiles. Ze zijn allebei gewoon lawaaiig als de pest, zo simpel is het.
[...]
Ik heb zelf Nvidia, het geld is ook niet bepaald een issue. En ik heb de afgelopen twintig jaar toch wel twee keer zo veel Nvidia kaarten gehad dan AMD/ATI, dus nee, dat is het ook niet voordat je daar mee komt. Ik ben gewoon een realist. Erg leuk overigens, dat meteen op de man gaan spelen.
[...]
800 EUR zonder BTW. 1000+ Euro met BTW en winkel toevoegingen? Dan mag ik hopen dat de grafiekjes er kilometers naast zitten, want dat is zelfs een sprong van 50% niet waard.
Al kost hij €2000 who cares it's only money!
Je doet ook niet echt je best om het wel geloofwaardig te makencalsonic schreef op dinsdag 19 februari 2013 @ 15:51:
[...]
Al kost hij €2000 who cares it's only money!
Komt omdat als iemand alleen maar loopt af te geven je toch ook denkt r*t toch op of niet?Streskip schreef op dinsdag 19 februari 2013 @ 15:51:
[...]
Je doet ook niet echt je best om het wel geloofwaardig te maken
Hij is nog stiller als de 680
YouTube: NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips
[ Voor 23% gewijzigd door calsonic op 19-02-2013 16:03 ]
Waar is die 4x GTX 690 setup van je dancalsonic schreef op dinsdag 19 februari 2013 @ 15:51:
Al kost hij €2000 who cares it's only money!
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Heb de 690 gehad maar ook alweer eruit gedaan.XanderDrake schreef op dinsdag 19 februari 2013 @ 16:03:
[...]
Waar is die 4x GTX 690 setup van je dan
Enige kaart die ik niet heb gehad is 7990 en aangezien amd stotterd op mijn huidige setup ga ik die ook niet halen.
[ Voor 21% gewijzigd door calsonic op 19-02-2013 16:05 ]
Hilbert's preview (en andere overigens ook) laat ook zien dat het verbruik van Titan zonder overklokken al een dikke 20W boven de 7970 GE ligt, dus dan hebben we dat puntje van je ook weerlegd. Zoals ik al zei ligt de 7970 op zijn beurt wel iets boven de 680, dat heb ik ook nooit ontkend (sterker nog, dat gaf ik zelf aan).
Ga je vervolgens naar temperaturen heeft ook elke site zowel de 680 als de 7970 ruim boven de 70 graden zitten onder load (waarbij Hilbert zo'n beetje de enige is die ze gelijk heeft staan, op andere sites zoals AT zit de 680 boven de 7970), dus jouw "64 graden op 60% fanspeed" mag je dan ook wel bewijzen, aangezien het niet overeen komt met mijn eigen 680, niet met reviews en ook niet met resultaten die ik op alle forums tegen kom.
Kunnen we dan nu terug naar de discussie van Titan?
Mooie kaart, maar die prijs is echt te veel van het goede. Als ik zo alle previews bekijk, zitten ze ook allemaal op dat hoge verbruik, hoge temperatuur en evenveel lawaai als GK104 en Tahiti (of zelfs meer). Op lucht gaat dat dus een straaljager betekenen en is de ruimte sowieso al relatief beperkt. Ik ben benieuwd naar de performance, maar nogmaals, ik hoop echt dat wat we tot nu toe gezien hebben er kilometers naast zit. Leuk voor de idioten die inderdaad met 7990's en Quad-setups zitten, maar daar blijft het ook bij.
ahum..Werelds schreef op dinsdag 19 februari 2013 @ 16:10:
Ik loop helemaal niet af te geven. Wat jij beweert is echter gewoon nergens terug te vinden buiten jouw posts. Vrijwel elke review heeft de twee kaarten op maximaal 5dB(A) van elkaar staan met standaard fan profiles. Daarbij draait de 680 ook consequent enkele graden warmer. Zoals ik al zei, AMD heeft standaard een aggressiever profiel en ga je dan het verschil in temperatuur goed maken kom je op gelijke geluidsniveaus, daar de geluidsproductie geen lineaire vergelijking is.
Hilbert's preview (en andere overigens ook) laat ook zien dat het verbruik van Titan zonder overklokken al een dikke 20W boven de 7970 GE ligt, dus dan hebben we dat puntje van je ook weerlegd. Zoals ik al zei ligt de 7970 op zijn beurt wel iets boven de 680, dat heb ik ook nooit ontkend (sterker nog, dat gaf ik zelf aan).
Ga je vervolgens naar temperaturen heeft ook elke site zowel de 680 als de 7970 ruim boven de 70 graden zitten onder load (waarbij Hilbert zo'n beetje de enige is die ze gelijk heeft staan, op andere sites zoals AT zit de 680 boven de 7970), dus jouw "64 graden op 60% fanspeed" mag je dan ook wel bewijzen, aangezien het niet overeen komt met mijn eigen 680, niet met reviews en ook niet met resultaten die ik op alle forums tegen kom.
Kunnen we dan nu terug naar de discussie van Titan?
Mooie kaart, maar die prijs is echt te veel van het goede. Als ik zo alle previews bekijk, zitten ze ook allemaal op dat hoge verbruik, hoge temperatuur en evenveel lawaai als GK104 en Tahiti (of zelfs meer). Op lucht gaat dat dus een straaljager betekenen en is de ruimte sowieso al relatief beperkt. Ik ben benieuwd naar de performance, maar nogmaals, ik hoop echt dat wat we tot nu toe gezien hebben er kilometers naast zit. Leuk voor de idioten die inderdaad met 7990's en Quad-setups zitten, maar daar blijft het ook bij.
http://nl.hardware.info/r...0-review-geluidsproductie
40dB(gtx680) tov 57dB(hd7970) is aanzienlijk
Hier zeggen ze dat 40 om 41 decibel is, wat dus een heel klein verschil is.
Zoals ik daarstraks al vertelde heb ik ze dus beide zelf gehad en het verschil in geluid was erg groot.sjaakwortel schreef op dinsdag 19 februari 2013 @ 16:49:
http://www.guru3d.com/art...preview_reference,11.html
Hier zeggen ze dat 40 om 41 decibel is, wat dus een heel klein verschil is.
Als jij ze ook alle 2 zelf hebt gehad heb je recht van spreken en niet iets gaan citeren wat een ander ergens op een site heeft gezegd.
Ik heb het persoonlijk ondervonden en zit er ook 1 meter vandaan.3XPER7 schreef op dinsdag 19 februari 2013 @ 17:02:
Guru3D meet door een dichte behuizing op 75 cm afstand, HWI meet 10 cm van de kaart zelf af.
Maar nu stop ik ermee jullie hebben gelijk - veel plezier ermee.
Ik ga door ook vanuit, alleen is de vraag hoeveelWerelds schreef op dinsdag 19 februari 2013 @ 16:14:
Die gaat hij langs. Daar twijfel ik geen seconde aan
Ja Anandtech had ook al goede resultaten. Die Boost 2.0 werkt wel goed:Fusion_XT schreef op dinsdag 19 februari 2013 @ 15:29:
GeForce GTX Titan 6GB - the fastest GPU you have ever seen
Klik
Een quote uit bovenstaande:
[...]
Best indrukwekkend. Maar ik ben benieuwd wat er gebeurd als je echt zware apps gaat draaien. Zoals Furmark en zo. En ik ben benieuwd wat hij verbruikt met furmark en games. Zeker als je het hebt over 1100+ MHz.Of course total power consumption is still a technical concern here, though much less so. Technically NVIDIA is watching both the temperature and the power consumption and clamping down when either is hit. But since GPU Boost 2 does away with the concept of separate power targets – sticking solely with the TDP instead – in the design of Titan there’s quite a bit more room for boosting thanks to the fact that it can keep on boosting right up until the point it hits the 250W TDP limit. Our Titan sample can boost its clockspeed by up to 19% (837MHz to 992MHz), whereas our GTX 680 sample could only boost by 10% (1006MHz to 1110MHz).
En daarnaast kun je nu wel overvolten:
Dit was iets wat de GTX680 niet mocht doen. Dus het lijkt er op dat dit wel een erg leuk OC kaartje kan zijn. Jammer dat hij zo extreem duur moet zijn.There are a number of reasons for this, and hopefully one day soon we’ll be able to get into NVIDIA’s Project Greenlight video card approval process in significant detail so that we can better explain this, but the primary concern was that without strict voltage limits some of the more excessive users may blow out their cards with voltages set too high. And while the responsibility for this ultimately falls to the user, and in some cases the manufacturer of their card (depending on the warrant), it makes NVIDIA look bad regardless. The end result being that voltage control on the GTX 680 (and lower cards) was disabled for everyone, regardless of what a card was capable of.
With Titan this has finally changed, at least to some degree. In short, NVIDIA is bringing back overvoltage control, albeit in a more limited fashion.
For Titan cards, partners will have the final say in whether they wish to allow overvolting or not. If they choose to allow it, they get to set a maximum voltage (Vmax) figure in their VBIOS. The user in turn is allowed to increase their voltage beyond NVIDIA’s default reliability voltage limit (Vrel) up to Vmax. As part of the process however users have to acknowledge that increasing their voltage beyond Vrel puts their card at risk and may reduce the lifetime of the card. Only once that’s acknowledged will users be able to increase their voltages beyond Vrel.
With that in mind, beyond overvolting overclocking has also changed in some more subtle ways. Memory and core offsets are still in place, but with the switch from power based monitoring to temperature based monitoring, the power target slider has been augmented with a separate temperature target slider.
The power target slider is still responsible for controlling the TDP as before, but with the ability to prioritize temperatures over power consumption it appears to be somewhat redundant (or at least unnecessary) for more significant overclocking. That leaves us with the temperature slider, which is really a control for two functions.
First and foremost of course is that the temperature slider controls what the target temperature is for Titan. By default for Titan is 80C, and it may be turned all the way up to 95C. The higher the temperature setting the more frequently Titan can reach its highest boost bins, in essence making this a weaker form of overclocking just like the power target adjustment was on GTX 680.
The second function controlled by the temperature slider is the fan curve, which for all practical purposes follows the temperature slider. With modern video cards ramping up their fan speeds rather quickly once cards get into the 80C range, merely increasing the power target alone wouldn’t be particularly desirable in most cases due to the extra noise it generates, so NVIDIA tied in the fan curve to the temperature slider. By doing so it ensures that fan speeds stay relatively low until they start exceeding the temperature target. This seems a bit counterintuitive at first, but when put in perspective of the goal – higher temperatures without an increase in fan speed – this starts to make sense.
[ Voor 61% gewijzigd door Astennu op 19-02-2013 19:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zie ook dat Hilbert het TDP van de 680 op 170 heeft staan
Ik heb nog eens even naar de resultaten van Tahiti gekeken op compute gebied. Als ik zo naar de specs van Titan kijk, denk ik dat ik mijn verwachtingen iets bij moet stellen. Ik denk dat dat nog wel eens een prachtig gevecht kan gaan worden met sommige toepassingen, Tahiti doet het beter dan ik me herinner van vorig jaar. Als ik het vergelijk met GK104, zal het in het ergste geval zo'n 1.5 keer sneller zijn, maar over het algemeen moeten we denk ik tussen een factor 2 en 2.5 kijken, met uitschieters naar de 3. De FP64 snelheid ligt nu natuurlijk op 1/3 van de FP32 (8 keer zo veel, 680 zit op slechts 1/24), dus dat is gigantisch. Het aantal flops ligt dan ook nog hoger, maar dit is door die FMA combinatie vanaf Fermi altijd een beetje lastig in te schatten.madmaxnl schreef op dinsdag 19 februari 2013 @ 18:42:
Ik ga door ook vanuit, alleen is de vraag hoeveel
Ik ben eigenlijk benieuwder naar de compute performance dan de gaming performance, haha, dat laatste gaat in verhouding tot GK104 en Tahiti toch tegenvallen
Dit topic is gesloten.
![]()
