[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 30 Laatste
Acties:
  • 125.313 views

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Ik zou zeggen: maak d'r een leuk grafiekje van en post die hier, wordt nog wel eens opgepikt door andere sites :+ :P

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17:20

Tomas Hochstenbach

Redacteur componenten
Gebruik groen en zwart, plak er het NVIDIA-logo van tien jaar geleden in en bedenk een grammaticaal niet-correcte slogan, zijn mijn tips om opgepikt te worden :p.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
@ toettoet: Je moet niet uitgaan van Tahiti, dan moet je ook Fermi nemen. Het verschil is bij AMD nu groter dan het bij Nvidia was, GF104/GF114 was uitzonderlijk goed vergeleken met de grotere broers.

Met wat snel hoofdrekenwerk kom ik dan toch al zo'n 20% lager uit dan waar jij uitkomt, pakweg 65%? Moet straks even de cijfertjes intikken en berekenen. Hierbij heb ik dan 30% als winst voor GF110 over GF114 genomen; de klok is wel 6% lager voor GF110, maar dat is nihil en heb ik gemakshalve even genegeerd.

Als je kijkt naar 550 Ti -> 560 Ti en 650 Ti -> 660 Ti zul je zien dat die verhoudingen ook nagenoeg hetzelfde zijn, pak 'm beet 65% winst voor GF114/GK104 over GF116/GK106. Kepler als architectuur is een stuk efficiënter, de relatieve performance is echter nog steeds grofweg hetzelfde.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Je kunt voor die vergelijking ook GF104 en GF110 pakken, daar het ook over 2 generaties gaat. Wij hebben dan wel geen GK100 gekregen, maar we hebben het nu wel over GK110 :) Als je er dan cijfers van TPU bij pakt zie je ongeveer 75% winst op relevante resoluties (alles onder 1680 x 1050 dan niet meegerekend). Vraag het me dan ook af of ze de core clock van GK104 vol kunnen houden voor GK110 en hoeveel impact de HPC-update heeft. Het blijft natuurlijk speculeren op gebakken lucht en redelijk giswerk, maar ik verwacht zo'n 55% extra als plafond.

[ Voor 27% gewijzigd door Fid3lity op 17-10-2012 11:49 ]


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Toettoetdaan schreef op woensdag 17 oktober 2012 @ 01:47:
[...]

Ik denk dat daar wel een grove berekening van is te maken, met nadruk op grof.

Iets van de efficiëntie in games per transistor berekenen over de HD7870 en de HD7970, daar de verhouding van nemen, en die verhouding vervolgens gooien over de efficiëntie per transistor van de GTX680 en dat opschalen naar het aantal transistors die de GK110 zou hebben.

Dat zou een extreem grover berekening zijn, maar het lijkt me wel leuk dus laten we het maar meteen doen:
In de berekening gebruik ik de informatie uit de HD7970 GHz Edition revieuw op Techpowerup: http://www.techpowerup.co..._7970_GHz_Edition/28.html
De GHz Edition omdat dan beide kaarten dezelfde core clock hebben en verder ga ik uit van de relatieve performance op 1920*1200. (Ik zou graag die van alle resoluties gebruiken, maar de 1280x800 resolutie vind ik net wat teveel verstoren in deze performance klasse)

De HD7970 GHz Edition is 36,99% sneller dan een HD7870. 40,84
De HD7970 heeft 53,93% meer transistors dan de HD7870. (4.31 miljard vs 2.8 miljard)
De performance per transistor verhouding is dus: 91,5:100 ofwel 0,915:1

De GK110 zou 102,86% meer transistors hebben dan de GTX680 (GK104). (7.1 miljard vs 3.5 miljard)
De performance van de GK110 op gelijke clock zou dus 202,86*0,915 = 185.62 zijn van de GTX680.
De GK110 zou dus 85.62% sneller zijn ofwel de GTX680 zou 53,88% van de performance van een GK110 hebben.
Tegen over de GTX690 zou de GK110 22,5% sneller zijn in games :)
Berekend met: http://www.techpowerup.co...A/GeForce_GTX_690/28.html

Nogmaals dit is extreem grof, zo ga ik er grofweg vanuit dat de nVidia een vergelijkbare GPGPU stap maakt als AMD tussen de HD7870 en HD7970 doet, ga ik er vanuit dat de GK110 op gelijke clocks kan lopen als de GK104 en bovenal maak ik een vergelijking tussen twee extreem verschillende architecturen.

Die 85.62% en 22,5% zouden dus optimaal zijn, maar ik ga er zelf niet vanuit dat dat zo is, zo is het bijzonder lastig om genoeg geheugen bandbreedte voor zo een extreem grote chip te creëren, iets wat nVidia zelf ook zegt:
[...]
Bron: http://www.tomshardware.c...-k20-gk110-gpu,15683.html

Ook ga ik er vanuit dat niet alle cuda units ingeschakeld zijn. (Ik denk dat ze maximaal 14 van de 15 inschakelen a la GTX480) en ik denk ook niet dat een chip van die grootte op gelijke clock kan werken als de GK104 terwijl de zuinigere versies er al uit zijn gehaald voor de Tesla K20.

Persoonlijk ga ik voor een best case scenario van 70% en 15% over de GTX680 en de GTX690.
als je het vermogen groei er ook bij telt zal je grofweg boven de 400W zitten voor die GK110 op die clocksnelheden. Dus zelfs met minder SMX enabled ga je serieus aan de clockspeed moeten knabbelen wil je dat ietwat beperken.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Er is zo ver ik weet 1 keer geweest dat de volgende generatie highend sneller was dan de x2 editie van de vorige generatie en dat was 3870X2 naar de 4870. Teminste als ik het me goed herrinner.
Het is vanuit historisch precendent zeer omwaarschijnlijk om uit te gaan dat de volgende high end nvidia kaart sneller is dan the 690

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Alle kheb deze keer eigenlijk geluk dat de verandering niet veel gewijzigd heeft aan de TS *O*
(Nu daar ik zowiezo nog de tweakers 5 template gebruikte en de rest van de wereld 6 had ik al gebrobeerd alles zo scaling mogelijk te maken .. maar toch)

On topic:

Ik hoop imo vooral op een prijsdaling voor de "mainstream" kaarten maw net zoals in de 4870 tijd voor 150 euro ofzo een deftige videokaart vinden waarbij ik niet in reviews moet lezen "voor een resolutie zoals full HD of hoger is deze kaart echter niet geschikt"
Als men dat al kan bekomen in de nieuwe reeksen ben ik (en vele andere klanten) al content. Ik ken maar weinig mensen die ik blij kan maken als ik hun een 650(ti) aanbied of het AMD alternatief.
"Deze kaart is redelijk aan de prijs maar zolang je uw resolutie/settings niet al te hoog zet voldoet hij perfect!" XD
En zoals je nogmaals in de tweakers review kon zien is het niet het totaal aantal MB aan geheugen dat dit beïnvloed.. (De 2GB versie presteerde echt niet beter dan de 1GB versie op full HD settings ..)
Tis bijna precies dat we terug in de FX tijdperk zitten "ploef er maar meer geheugen op dan verkopen we beter" wanneer dit geheugen effectief nooit of bijna nooit gebruikt zal worden (eyefinity/surround gebruikers daargelaten).

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
3XPER7 schreef op woensdag 17 oktober 2012 @ 11:45:
Je kunt voor die vergelijking ook GF104 en GF110 pakken, daar het ook over 2 generaties gaat. Wij hebben dan wel geen GK100 gekregen, maar we hebben het nu wel over GK110 :) Als je er dan cijfers van TPU bij pakt zie je ongeveer 75% winst op relevante resoluties (alles onder 1680 x 1050 dan niet meegerekend). Vraag het me dan ook af of ze de core clock van GK104 vol kunnen houden voor GK110 en hoeveel impact de HPC-update heeft. Het blijft natuurlijk speculeren op gebakken lucht en redelijk giswerk, maar ik verwacht zo'n 55% extra als plafond.
Dat is ook waar natuurlijk, maar als je dat dan neemt dan krijgen de clocks een flinke klap in het gezicht - GK104 doet het in verhouding tot de concurrent vele malen beter dan zelfs GF104 dat deed; grof vertaald zou GK110 dan met pijn en moeite de clocks van GK104 vast kunnen houden, terwijl GK114 hoger zou kunnen gaan (en dus dichter bij GK110 komen). Ik zie ze in elk geval alsnog niet boven de 50% uitkomen :)

[ Voor 13% gewijzigd door Werelds op 18-10-2012 14:38 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

ik weet zeker dat ze een limiet stellen op 250w per single gpu en ze pas met iets nieuws komen als AMD met iets komt.. alleen maar beter, anders krijg je weer zo'n GTX480 verhaal.

[ Voor 52% gewijzigd door A87 op 18-10-2012 17:38 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

http://www.geforce.com/drivers/results/50294/nvidiaupdate#

Kreeg bericht dat deze uit is:

Version 310.33 - BETA
Release Date Tue Oct 23, 2012

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Wou het net posten, schijnt toch een behoorlijke verbetering te zijn voor 600 series gebruikers.
Ben benieuwd of tweakers hier ook een item over maakt :o

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 13:19

yzx

t!n0 schreef op dinsdag 23 oktober 2012 @ 21:47:
Wou het net posten, schijnt toch een behoorlijke verbetering te zijn voor 600 series gebruikers.
Ben benieuwd of tweakers hier ook een item over maakt :o
Is er al een site ofzo die evt al een benchmark gedaan heeft tov de oude drivers zoals met die van AMD van gisteren dan, of is het gewoon op die %'s geloven?

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 25-06 17:23

Semi-Accurate: nVidia Tesla K20 specs give hints about 28nm yields


The short spec list, 2496 shaders arranged in 13SMXs, 705MHz, all pulling 225W.

Compare and contrast this to the number of physical SMXs on the chip, 15, and the number of shaders, 2880. That means the GK110 productized as the K20 only has 13/15ths of the GPU working, two SMXs are fused off. Power usage is less than expected, 225W for 13SMXs @ 705MHz is a bit better than we would expect since the GK104 pulls 195W for 8SMXs at 1006MHz. So power use is less than feared but yields are worse than you would expect.

...

You can see the pattern enough to know that a 13SMX compute card means yields support a 12 or 13SMX consumer variant.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

nVidia verrast beurs analysten met record omzet





Ondanks dat de PC markt naar beneden gaat, weet nVidia met zijn Tegra chips toch een hoge omzet te creeren. Ook wint het markt deel op AMD in het gebied van discrete graphics:
“The fundamentals are OK,” said Daniel Berenbaum, a New York-based analyst at MKM Partners LLC. “These guys are gaining market share and Tegra seems to be doing well.”
Dus, we hoeven niet bang te zijn dat nVidia kopje onder gaat binnenkort :) in tegenstelling tot sommige andere chip-fabrikanten :/

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op vrijdag 09 november 2012 @ 11:50:

nVidia verrast beurs analysten met record omzet





Ondanks dat de PC markt naar beneden gaat, weet nVidia met zijn Tegra chips toch een hoge omzet te creeren. Ook wint het markt deel op AMD in het gebied van discrete graphics:

[...]


Dus, we hoeven niet bang te zijn dat nVidia kopje onder gaat binnenkort :) in tegenstelling tot sommige andere chip-fabrikanten :/
Mmm. Eerst ook maar eens zien wanneer Tegra4 komt en in hoe dit kan concurreren met bijv. de qualcomm quadcores.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
XanderDrake schreef op vrijdag 09 november 2012 @ 11:50:

nVidia verrast beurs analysten met record omzet





Ondanks dat de PC markt naar beneden gaat, weet nVidia met zijn Tegra chips toch een hoge omzet te creeren. Ook wint het markt deel op AMD in het gebied van discrete graphics:

[...]


Dus, we hoeven niet bang te zijn dat nVidia kopje onder gaat binnenkort :) in tegenstelling tot sommige andere chip-fabrikanten :/
opzich is het logisch dat nvidia wat terug pakt van AMD. Ze hebben immers eindelijk weer een redelijk goede generatie van GPU's qua gaming. AMD had ook een erg grote voorsprong op nvidia ik geloof zoiets van dat de markt 60-40 in de voordeel van AMD was.

maar ja idd bij amd loopt het niet echt geweldig afgaande van want semiaccurate ons verteld.

Acties:
  • 0 Henk 'm!

  • whersmy
  • Registratie: Mei 2009
  • Laatst online: 25-01 10:32
Weet iemand of dit juist is?

Ik wil naast mijn sli 580 een extra 590 prikken op een Asus P8Z68-V PRO Gen3 pricewatch: Asus P8Z68-V PRO Gen3 met een CM Real Power Pro 1250W (http://www.coolermaster.com/product.php?product_id=3143).

Deze voeding heeft echter een 8-pins connector tekort (ik heb er 4 nodig), dus dat ik dan een 6 pin naar 8 pin adapter gebruik, die de CM RP 1250W over heeft (de voeding heeft er 6).

Qua stroom verbruik zal de 1250W het wel trekken. (http://nl.hardware.info/r...sli-review-stroomverbruik)

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

whersmy schreef op zondag 11 november 2012 @ 14:19:
Weet iemand of dit juist is?

Ik wil naast mijn sli 580 een extra 590 prikken op een Asus P8Z68-V PRO Gen3 pricewatch: Asus P8Z68-V PRO Gen3 met een CM Real Power Pro 1250W (http://www.coolermaster.com/product.php?product_id=3143).

Deze voeding heeft echter een 8-pins connector tekort (ik heb er 4 nodig), dus dat ik dan een 6 pin naar 8 pin adapter gebruik, die de CM RP 1250W over heeft (de voeding heeft er 6).

Qua stroom verbruik zal de 1250W het wel trekken. (http://nl.hardware.info/r...sli-review-stroomverbruik)
Let je wel op dat de zwarte PCI-e lane de bandbreedte deelt met de PCI-e x1 kanalen en met de USB3 en eSATA poorten? Zodoende zal die zwarte x16 maar maximaal op PCI-e 2.0 x4 draaien en als hij de bandbreedte nog moet delen zelfs maar op x1. Daar zul je met zo'n setup flink verlies gaan lijden en dan zit je over een week of twee in een nieuw "Help! Videokaarten presteren niet genoeg!"-topique.

Acties:
  • 0 Henk 'm!

  • whersmy
  • Registratie: Mei 2009
  • Laatst online: 25-01 10:32
Aha, dus eigenlijk is dit moederbord al niet "helemaal" geschikt voor zo`n setup? Dat is balen, want ik wil wel alle rekenkracht benutten van de extra 590. Met de eSATA poort doe ik niks, alleen de USB3.0 wel.

Het systeem is niet voor games, maar 3D-rendering.

[ Voor 11% gewijzigd door whersmy op 11-11-2012 15:08 ]


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Beter 1 580 wegdoen en 590+580 gaan draaien op je huidige bord.
Overstappen naar SLI 680 is geen optie? Bereik je met 2 kaarten meer mee dan met 3x fermi.

Acties:
  • 0 Henk 'm!

  • whersmy
  • Registratie: Mei 2009
  • Laatst online: 25-01 10:32
Octane is voorlopig nog het beste draaiende op de fermi-series, vandaar.
Het schaalt ook precies mee, 2x 580 + 2 extra 580 is 2x zo snel.

Ik kan 2x 580 nog redelijk goedkoop verkrijgen. Maar de Coolermaster RealPower 1250W http://www.coolermaster.com/product.php?product_id=3143 mist dan een extra 8-pin. Hij heeft 3x 8-pin, en 6x 6-pin. Kan ik die met een adapter dan omzetten? Zo`n adapter heb ik namelijk wel. Ik heb in totaal 4x 8-pin, en 4x 6-pin nodig voor quad 580s.

http://nl.hardware.info/r...sli-review-stroomverbruik, hier staat dat quad 580 max 1080W zou verbruiken in Heaven 2.0. Dan lijkt 1250W me wel voldoende?

[ Voor 20% gewijzigd door whersmy op 11-11-2012 18:48 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Help!!!! schreef op vrijdag 09 november 2012 @ 18:05:
[...]

Mmm. Eerst ook maar eens zien wanneer Tegra4 komt en in hoe dit kan concurreren met bijv. de qualcomm quadcores.
Wel bijzonder: Tegra 3 en Qualcomm's S4 werden min of meer tegelijk geintroduceerd, nu pas komen de high-end S4 toestellen (optimus G, Nexus 4, etc.) op de markt. Inderdaad, Tegra chipsets zijn per generatie nooit echt de snelste, maar ze zijn tot nu toe altijd het eerste op de markt en in de producten. En daarna worden ze goedkoper.
Als nVidia het volhoudt, zal Tegra 4 wat sneller zijn dan de S4's maar weer verslagen worden door de quadcores die daarna uitkomen. nVidia wint allerlei designs omdat ze eerste zijn en "The cycle continues"

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
XanderDrake schreef op maandag 12 november 2012 @ 12:38:
[...]

Wel bijzonder: Tegra 3 en Qualcomm's S4 werden min of meer tegelijk geintroduceerd, nu pas komen de high-end S4 toestellen (optimus G, Nexus 4, etc.) op de markt. Inderdaad, Tegra chipsets zijn per generatie nooit echt de snelste, maar ze zijn tot nu toe altijd het eerste op de markt en in de producten. En daarna worden ze goedkoper.
Als nVidia het volhoudt, zal Tegra 4 wat sneller zijn dan de S4's maar weer verslagen worden door de quadcores die daarna uitkomen. nVidia wint allerlei designs omdat ze eerste zijn en "The cycle continues"
Nee, Tegra 3 kwam tegelijk met S4 Play & Plus - van Pro (de quadcore die jij nu "high-end" noemt) was altijd al bekend dat die pas in Q3/2012 beschikbaar zou komen als sample, laat staan gereed voor productie. Nvidia won wat contracten omdat ze de eerste degelijke quad core in de markt hebben gezet. Je ziet nu geen Tegra meer verschijnen, of wel? ;)

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Dikke verbeteringen met de nieuwe drivers, tot wel 20%!

http://www.geforce.com/wh...-54-beta-drivers-released

Voor de GTX680;
Results & Benchmark Settings:


•Aliens vs. Predator: Performance increased by 3.4% at 1920x1080 when using max settings, tessellation, and Advanced Shadows.
•Assassin’s Creed III (Pre-Release Build): Performance increased by 17.8% at 1920x1080 when using max settings and Normal Anti-Aliasing, by 7.1% at 2560x1600 using the same settings, and by 9.8% at 1920x1080 when using max settings and Very High Anti-Aliasing.
•Batman: Arkham City: Performance increased by 7.6% at 1920x1080 when using Very High detail settings, Tessellation High, PhysX High and FXAA High. At 2560x1600, using 4xMSAA, performance increased by 5.2%.
•Battlefield 3: Performance increased by 13% at 1920x1080 when using Ultra settings in a single-player Paris benchmark; at 2560x1600 an improvement of 7.9% was recorded. Using High settings, an improvement of 15.3% was registered at 1920x1080.
•Borderlands 2: Performance increased by 5.3% at 2560x1600 when using max settings and PhysX High. At 1920x1080 performance increased by 3.3%.
•Call of Duty: Black Ops II: Performance increased by 26% at 1920x1080 when using max settings and 8xMSAA. At 2560x1600 performance increased by 24.1%.
•Civilization V: Performance increased by 23.7% at 2560x1600 in a late-game benchmark using max DirectX 11 settings.
•DiRT 3: Performance increased by 4.3% at 1920x1080 when using Ultra DirectX 11 settings and 8xMSAA.
•Dragon Age 2: Performance increased by 8.5% at 2560x1600 when using max settings.
•Hard Reset: Performance increased by 3.6% at 1920x1080 when using Ultra settings and FXAA.
•Just Cause 2: Performance increased by 3.2% at 1920x1080 when using max DirectX 10 settings and 8xMSAA.
•Medal of Honor: Warfighter: Performance increased by 5.7% at 1920x1080 when using High settings.
•Metro 2033: Performance increased by 4.6% at 1680x1050 when using max DirectX 11 settings, Depth of Field, and Advanced PhysX.
•S.T.A.L.K.E.R.: Call of Pripyat: Performance increased by 4.7% at 2560x1600 when using Extreme settings. At 1920x1080 performance increased by 4.2%.
•Shogun 2: Total War: Performance increased by 3.5% at 2560x1600 when using max DirectX 11 settings, and by 3.3% at 1920x1080.
•Sniper Elite V2: Performance increased by 3.5% at 2560x1600 when using max settings, AA High, and 2.5x Supersampling. Without Supersampling, performance increased by 3.8%.
•StarCraft II: Performance increased by 6.2% at 1920x1080 when using Ultra settings.
•The Chronicles of Riddick: Assault on Dark Athena: Performance increased by 18% at 2560x1600 when using max settings.
•The Elder Scrolls V: Skyrim: Performance increased by 5% at 2560x1600 when using Ultra settings in an indoor scenario, and by 4.7% at 1920x1080.
•The Witcher 2: Assassins of Kings: Performance increased by 3% at 1680x1050 when using max settings and anti-aliasing. At 1920x1080 performance increased by 2.8%.
•Unigine Heaven 3.0: Performance increased by 3% at 1920x1080 when using max DirectX 11 settings and Extreme Tessellation. At lower settings and resolutions performance increased by up to 4%.

Voor de GTX660;
Results & Benchmark Settings:


•Assassin’s Creed III (Pre-Release Build): Performance increased by 5% at 1920x1080 when using max settings and Normal Anti-Aliasing.
•Batman: Arkham City: Performance increased by 3.9% at 1920x1080 when using Very High detail settings, Tessellation High, and 4xMSAA.
•Battlefield 3: Performance increased by 9.8% at 1920x1080 when using High settings in a single-player Paris benchmark; at 1680x1050 an improvement of 10.3% was recorded. Using Ultra settings, improvements of 8.1% and 7.7% were recorded at 1680x1050 and 1920x1080, respectively.
•Call of Duty: Black Ops II: Performance increased by 23.8% at 1920x1080 when using max settings and 8xMSAA. At 2560x1600 performance increased by 23.3%.
•DiRT 3: Performance increased by 3% at 1920x1080 when using Ultra DirectX 11 settings.
•Dragon Age 2: Performance increased by 4.7% at 1920x1080 when using max settings and 8xMSAA.
•Hard Reset: Performance increased by 4.5% at 1920x1080 when using Ultra settings.
•Medal of Honor: Warfighter: Performance increased by 4.3% at 1920x1080 when using High settings.
•The Chronicles of Riddick: Assault on Dark Athena: Performance increased by 8.7% at 2560x1600 when using max settings.
•The Elder Scrolls V: Skyrim: Performance increased by 7.4% at 1920x1080 when using High settings in an outdoor scenario; at 2560x1600 an improvement of 7.3% was recorded. Using Ultra settings, improvements of 4.8% and 4.5% were recorded at 1920x1080 and 2560x1600, respectively.

[ Voor 19% gewijzigd door t!n0 op 15-11-2012 11:23 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

^ toch bijzonder dat ze verbeteringen voor elkaar krijgen in games zoals Battlefield 3, die al een jaar uit zijn!
Daarom ben ik altijd wat skeptisch als het op driver verbeteringen aankomt, testen mensen deze claims?

[ Voor 10% gewijzigd door XanderDrake op 15-11-2012 13:31 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

In Ander Nieuws
nVidia Maxwell is verlaat tot 2014 door verlate overstap van TSMC naar 20nm

Afbeeldingslocatie: http://wccftech.com/wp-content/uploads/2012/11/NVIDIA-2014-635x357.jpg

Deze gelekte slide laat zien dat nVidia zijn volgende nieuwe architectuur verlaat tot 2014. Dit heeft te maken met de vertraging van TSMC's introductie van 20nm lithography. Dat laatste heeft natuurlijk zijn bron in de (bijna) jarenlange moeilijkheden die TSMC heeft mbt zijn huidige 28nm procede, ik kan me voorstellen dat het bedrijf het safe wil spelen met komende overstappen.

Ik denk niet dat dit een probleem levert voor nVidia: Zowel nVidia als AMD als alle andere ARM chipset producenten (behalve Samsung maar die is vaak iets langzamer) zal last hebben hier van dus is er geen concurrentie "edge". Daarnaast denk ik dat de rek er nog niet uit is bij Kepler. Meer shaders, optimalisaties en hogere clocks zouden volgens mij geen problemen hoeven te zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Majin Buu
  • Registratie: April 2005
  • Niet online
Nieuwe beta-driver:

310.61

Ik ga deze eens aan de tand voelen :9

R7 9700X / GB B650 Gaming X AX / RTX 5070 Gaming OC


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
tomcatha schreef op zaterdag 10 november 2012 @ 22:02:
[...]


opzich is het logisch dat nvidia wat terug pakt van AMD. Ze hebben immers eindelijk weer een redelijk goede generatie van GPU's qua gaming. AMD had ook een erg grote voorsprong op nvidia ik geloof zoiets van dat de markt 60-40 in de voordeel van AMD was.

maar ja idd bij amd loopt het niet echt geweldig afgaande van want semiaccurate ons verteld.
De kaarten presteerden grotendeels gelijk tussen Nvidia en ATI alleen waren de Nvidia kaarten iets duurder. Maar de 5xx serie was toch wel zeer populair.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Wow er gebeurt hier echt niets meer.
Even wat leven in debrouwerij!

Nieuwe drivers, 310.70. Wie heeft ze al geprobeert? nVidia meldt mega verbeteringen in spellen zoals FarCry 3:
Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2012/December/General_News/driver_farcry_1.jpg

Als ik dit zie ben ik altijd huiverachtig, kan dit echt? Misschien ga ik het zelf eens testen: ik zit nu nog op de oude drivers. Moet er eerst nog een goede deal van FarCry 3 langs komen!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Ik speel ermee en merk wel degelijk verschil. Vooral in Far Cry 3, andere games niet echt aangezien het al perfect draaide, maar de extra performance voor Far Cry 3 is zeker te merken.
Ik speel op 1920x1080p met alles op ultra en 8x MSAA en SSAO, adaptive vsync om de tearing tegen te gaan en draai constant 60fps met een GTX680 op 1411mhz GPU clock.
Voor deze driver draaide het voor mijn gevoel net wat minder, vooral bij explosies etc.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
dat is wel indrukkwekkend

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DirectX 11.1 verhaal en nVidia's compatibility met 11.1:

http://www.behardware.com...0s-nor-for-windows-7.html


En een interessant follow up artikel over "inside the second FPS testing":
http://techreport.com/blo...-our-game-testing-methods

+
http://forum.beyond3d.com/showthread.php?p=1689708

+
http://alienbabeltech.com/main/?p=33060&all=1

[ Voor 47% gewijzigd door Help!!!! op 03-01-2013 11:12 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Om dit topic toch levendig te houden (brr eerste keer dat ik reageer in forum na verandering .. khoop dat ik ooit de oude tweakers layout kan terug krijgen XD, tis en blijft gruwelijk lelijk oa, geef "toon voorbeeld toch minstens ook een kleurtje .. )

Op CES gaat nVidia hun nieuwe tegra4 voor stellen aan de pers (wss pas tegen de zomer daadwerkelijk in de eerste tablets/smartphones)
Velen verwachten blijkbaar dat nVidia het samsung voorbeeld gaat opvolgen en met een A15 dualcore zal afkomen om azo zuiniger te zijn. Ikzelf verwacht in aloude nVidia traditie een zware 4-core met natuurlijk een hoger verbruikcijfer XD. Het enige wat me echter verbaasd is dat nVidia niet , zoals snapdragon, met 2 varianten gaat afkomen, een 2 en 4-core bijvoorbeeld.
Het enige wat ik mij als logica kan inbeelden is dat nVidia maar 1 platform optimaal wil ondersteunen en niet met meerdere varianten wil opgescheept worden die verschillen qua performantie.

Wat echter belangrijker is (zeker voor dit topic) is dat men in de nieuwe soc de eerste Geforce GPU verwacht volledig opgebouwd vanuit de kepler architectuur, maw nu zouden we de kracht van nVidia als GPU fabrikant eindelijk moeten kunnen zien in hun ARM socket (hun troefkaart op de ARM markt want anders zijn ze maar een kleine speler tegenover samsung en apple)

"écht" Gpu nieuws nu:

NVIDIA’s Annual GPU Rebadge Begins: GeForce GT 730M and GeForce 710M Partial Specs Published

Blijkbaar gaan we in OEM's weer 2 kaarten van de vorige generatie gaan terugvinden ..
Bij al de low end mobiele gpu's moet ik precies constant zeggen, is de vorige generatie x kaart die op z'n beurt al vorige gernatie x kaart was ... :-(
(Ze zijn wel zo eerlijk om altijd een performantie cijfer naar beneden te gaan, in dit geval 640 ->730 en 620 -> 710)
Al bij al stijgt de performantie wel, maar zeker niet gigantisch.

Daar ook bij hun concurent de performance/watt bij hun nieuwe mobile kaarten amper omhoog gaat gaan (voor zover de geruchten) vrees ik dat nVidia ze ook niet echt een boost moeten verwachten op mobiel vlak, blijkbaar een kleine 10%. Natuurlijk blijft men op hetzelfde productieprocédé zitten + zelfde architectuur enkel hier en daar een paar optimalisties is precies het enige dat we bij de nieuwe generatie mogen verwachten vrees ik (hopelijk wel price drops .. de goede ouwe tijd dat je voor 100 euro een 8800GT kon kopen mag gerust terugkomen >:) )

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
lightdestroyer schreef op woensdag 09 januari 2013 @ 09:49:
Op CES gaat nVidia hun nieuwe tegra4 voor stellen aan de pers (wss pas tegen de zomer daadwerkelijk in de eerste tablets/smartphones)
Velen verwachten blijkbaar dat nVidia het samsung voorbeeld gaat opvolgen en met een A15 dualcore zal afkomen om azo zuiniger te zijn. Ikzelf verwacht in aloude nVidia traditie een zware 4-core met natuurlijk een hoger verbruikcijfer XD. Het enige wat me echter verbaasd is dat nVidia niet , zoals snapdragon, met 2 varianten gaat afkomen, een 2 en 4-core bijvoorbeeld.
Het enige wat ik mij als logica kan inbeelden is dat nVidia maar 1 platform optimaal wil ondersteunen en niet met meerdere varianten wil opgescheept worden die verschillen qua performantie.

Wat echter belangrijker is (zeker voor dit topic) is dat men in de nieuwe soc de eerste Geforce GPU verwacht volledig opgebouwd vanuit de kepler architectuur, maw nu zouden we de kracht van nVidia als GPU fabrikant eindelijk moeten kunnen zien in hun ARM socket (hun troefkaart op de ARM markt want anders zijn ze maar een kleine speler tegenover samsung en apple)
Uhm, Tegra 4 is al voor gesteld aan de pers en het is wederom een 4+1 (quad core met een companion core). Alle 5 zijn het A15, geen Kepler aan de GPU kant en het ding krijgt deze keer een 4G modem ingebakken.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Tegra 4! Ik denk dat de concurrentie nu wel een hele kluif heeft aan deze chipset te toppen. Ik bedoel de Snapdragon S4 Pro begint nu pas echt goed beschikbaar en die Krait cores doen minder DMIPS dan Cortex A15. En sowieso is de GPU echt een monster. Volgens mij zitten we al richting GTX 610 performance, als het niet meer is. En 4G!

Alleen nu nog accuduur. Maar ik heb goede hoop, de One X+ had best aardige accu tijd, nVidia weet wat ze moeten doen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
De GPU een monster? Vergeleken met Qualcomm's Radeon Adreno (ik verwacht eigenlijk dat de 330 T4 voor blijft) misschien, maar Imagination Technologies' PowerVR is toch echt nog steeds de koning. En wat ze tot nu toe hebben laten zien van de 6 serie, ziet het er naar uit dat ze die trend gewoon voort zetten. Daarnaast gaan zij veel verder met ondersteuning van OpenGL en OpenCL dan de andere twee.

En nee, we zitten nog niet op "610" performance. Onthoudt even dat hoewel ze wel leuke resoluties en wat AA voor elkaar krijgen gebokst, je hier ook een hele hoop dingen niet hebt die wel verplicht zijn in D3D. Het ziet er allemaal geweldig uit en ik denk ook niet dat er nog veel meer nodig is, maar je mag deze GPUs ook niet zomaar gelijkstellen aan desktop GPUs. Feature levels zijn toch nog behoorlijk verschillend - immers, als dat niet zo was, dan zouden die mobiele chips inmiddels ook verkrijgbaar zijn op de desktop, toch? En dat is niet zo.

[ Voor 3% gewijzigd door Werelds op 09-01-2013 11:48 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Werelds schreef op woensdag 09 januari 2013 @ 10:15:
[...]

Uhm, Tegra 4 is al voor gesteld aan de pers en het is wederom een 4+1 (quad core met een companion core). Alle 5 zijn het A15, geen Kepler aan de GPU kant en het ding krijgt deze keer een 4G modem ingebakken.
Aww, geen kepler suckt wel, maw ze hebben hun woord niet gehouden :'( .
De GPU blijft precies hun zwakke broertje ook al zou je veronderstellen dat juist dat onderdeel hun sterkte zou moeten/kunnen zijn ... :-(
4G modem ingebakken: ik dacht dat ze twee versies gingen hebben ene met 4/3G enz. ingebakken en één zonder ..

Vandaag juist een interessant artikel tegengekomen (let op de "DX 11.1 ondersteuning van nVidia"). Blijkbaar supporten ze dus niet de hele feature set (die dan ook op de hardware van de HD5000 is gebaseerd).

DirectX 11.1: neither for the GeForce 600s nor for Windows 7?

Indien het niet kepler gebaseerd is hun GPU van de Tegra4, kvraag me dan af of ze op feature lvl 9_1 blijven steken (opnieuw) of eindelijk toch naar 9_3 gegaan zijn zoals hun concurrent(en).
Indien niet kan je eigenlijk beter geen tablet of smartphone met een Tegra4 kopen indien het een Windows OS draait. (Sowieso zal er geen WP8 op mogen komen indien ze nog steeds niet 9_3 gaan ondersteunen)

/me Gaat eens kijken of hij meer info over de Tegra4 kan opduiken

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Of het wel of geen Kepler is heeft weinig te maken met feature_lvl natuurlijk - het ding gaat wel "DX11" ondersteunen, OGL4 en PhysX (*proest*). Ze hebben zich niet uitgelaten over de architectuur, maar we kennen Nvidia; als ze daadwerkelijk Kepler mobiel hadden gemaakt, hadden ze hun presentatie met een stuk meer bombarie gedaan :)

Zoals het nu in de slides en het praatje overkwam is het nog steeds hetzelfde als T3, alleen dan opgeschaald en op het nieuwe procedé uiteraard.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Werelds schreef op woensdag 09 januari 2013 @ 12:48:
Of het wel of geen Kepler is heeft weinig te maken met feature_lvl natuurlijk - het ding gaat wel "DX11" ondersteunen, OGL4 en PhysX (*proest*). Ze hebben zich niet uitgelaten over de architectuur, maar we kennen Nvidia; als ze daadwerkelijk Kepler mobiel hadden gemaakt, hadden ze hun presentatie met een stuk meer bombarie gedaan :)

Zoals het nu in de slides en het praatje overkwam is het nog steeds hetzelfde als T3, alleen dan opgeschaald en op het nieuwe procedé uiteraard.
DX 11 ondersteunen met als feature set 9_1 is totaal geen vooruitgang dan ondersteunt deTegra3 ook DX 11, hell zelf mijn oude fx5200 ondersteunt dan DX11(.1) wegens dat de Geforce FX serie de laagste feature set van DX11.1 ondersteunen :')
Maw als ze hun architectuur niet upgedate hebben maar enkel meer van hetzelfde toegevoegd hebben dan gaat hun feature lvl niet omhoog .. (geen idee van ik vind er momenteel maar weinig info over, wat zoals je al zei geen goed voorteken is nVidia kennende)

*Edit* Anandtech coverage gelezen (niet veel technische info :( ) .. kvraag me dus af shield moeten we dit onder consolegaming plaatsen of toch hier laten wegens een scherm XD (ps hier hebben ze me toch verrast. Eigenlijk heb je wel bij vele android games "had ik maar een paar knoppen ipv dat touch screen" maar of het echt gaat aanslaan .. no idea, de integratie naar desktop en tv toe is wel super (opnieuw als het aanslaat .. klinkt als yet another console in mijn ogen ..., eentje waar je wel minder afhankelijk bent van de verkoper daar het OS android is en niet 1of andere custom OS juist voor die ene console .. )

[ Voor 22% gewijzigd door lightdestroyer op 09-01-2013 15:00 ]

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Om hier maar even op verder te borduren: http://www.anandtech.com/...r-performance-than-ipad-4

Tegra 4 is dus echt gewoon Tegra 3 on steroids. Van A9 naar A15, companion core kan iets hoger en de GPU is wederom iets omhoog geschaald. Nog steeds geen programmeerbare shaders :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Werelds schreef op dinsdag 15 januari 2013 @ 09:14:
Tegra 4 is dus echt gewoon Tegra 3 on steroids. Van A9 naar A15, companion core kan iets hoger en de GPU is wederom iets omhoog geschaald. Nog steeds geen programmeerbare shaders :)
Euhm, met zulke generalisaties kan je van elke nieuwe processor zeggen dat het de vorige processor generatie is... op steroids :X

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Nee hoor, van Tegra 2 naar Tegra 3 waren er toch behoorlijke verschillen in de architectuur van de CPU. De GPU had ook toen echter geen architecturele veranderingen.

Het is natuurlijk normaal dat een ontwerp eerst evolueert, maar dit is inmiddels de derde generatie van dezelfde GPU. De configuratie is iets aangepast, maar tot nu ziet het er naar uit dat er qua architectuur wederom even veel verschil is als er tussen GF100/104 en GF110/114 is. Sterker nog, minder dan dat; Tegra 3 was een beetje de GF1x4 van Tegra 2, Tegra 4 lijkt eerder te zijn wat GF114 voor GF104 was.

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 25-06 17:23
Heb je enig idee hoe groot het verschil is tussen A9 en A15? Dat is een compleet andere CPU. Dus Tegra 3 is echt heel anders dan Tegra 4.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Excuseer, ik zei CPU waar ik SoC bedoelde. Tegra als SoC is amper veranderd; A15 is het werk van ARM, niet van Nvidia. Daarnaast had ik het vooral over de GPU, omdat dat het deel van Tegra is dat écht van Nvidia komt. En daar is echt geen donder veranderd, althans daar lijkt het nog niet op. Als dat ook daadwerkelijk zo is valt Nvidia wederom achter IT en ben ik heel benieuwd hoe Adreno 330 het gaat doen. De PowerVR6 serie zal nog steeds de koning zijn :)

[ Voor 35% gewijzigd door Werelds op 15-01-2013 13:41 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Kijk, je kan vanalles zeggen. Wat mij opvalt is dat de snellere varianten van de Tegra 3 nog steeds vrolijk mee komen en de One X(+) nog best competatief is. Als je die shaders keer 6 neemt, dan is dat een behoorlijke stap meer. We zullen zien.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Nou, goed, dan nemen we er eens even een benchmarkje bij.

Men neme Egypt, off-screen (zodat alles op 1080p draait ipv verschillen in native resolutie).

HD:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph6472/51761.png

Classic (stuk lichter zoals je ziet):
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph6472/51763.png

Men observeert:
- Tegra 3 is maar net zo snel als Adreno 225 en is verder compleet irrelevant tegenover Adreno 3/Mali 600/PowerVR5
- SGX554MP4 ligt maar liefst 50% voor op Mali T604 en Adreno 320; en dat is dus PowerVR 5, niet eens 6
- Egypt Classic, een test die niet op nieuwe features is gespitst en voor Tegra 2/3 de "standaard" was loopt alsnog stukken beter op alles behalve Adreno 225
- Egypt HD gebruikt duidelijk meer features van de nieuwere GPUs, features die dus waarschijnlijk niet in T4 gaan komen, zoals een USA

Nvidia belooft dat ze zich kunnen met de iPad 4 kunnen "meten". Dan rijzen bij mij meteen de volgende vragen:
- Is dat op gelijke resolutie, of op native resoluties?
- Is dat met gelijke features? (hier kan ik nu al "nee" op antwoorden, gezien de shaders)

Zes keer zoveel shaders betekent sowieso ook niet zes keer zo veel performance; en laat zelfs 554MP4 nou wel bijna zo ver voor liggen dat dat nodig is. PowerVR komt binnenkort echter met hun 6-serie, die waarschijnlijk de 5-serie in het stof laat happen. En Tegra 4 dan dus ook. Tegra is nooit het powerhouse geweest dat sommigen denken; er is concurrentie met Qualcomm, maar als je naar het geheel kijkt is het echt niet zo indrukwekkend. Het is voor de rest een aardige SoC, maar op geen enkel vlak komt het ook maar in de buurt van de top.

Het spijt me heel erg hoor, maar zowel Qualcomm als Nvidia kunnen IT nog steeds niet bijhouden en het lijkt er niet op dat Tegra 4 daar verandering in brengt. Ze claimen nu al maar "last-gen" performance. Ik hoop eigenlijk ook dat IT nu eindelijk eens wat meer design wins krijgt, want hun GPU is echt een briljant staaltje techniek. Als dat gebeurt zal Nvidia noodgedwongen ook iets aan hun GPU moeten gaan doen. Qualcomm is een ander verhaal omdat zij in tegenstelling tot Nvidia ook (deels) hun eigen CPUs ontwerpen en het geheel dus in-house houden en ook als dusdanig verkopen.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Benchmarks zijn leuk... Maar daadwerkelijk gamen is leuker. Nog meer dan bij PC games vind ik benchmarks op smartphones weinig zeggend. OK ze zeggen wat over de ruwe rekenkracht, maar zolang nVidia goed lobbied voor zijn eigen THD optimized titels EN de meeste high-end smartphone dev's rekening moeten houden met de SGX 545 en Mali 400, boeit het niet wat je theoretisch maximaal kan halen.

But don't take my word for it
Where the Tegra Zone version of the game has an advantage is in its visuals. The NVIDIA enhanced version uses higher resolution textures and features what appears to be CPU accelerated cloth physics in objects that simply don't exist in the iOS version. Some scenes also include other additional details (e.g. water on the floor) that aren't present in the iOS version. None of these additions fundamentally change the gameplay at all, but they do make for a better looking game.
In situations where a game is available in both the iOS app store as well as NVIDIA's Tegra Zone, NVIDIA generally delivers a comparable gaming experience to what you get on the iPad. In some cases you even get improved visual quality as well. The iPad's GPU performance advantage just isn't evident in those cases—likely because the bulk of iOS devices out there still use far weaker GPUs. That's effectively a software answer to a hardware challenge, but it's true.
Natuurlijk merk je wel dat de A5X GPU sneller is:
NVIDIA isn't completely vindicated however. In Apple's corner you have Infinity Blade 2 and the upcoming Infinity Blade Dungeons, both of which appear to offer a significant visual advantage over the best of the best that's available on Android today. There are obvious business complexities that are the cause of this today, but if you want to play those games you need to buy an iPad.
Maar dat neemt niet weg dat optimalisaties koning zijn in deze wereld. En nVidia weet precies hoe ze dat moeten doen.

[ Voor 68% gewijzigd door XanderDrake op 15-01-2013 15:19 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Milan93
  • Registratie: November 2009
  • Laatst online: 06-07 01:11
Hey jongens, probeer al een tijdje een gtx560 sc te verkopen van evga, wat voor prijs zou ik moeten hanteren? het gaat om een 5 maanden jonge kaart en er zit nog 19 maanden winkelgarantie op..

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Besef je wel wat je zegt Xander? Op deze manier worden mobiele games tegengehouden omdat Nvidia niet mee kan, maar wel een hoop marketing er tegenaan wil gooien. Sterker nog, heb je er al bij stil gestaan dat sommige van deze Tegra "optimised" games nog erger zijn dan PhysX op de PC en dat de games helemaal niet draaien op non-Tegra puur vanwege een software blokkade? Want men heeft al verschillende games gewoon gehackt en aangepast om die check te omzeilen en dan draait alles gewoon probleemloos. Zonder de hack mis je dan echter een hoop effecten die dus duidelijk zonder Nvidia's marketing bullshit kunnen. Ik ga het zelfs nog wat mooier voor je maken, want het blijkt dus dat een game als Dead Trigger na wat aanpassingen gewoon met alle toeters en bellen even lekker loopt op Adreno 225 als op Tegra 3, laat staan op Adreno 320, straks 330 of de PowerVR GPU's. Is ook logisch aangezien Tegra niets doet wat Adreno of PowerVR niet kunnen doen. Maar nee, omdat je niet voor dat merk bent gegaan moet je maar een gecastreerde versie nemen. Afgrijselijke praktijken die ze helaas mobiel ook toepassen :r

Nee, sorry, maar als Tegra 4 daadwerkelijk is wat het tot nu toe lijkt te zijn is dat alleen maar slecht voor de mobiele platforms. Zeker als Nvidia er nog meer zakken met geld tegenaan gaat gooien. Ik hoop van harte dat ik er helemaal naast zit en m'n keutel straks terug moet trekken, maar tot nu toe lijkt Tegra 4 niets meer te zijn dan T3 was voor T2 en dat betekent dat ze nog steeds niet de concurrentie hebben bijgebeend.

Disclaimer: ik heb gewoon een Nvidia videokaart, betekent niet dat ik ook blind alles van ze slik.

[ Voor 5% gewijzigd door Werelds op 15-01-2013 15:33 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Wat zorgt er dan voor dat ze die optimalisaties niet doorvoeren voor de Adreno en PowerVR's, als dat zo makkelijk is? Ik kan me niet voorstellen dat er echt sprake is van sabotage, want ipv de PC GPU wereld heeft nVidia lang geen duopolie in de Android wereld.

Aan het einde van de dag kan je zo idealistisch zijn als je wilt, maar ik wil gewoon gamen. THD games zien er geniaal uit, punt. En benchmarks kan je niet spelen, punt.

[ Voor 20% gewijzigd door XanderDrake op 15-01-2013 16:05 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Het zijn geen optimalisaties, dat is 't em nu juist. Het is pure marketing. Tegra heeft geen PhysX of iets dergelijks - sterker nog, zoals ik nu al meerdere malen heb aangegeven is Tegra 4 (en dit is bevestigd) nog steeds geen Unified Shader architectuur; met andere woorden, de shaders zijn niet programmeerbaar zoals we dat op de desktop al sinds G80/R600 wel hebben en dus zijn OpenCL, CUDA en dus ook PhysX allemaal niet mogelijk op Tegra. Ook delen van de OpenGL ES specs willen inmiddels graag unified shaders, wederom niet mogelijk op Tegra. En de concurrenten kunnen dat wel. Nvidia voldoet momenteel niet eens aan de OpenGL ES 3.0 spec, dus die "optimalisaties" bestaan er vooral uit dat de ontwikkelaars die features juist niet gebruiken.

Juist omdat ze niet alles kunnen wat de rest wel kan, gooien ze er net als met PhysX zakken geld tegenaan om hun product in de markt te zetten. Heel slim van ze, maar dat betekent niet dat het goed voor ons als tweakers en/of gamers is. Net zoals dat met PhysX niet het geval is.

Jij kunt je vanalles wel of niet voor (willen) stellen, maar het is gewoon een bewezen feit dat die "optimised" Tegra games probleemloos met alle toeters en bellen draaien zodra die software beperking er uit is gehackt. Voorbeeldje: before en after. Is dezelfde video, ik link alleen direct naar de twee relevante stukjes. Overigens ook frappant: kijk moeders, water en rook zonder PhysX - zelfs zonder unified shaders (op Tegra zou het zonder unified shaders zijn iig, dit is Adreno 320 dus die heeft ze wel) :r

Tegra is een hoop marketing bullshit, punt.
"THD" games kunnen net zo goed op andere mobiele GPUs, punt.

Ik snap dat jij ze mooi vindt en dat ben ik ook echt wel met je eens. Het is alleen onzin om te zeggen dat Nvidia voorop loopt, de snelste GPU heeft of dat Tegra iets kan dat de rest niet kan. Dat zijn allemaal leugens van de bovenste plank. Ik steek mijn mening over Tegra, PhysX en de bedrijfspraktijken van Nvidia ook niet onder banken of stoelen. Ik heb een grafhekel aan de splitsing die ze op deze manier in het leven roepen, want het zorgt er gewoon voor dat wij als tweakers/gamers niet altijd het beste voorgeschoteld krijgen en dat willen we eigenlijk wel allemaal, toch?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op dinsdag 15 januari 2013 @ 16:26:
... Ik steek mijn mening over Tegra, PhysX en de bedrijfspraktijken van Nvidia ook niet onder banken of stoelen. Ik heb een grafhekel aan de splitsing die ze op deze manier in het leven roepen, want het zorgt er gewoon voor dat wij als tweakers/gamers niet altijd het beste voorgeschoteld krijgen en dat willen we eigenlijk wel allemaal, toch?
QFT.


Ander onderwerp. Iets wat o.a. nVidia sponsort en wat me erg cool lijkt is the Oculus Rift:

http://techreport.com/new...-rift-is-freaking-amazing

Zou ik graag ook eens proberen om zelf te zien hoever ze zijn met dit soort technologie. :)

[ Voor 7% gewijzigd door Help!!!! op 15-01-2013 17:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 06-07 12:11

pino85

Im just a Bird in the Sky

Milan93 schreef op dinsdag 15 januari 2013 @ 15:25:
Hey jongens, probeer al een tijdje een gtx560 sc te verkopen van evga, wat voor prijs zou ik moeten hanteren? het gaat om een 5 maanden jonge kaart en er zit nog 19 maanden winkelgarantie op..
offtopic:
Dit is een nieuwsdiscussie topic niet een wat is mijn hardware waard topic maar ik zal je op weg helpen.
Er was een wat is mijn oude hardware topic in het verleden maar die is zo ver ik zie gesloten.
Er is wel een guide geschreven over wat je hardware waard kan zijn, ik denk dat je er dan wel uit komt en zo niet stuur me maar even een DM dan help ik je wel ;)

Howto: prijsbepaling (oude) hardware

[ Voor 9% gewijzigd door pino85 op 15-01-2013 17:56 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Milan93
  • Registratie: November 2009
  • Laatst online: 06-07 01:11
pino85 schreef op dinsdag 15 januari 2013 @ 17:54:
[...]


offtopic:
Dit is een nieuwsdiscussie topic niet een wat is mijn hardware waard topic maar ik zal je op weg helpen.
Er was een wat is mijn oude hardware topic in het verleden maar die is zo ver ik zie gesloten.
Er is wel een guide geschreven over wat je hardware waard kan zijn, ik denk dat je er dan wel uit komt en zo niet stuur me maar even een DM dan help ik je wel ;)

Howto: prijsbepaling (oude) hardware
Mijn excuses! Ik ga even op zoek naar die guide :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Help!!!! schreef op dinsdag 15 januari 2013 @ 17:40:
Ander onderwerp. Iets wat o.a. nVidia sponsort en wat me erg cool lijkt is the Oculus Rift:

http://techreport.com/new...-rift-is-freaking-amazing

Zou ik graag ook eens proberen om zelf te zien hoever ze zijn met dit soort technologie. :)
Naar het schijnt is dit ding dus echt akelig goed. Lees maar eens de hands-on reacties op the Verge, Engadget, Anandtech. Ik ben heel erg benieuwd in elk geval!

Overigens is de enige sponsoring hier het feit dat Nvidia de setup voor CES doneerde (en o.a. ook Intel bijvoorbeeld), want het is gewoon een zelfstandig bedrijf verder. Zit ook niet vast aan Nvidia of AMD voor de 3D mogelijkheden; wel zitten ze vast aan hun eigen middleware. Ontwikkelaars moeten expliciet support inbouwen en daar zie ik nog wel een probleem. TrackIR is net zo leuk, maar zij zitten met hetzelfde probleem :(

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Grote Kepler aka Titan doet het lekker in 3dMark als dit klopt:

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/811x455/2013/01/GeForce-Titan.jpg


http://www.pcgameshardwar...an-3D-Mark-Score-1046727/

en

http://diy.pconline.com.cn/317/3172950.html

[ Voor 32% gewijzigd door edward2 op 31-01-2013 19:52 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

vraag me af hoe dat kan als de clocks 732 mhz zijn
maja wie weet

[ Voor 15% gewijzigd door A87 op 31-01-2013 20:04 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Geloof er geen drol van, want die combined score slaat als een tang op een varken :)

Die hoort met deze resultaten eigenlijk net iets boven de graphics score te liggen.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Volgens geruchten komt Titan eind feb, 25-27 uit.
Verschillende hardware sites (PC Perspective and TechReport ) schijnen al samples te hebben.
Ook Unwinder van Rivatuner is er al druk mee aan de slag.

Enne euh,..

Afbeeldingslocatie: http://pics.computerbase.de/4/7/2/7/3/1.png

Doe mij er maar 2.

Btw, de eerder zgn. gelekte 7100-score was van een overgeklokte 690 :|

[ Voor 24% gewijzigd door edward2 op 07-02-2013 20:32 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

6gb !

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2013/02/GeForce-Titan.jpg

Zegt u het maar, ik heb als HD7970-gebruiker het PCB van de 680 niet zo goed in mijn hoofd ;)

http://wccftech.com/exclu...gk110-gpu-8-phase-supply/

[ Voor 4% gewijzigd door edward2 op 08-02-2013 20:25 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het komt van WCCFTech dus kan dus niet waar zijn eigenlijk, ze moeten hun reputatie immers ook hoog houden. :p

Maar het ding lijkt op een MSI Lighting kaart en niet op een nVidia standaard videokaart.

[ Voor 29% gewijzigd door -The_Mask- op 08-02-2013 22:21 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17:20

Tomas Hochstenbach

Redacteur componenten
Waarschijnlijk nep. De GPU ziet er uit als een Fermi en er horen meer dan een paar letters achter GK110 te staan (Fermi: GF110-375-A3, GK104: GK104-400-A2). En zelfs áls 'ie echt zou zijn, wat is dan eigenlijk de nieuwswaarde? Die hele foto is weggeblurd :P.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Kan inderdaad haast niet :)

Nvidia noemt hun chips altijd <codenaam>-<kwaliteit>-<spin>; hoe hoger het middelste nummer, hoe beter de chip: 670 was GK104-335-A2, 680 GK104-400-A2. Een 8800GT was G92-270-A2, 8800GTS-512 G92-400-A2 enzovoort. Spin nummer passen ze overigens regelmatig aan als een chip daadwerkelijk in productie gaat; Tomas z'n voorbeeld hierboven voor GF110 is namelijk magischerwijs op de markt gekomen als GF110-375-A1 :+

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Waarschijnlijk echte benchmarks van de Titan vrijgegeven.
50% sneller als een 680/7970 en 10% langzamer als een 690.
http://videocardz.com/394...real-performance-revealed

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17:20

Tomas Hochstenbach

Redacteur componenten
De één is afkomstig van OBR, de ander van Flyingsuicide. Van die site heb ik al eens gehoord, maar ze postten ook die fake-scores en een techschrijver die een beetje onderzoek doet post die benches niet. (ahum...) Bovendien kan iedereen zo'n Excel-grafiekje maken. Scores lijken me trouwens wel realistischer dan wat we eerder hebben gezien.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Werelds schreef op zaterdag 09 februari 2013 @ 11:27:
Nvidia noemt hun chips altijd <codenaam>-<kwaliteit>-<spin>; hoe hoger het middelste nummer, hoe beter de chip: 670 was GK104-335-A2, 680 GK104-400-A2. Een 8800GT was G92-270-A2, 8800GTS-512 G92-400-A2 enzovoort. Spin nummer passen ze overigens regelmatig aan als een chip daadwerkelijk in productie gaat; Tomas z'n voorbeeld hierboven voor GF110 is namelijk magischerwijs op de markt gekomen als GF110-375-A1 :+
Dank je voor deze post. Wist ik nog niet :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
You're welcome :+

Overigens is dat met Fermi ook nogmaals een bevestiging dat GF110 is wat ze voorheen de 'b' chip genoemd zouden hebben (G92b, GT200b). Het is een A3 spin van GF100, uiteindelijk op de markt als een A1 spin; dat zou kunnen betekenen dat het een nieuwe spin van A3 is (B1) maar hoeft niet, kan ook gewoon een rename van A3 -> A1 zijn zoals ik al zei :)

Ik ben dus heel benieuwd naar wat de consumenten versie van GK110 als nummer krijgt, want daar kun je toch wel het één en ander uit afleiden. Ik heb nog geen foto's gezien van de chip op K20, iemand anders wel?

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Meer nieuws over de Titan.
Dezelfde clockspeeds als de 690

http://videocardz.com/394...the-same-clock-as-gtx-690

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

'' bron : HARDWAREINFO'' :

De laatste tijd waren er veel geruchten over de Titan-videokaart van Nvidia die mogelijk als GTX 780 door het leven zou gaan. Deze grafische kaart is nu mogelijk opgedoken bij de Deense webshop Proshop met het modelnummer: GTXTITAN-6GD5. De sub-vendor van deze kaart zou in dit geval ASUS zijn.

Volgens de specificaties die de Deense webshop vermeldde, zou de Titan geleverd worden met 6 GB GDDR5-geheugen en beschikken over een PCI-Express 3.0 interface. De videokaart zou verder beschikken over twee keer DVI, een maal HDMI en een enkele Displayport-aansluiting. Verdere gegevens, zoals het aantal CUDA-cores ontbreken.

De Nvidia GTX Titan was op de Deense website te koop voor 7.276 kr, omgerekend ongeveer 900 euro. De productpagina is inmiddels offline gehaald en is via de webshop niet meer terug te zien. Opvallend is dat een voorraaddatum van 18 februari werd gegeven, dit zou suggeren dat een release niet ver weg kan zijn.

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Rond 18 feb gaan we eens flink pinnen:


http://www.brightsideofne...tx-6902c-amd-hd-7990.aspx

http://videocardz.com/395...released-on-february-18th

En, ...SSXAA (andere bron op b3d), een mix van SSAA en post AA?
SSAA en downsampling all the way voor dit beest, dus of ik het veel zal gebruiken ;)

[ Voor 41% gewijzigd door edward2 op 13-02-2013 21:17 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

900 euries, das een hoop geld.
Maar je loop je in iedergeval niet tegen je Vram limiet met bf3 op hoge reso's ;)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Ik hoopte eerst nog dat de prijs hier tussen de €700-800 zou liggen, maar als ik lees dat er maar 10.000(?!) wereldwijd geshipt worden, wordt het al een hele uitdaging er überhaupt eentje te bemachtigen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Ik zie het ook meer als een collectors item.

Hij is iets langzamer als een 690 met een voordeeltje van 2GB extra.
De prijs van een 690 zal waarschijnlijk terug zakken, al de titan gereleased is.

Die 2GB zouden me niet over de streep trekken om een duurdere, iets langzamere en waarschijnlijk moeilijk verkrijgbare kaart aan te schaffen. Wat eventueel een probleem kan worden bij een eventuele RMA.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 19:54
Een 690 heeft maar 2GB per GPU om aan te spreken, dus heeft de "Titan" effectief 4GB meer.

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Zover ik begrepen heb is de volle 4gb beschikbaar. Weliswaar 2gb per core, maar 4gb effectief.

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

aah oke, dus gewoon een marketing trucje. (4GB fisiek op 1 kaart aanwezig, maar effectief 2GB)
Of gewoon de specs verkeerd geven, zodat de consument het verkeerd denkt.

Bij een CPU staat toch ook niet omschreven : Quadcore cpu met 12Ghz (3Ghz per core) :)
hehe Wat op MP dus regelmatig langskomt.


Het staat zo zelf omschreven in Titan stukje hier op tweakers.

De huidige topkaarten van Nvidia, de GeForce GTX680 met aan boord de GK104, worden volgens Nvidia's referentieontwerp met 2GB videogeheugen geleverd. De GTX 690 met twee gpu's wordt uiteraard met tweemaal zo veel geheugen geleverd

  • catfish
  • Registratie: December 2000
  • Laatst online: 09-06 22:21
elke GPU heeft zijn eigen memorycontroller en eigen framebuffer
er zit dus wel 4GB geheugen op de kaart, maar elke GPU kan slechts 2GB aanspreken

bij CPU's is het trouwens identiek hoor, bijvoorbeeld een i7 3770K heeft in totaal 9,25MB cache geheugen:
level1: 4x32KB instructie cache, 4x32KB data cache
level2: 4x 256KB cache
level3: 1x8MB
de vier cores hebben dus elke hun eigen level 1 en level 2 cache, het level 3 cache (en het ram) delen ze

een dergelijke structuur is ingewikkelder, maar goedkoper om te maken (elke core 2MB level 3 cache geven zou lagere prestaties geven, elke core 4MB leavel 3 cache geven zou veel duurder zijn)
voor intel is dit interessant omdat ze het in alle cpu's zo kunnen gebruiken, voor Ati en nVidia is het enkel bruikbaar in hun topkaarten, dus niet interessant om te ontwikkelen

in werkelijkheid is het nog een stuk ingewikkelder aangezien een GPU al veel aan parallelisatie doet en er dus al een zeer ingewikkelde controller in zit

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

mukkel schreef op woensdag 13 februari 2013 @ 22:23:
Ik zie het ook meer als een collectors item.

Hij is iets langzamer als een 690 met een voordeeltje van 2GB extra.
De prijs van een 690 zal waarschijnlijk terug zakken, al de titan gereleased is.

Die 2GB zouden me niet over de streep trekken om een duurdere, iets langzamere en waarschijnlijk moeilijk verkrijgbare kaart aan te schaffen. Wat eventueel een probleem kan worden bij een eventuele RMA.
Het voordeel zit hem vooral in het feit dat dit een single GPU kaart wordt:

-Dicht bij de GTX 690 qua performance
- Geen kans op microstuttering
- Minder energieverbruik (waarschijnlijk)
- Je kunt 2 van deze beesten nog in SLi zetten :9~
- Meer Vram effectief bruikbaar. Handig voor hoge AA settings of texturepacks (Skyrim)
- Geen schalingsprobemen in de nieuwste spellen.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
catfish schreef op donderdag 14 februari 2013 @ 12:11:
elke GPU heeft zijn eigen memorycontroller en eigen framebuffer
er zit dus wel 4GB geheugen op de kaart, maar elke GPU kan slechts 2GB aanspreken
Het is zelfs nog veel erger, zo'n 80-90% van alle data is gewoon aanwezig in beide memory pools. Het enige verschil tussen de twee zit hem in het specifieke frame dat een GPU aan het renderen is, maar voor de rest wordt vrijwel alles gewoon in het geheugen van beide chips geknald.

Een dual GPU kaart is niets meer dan SLI/CFX op het PCB zelf - via een PCI-e bridge. Met andere woorden, al zouden ze het mogelijk maken om een GPU het geheugen van de ander aan te laten spreken, zit je alsnog met een bandbreedte probleem. CUDA 4.0 laat je wel het een en ander doen zonder een expliciete kopie te maken van de data in het andere geheugen, maar het is nog steeds traag.

Een van de vele redenen waarom SLI en CFX nooit écht boeiend zullen worden totdat ze van AFR af stappen en iets nieuws verzinnen. Momenteel gaat alles altijd via een PCI-e bus ergens en is communicatie tussen twee GPUs dus pokke traag.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Microstutter was door nVidia volgens mij al heel vakkundig aangepakt. Dus een goedkope GTX 670 of 680 in SLI vind ik toch iets effectiever. Maar ik zou dan wel gaan voor een PCI-E 3.0 mobo

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Minder last van microstuttering. ;)
- Je kunt 2 van deze beesten nog in SLi zetten :9~
Dat kan bij een GTX690 ook, alleen is dat de max.
- Meer Vram effectief bruikbaar. Handig voor hoge AA settings of texturepacks (Skyrim)
Geheugenbandbreedte is een groter voordeel, meer geheugen kan er zonder probleem op geplaatst worden, maar voor de performance zal dat weinig verschil maken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Hahahaha - zo had hij er ongeveer uitgezien als ze hem 15 jaar terug hadden uitgebracht ;)

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Maar op zich leuk kaartje. Heb nu een micro atx 1slots moederbord dus Crossfire.SLI kan niet.
Dan zijn dat soort kaarten wel leuk opeens, veel power in een kleine behuizing _/-\o_.

Alleen voorheen had je bijv een GTX590 voor pakweg 650 euro dat zijn leuke bedragen, het gaat nu echt te ver vind ik, beetje jammer geldt ook voor 7990 en GTX 690 €€€

[ Voor 86% gewijzigd door A87 op 14-02-2013 20:48 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • 02Sjoerd
  • Registratie: September 2011
  • Laatst online: 17:47
Is er een grote kans dat de 700 serie samen met de GK110 aangekondigd wordt? Of zal NVidia eerder hetzelfde doen als AMD en oude serie ook nog gebruiken voor 2013?

Zit namelijk te twijfelen of ik nog moet wachten met het kopen van een nieuwe pc.

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
02Sjoerd schreef op donderdag 14 februari 2013 @ 21:49:
Is er een grote kans dat de 700 serie samen met de GK110 aangekondigd wordt? Of zal NVidia eerder hetzelfde doen als AMD en oude serie ook nog gebruiken voor 2013?

Zit namelijk te twijfelen of ik nog moet wachten met het kopen van een nieuwe pc.
De GK110 Titan wordt 18 Februari geïntroduceerd.
De 700 serie duurt nog zeker 6 maanden.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Komt mij eigenlijk wel goed uit. Iets nieuws is altijd leuk maar ben nog meer dan tevreden met 670 SLI. Graphic power is ook nog ruim voldoende. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:19

XanderDrake

Build the future!

Als de 700 serie dit jaar nog komt heeft nVidia zeker zijn vertragingen in gehaalt. Ik hoop het!
Help!!!! schreef op vrijdag 15 februari 2013 @ 07:59:
Komt mij eigenlijk wel goed uit. Iets nieuws is altijd leuk maar ben nog meer dan tevreden met 670 SLI. Graphic power is ook nog ruim voldoende. :)
Ik heb nog genoeg aan een enkele GTX 670 :P FarCry 3 ook voluit op 1080p. Meer wil ik niet.

Maar als de nieuwe 700 serie uitkomt betekent dat prijsverlagingen voor de 600 serie. Dan kan ik ook tweede 670 oppikken voor een prikkie 8)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

-The_Mask- schreef op donderdag 14 februari 2013 @ 15:34:
[...]
Minder last van microstuttering. ;)
met 3 kaarten heb je het minste last

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Anoniem: 245699

-The_Mask- schreef op donderdag 14 februari 2013 @ 15:34:
Geheugenbandbreedte is een groter voordeel, meer geheugen kan er zonder probleem op geplaatst worden, maar voor de performance zal dat weinig verschil maken.
Dank dat ie dat bedoelde met 'effectief' bruikbaar...

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Was al een paar dagen bekend - zoals gewoonlijk hobbelt hwi weer achter de feiten aan ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
XanderDrake schreef op donderdag 14 februari 2013 @ 12:40:
Microstutter was door nVidia volgens mij al heel vakkundig aangepakt.
Verminderen kan altijd, maar met AFR komen ze er nooit vanaf, is technisch gezien gewoon niet mogelijk. Wat zorgwekkender is is inderdaad dat microstuttering zich in grotere mate voordoet met de huidige generatie single GPUs.

Overigens wederom een tabelletje gefabriceerd (heb hem hier nog niet langs zien komen):

Afbeeldingslocatie: http://s11.postimage.org/rmq8umpyb/nvidia_geforce_gtx_700.jpg

We zullen het binnenkort wel zien als alle geruchten kloppen, maar dit zijn wel veel realistischere waarden. 'Slechts' 40% sneller dan een 680; GK100 zou zo'n 20% sneller dan GK104 geweest zijn, dus een 20% verbetering is meer dan redelijk voor een refresh. Mocht AMD toch met een refresh komen is het niet erg lastig om dit bij te benen, maar om GK110 te verslaan zouden ze wel voor een grotere die moeten gaan. Niet zo groot als die debiele 550mmˆ2 ( 8)7 ) die hier genoteerd staat -wat overigens wederom wel realistisch en te verwachten is-, maar wel groter dan de huidige 389.

Acties:
  • 0 Henk 'm!

  • mukkel
  • Registratie: Februari 2010
  • Laatst online: 17-02-2024

mukkel

Dus..... Zodoende

Ook lekker, die 760TI
Langzamer als een 680 en een TPD van 250W
Zullen het weer zulke oventjes worden als de 500 serie?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Hecht niet te veel waarde aan de term TDP. Het is echt de meest afschuwelijke term gebruikt voor GPUs momenteel, omdat Nvidia en AMD hem allebei anders interpreteren. Sterker nog, Nvidia interpreteert hem nu anders dan anderhalf jaar geleden. Het "TDP" van een 680 in de zin van gemiddeld verbruik in games ligt eerder op 250W dan die belachelijke 195W die ze aangeven als specs.

Ik heb echt een ontzettende grafhekel aan die drie letters tegenwoordig, omdat iedereen het gebruikt ter vergelijking met andere kaarten terwijl er drie verschillende manieren zijn waarop het geinterpreteerd wordt.

En ja, ongeacht of die tabel wel of niet in de buurt van de werkelijkheid zit, GK110 zal zeker een oven worden. GK114 zal dat niet meer of minder zijn dan GK104.

[ Voor 16% gewijzigd door Werelds op 15-02-2013 14:54 ]

Pagina: 1 ... 5 ... 30 Laatste

Dit topic is gesloten.