[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 22 ... 30 Laatste
Acties:
  • 125.424 views

Acties:
  • 0 Henk 'm!

  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 18:05

thijsco19

KTM 990 SMT

Als ik hem bijv. vergelijk met de eerder genoemde r7 250, die heeft een tdp van 60~65 watt. Daar zijn er een aantal single slot low profile varianten van.
De gtx750ti heeft een tdp van 60 watt en gtx 750 een tdp van 55 watt. Dat is lager dan de r7 250 die dus wel een Lp variant heeft.
Helaas zijn er zelfs daar maar weinig van. Wat mij dus de indruk geeft dat die categorie echt stervende is

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

thijsco19 schreef op zondag 01 juni 2014 @ 18:28:
Ben bang dat ik dan toch de R7 250 moet nemen. Vind dit wel een gemist schot van nVidia.
Low profile én game waardig is altijd een schaarse combo geweest. Sinds de R600 en G80 zijn GPU's steeds zwaarder en complexer. Ik kan me destijds nog 8600GT's herinneren die low profile waren maar sindsdien kan ik me er geen meer herinneren.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 01:24
nvm, vorige pagina niet gelezen.

[ Voor 65% gewijzigd door mitsumark op 02-06-2014 09:52 ]


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
spNk schreef op zondag 01 juni 2014 @ 23:04:
Dat gaat hem inderdaad niet worden, ik kan mijn 7800GT en 9800 PRO met standaard single slot koeler nog goed herinneren, wat een pokke herrie maakten die. En die hadden een TDP van 65 en 45(?) Watt, en werden goed heet.
Mijn oude NVIDIA 7900gs was ook single slot en maakte helemaal niet veel herrie ;)
TDP van 82w, dus met een 6pin

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:39

Cheezus

Luiaard

Single slot lukt ook nog wel, low profile wordt alleen wel erg krap.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben benieuwt naar mid end, high end Maxwell gpu's, of deze nu weer met een kleinere geheugen bus komt of niet. Ik hoop kleiner zo dat er bespaart kan worden op verbruik en toch genoeg L2 cache om minstens 6gb goed aan te kunnen sturen zonder een bottelnek.

Misschien wel weer een nieuwe koel techniek/oplossing.

NVIDIA Maxwell GPUs Could Possibly Feature New Axial-Radial Hybrid Fan Solution

Read more: http://wccftech.com/nvidi...n-solution/#ixzz33V2rfU3i

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
!mark schreef op maandag 02 juni 2014 @ 12:18:
[...]

Mijn oude NVIDIA 7900gs was ook single slot en maakte helemaal niet veel herrie ;)
TDP van 82w, dus met een 6pin
Maar was dat een reference koeler of een 3rd party?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 02 juni 2014 @ 18:24:
Ik ben benieuwt naar mid end, high end Maxwell gpu's, of deze nu weer met een kleinere geheugen bus komt of niet. Ik hoop kleiner zo dat er bespaart kan worden op verbruik en toch genoeg L2 cache om minstens 6gb goed aan te kunnen sturen zonder een bottelnek.

Misschien wel weer een nieuwe koel techniek/oplossing.

NVIDIA Maxwell GPUs Could Possibly Feature New Axial-Radial Hybrid Fan Solution

Read more: http://wccftech.com/nvidi...n-solution/#ixzz33V2rfU3i
Ik vraag me af waar die cache eigenlijk voor gebruikt wordt. Het zal waarschijnlijk geen textures zijn, ik denk eerder een stukje shadercode dat veel wordt gebruikt ingame.
Weet hier te weinig van af :P.

Ik denk niet dat de midend 6gb gaat krijgen, ik gok eerder op 2gb of 4gb icm een 256bits bus. Highend zal wel beter hebben.

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
spNk schreef op maandag 02 juni 2014 @ 22:51:
[...]

Maar was dat een reference koeler of een 3rd party?
Referentie
Deze dus ;)
Afbeeldingslocatie: http://www.pluspc.ro/images/placa-video-second-nVidia_GeForce_7900GS_256MB_PCI-E_x16.jpg

[ Voor 13% gewijzigd door !mark op 02-06-2014 23:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op maandag 02 juni 2014 @ 23:30:
[...]


Ik vraag me af waar die cache eigenlijk voor gebruikt wordt. Het zal waarschijnlijk geen textures zijn, ik denk eerder een stukje shadercode dat veel wordt gebruikt ingame.
Weet hier te weinig van af :P.

Ik denk niet dat de midend 6gb gaat krijgen, ik gok eerder op 2gb of 4gb icm een 256bits bus. Highend zal wel beter hebben.
Op pagina 9 gaat het om het geheugen.
http://international.down...GTX-750-Ti-Whitepaper.pdf

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Verwijderd schreef op zondag 01 juni 2014 @ 15:21:
6 GB-editie van witte Galaxy GTX 780 'Hall of Fame' gelanceerd
http://nl.hardware.info/n...0-hall-of-fame-gelanceerd

Jammer dat er niet gelijk 6gb op de gtx780 werd gezet want het komt nu wel van pas. De ti zal vast ook nog wel volgen?
Een GTX 780 Ti is hoogst onwaarschijnlijk. EVGA is al teruggekrabbeld, ze hebben er eerst wel op gehint dat een 6GB 780 Ti zou komen maar lijken daar nu op terug te komen. Ook wel logisch, de Titan Black zou dan een stuk minder verkopen, die zou dan nog als enige voordeel hebben de betere compute performance.
De 6GB 780 is dus al wel gereleased, met die Galaxy HOF 6GB, de Asus Strix 6GB en de EVGA modellen.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ter info, ik vond nog een leuk nVidia tooltje: "Nvidia GPU Utilization"

"C:\Program Files\NVIDIA Corporation\Control Panel Client\NvGpuUtilization.exe"

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Doet me gelijk denken aan NVIDIA system tools En GPU Utilization laat de gpu load zien van de kaarten, leuk ontdekt dat het ook gewoon via de drivers mee komt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Helaas van een alinea wordt ik niet wijzer ;).
Ik ga er van uit dat het enigzins hetzelfde dan werkt als bij een cpu.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Denk er wel aan dat "GPU Utilization" (of usage in GPU-Z) nooit 100% accuraat is. Je kunt 99% usage zien in twee games en toch hebben dat bij 1 van de 2 de GPU een stuk warmer wordt. Dat is omdat er dan daadwerkelijk meer shaders (en/of langer) aan het werk zijn. We werken nog steeds met kleine clustertjes en het is zeldzaam dat élk cluster ook volledig benut wordt ;)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
En is dat hoe furmark aan die idiote temperaturen kwam toen er nog geen artificiële limiters waren?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Dat is wel weer mooi te zien met AB je ziet dan kun je he verschil van verbruik zien en van het vermogen wat er verbruikt word. Vaak kijkt men alleen maar naar verbruik, die kan dan op 99 % staan maar het vermogen maar op 50%. Het vermogen heeft ook zijn nadelen op de powerlimit, bereik je de standaard 100% dan klokt de gpu terug omda tje dan op de max TDP zit.

Of bedoel ik nu heel wat anders?

[ Voor 9% gewijzigd door Verwijderd op 05-06-2014 12:36 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op donderdag 05 juni 2014 @ 12:34:
En is dat hoe furmark aan die idiote temperaturen kwam toen er nog geen artificiële limiters waren?
Min of meer wel ja.

Dat is ook waarom AMD van VLIW5 naar VLIW4 is gegaan binnen een jaar. De 5870 had namelijk 90% van de tijd 1 van de 5 ALU's in een SPU ongebruikt. Dan zag je wel 100% usage, omdat nagenoeg alle SPUs wel bezig waren, maar in de praktijk was dat eigenlijk met pijn en moeite 80%. Er zijn maar weinig toepassingen die die 5e ALU aan het werk kregen (minen wel :+), dus met andere woorden, de 5870 is eigenlijk 20% sneller dan we meestal zagen ;)
Verwijderd schreef op donderdag 05 juni 2014 @ 12:35:
Dat is wel weer mooi te zien met AB je ziet dan kun je he verschil van verbruik zien en van het vermogen wat er verbruikt word. Vaak kijkt men alleen maar naar verbruik, die kan dan op 99 % staan maar het vermogen maar op 50%. Het vermogen heeft ook zijn nadelen op de powerlimit, bereik je de standaard 100% dan klokt de gpu terug omda tje dan op de max TDP zit.

Of bedoel ik nu heel wat anders?
Nee, dat klopt; hoewel het verbruikte vermogen volgens mij ook niet 100% accuraat is. Ik betwijfel of dat ook daadwerkelijk is wat er door het slot en de stekkers getrokken wordt. Eigenlijk nooit echt naar gekeken :P

Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

Even een inbreng in de catagorie "derp", ter afleiding van al dit AMD v.s. NVIDIA geneuzel.

Bij het ontstoffen van mijn gamebak viel mij een kleine opdruk op naast het PCI-E slot waar al jarenlang getrouw mijn videokaart in zit te snorren:

PCIE4X

Jullie raden het vast al; de afgelopen 4 jaar heeft mijn GTX460 doodleuk in een PCI-E 2.0 4X slotje gezeten - ik heb ook doodleuk mijn gloednieuwe GTX760 in hetzelfde PCI-E 2.0 4X slot gedrukt :P

Afbeeldingslocatie: http://i.imgur.com/Gjj9apJ.png

Opvallend is dat ik wel gewoon 110 FPS in The Witcher 2 trek, GPU-Z rapporteert ook vrolijk PCI-E 2.0 4X - het is dus echt een 4X slotje.

[ Voor 4% gewijzigd door Steef op 07-06-2014 18:15 ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Is ook voldoende voor een enkele GPU, 8x en 16x is vooral voor SLI van nut.

Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

Phuncz schreef op zaterdag 07 juni 2014 @ 18:12:
Is ook voldoende voor een enkele GPU, 8x en 16x is vooral voor SLI van nut.
En dat is maar goed ook, want mijn 16x PCI-E slotje zit verdacht dicht onder mijn Mugen :9

Afbeeldingslocatie: http://i.imgur.com/SzWeYLN.jpg

[ Voor 0% gewijzigd door Steef op 07-06-2014 18:21 . Reden: typo-kabouters ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Maar 4 lanes van een PCI-e 2.0 slot is wel degelijk een bottleneck. Daarnaast is er meer dan genoeg ruimte voor de videokaart als je de CPU fan op de juiste plaats zet, koelt die de CPU ook nog eens beter, mag ook geen probleem zijn met je geheugen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

De "juiste" plek? Ik neem aan dat je aan de zijkant bedoelt. Misschien niet zichtbaar, boven de Mugen zit nog een casefan om warme lucht af te voeren.

Overigens is een plaatsing aan de zijkant wel degelijk een onmogelijkheid, hij zit daar met een goede reden :)

Heb je toevallig een resource voor die bottleneck opmerking? ten tijde van de GTX 480 is opgemerkt dat 4x 2.0 nog zat bleek te zijn voor een SLI opstelling:
http://www.hardocp.com/ar...width_perf_x16x16_vs_x4x4

Een recentere benchmark heb ik niet op kunnen duiken.

*edit*

iets recenter, toch een stevig verschil zodra je naar 4x dropt - al moet hierbij wel mee worden genomen dat het 4x slot in deze video op een andere controller zit.
YouTube: Final PCIe Bandwith Comparison Test - Real Word Performance Benchmarks Linus Tech Tips

ik ga gewoon wat benchmarks draaien, terug on-topic!

[ Voor 39% gewijzigd door Steef op 07-06-2014 18:52 ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ThaRabbit schreef op zaterdag 07 juni 2014 @ 18:30:
De "juiste" plek? Ik neem aan dat je aan de zijkant bedoelt. Misschien niet zichtbaar, boven de Mugen zit nog een casefan om warme lucht af te voeren.
Is idd niet zichtbaar, maar je blaast nu lucht door de zijkanten, terwijl het makkelijker van voor naar achter wil.
Overigens is een plaatsing aan de zijkant wel degelijk een onmogelijkheid, hij zit daar met een goede reden :)
En waarom dat dan? Geheugen lijkt niet hoog en de fan kan bij deze koeler een paar cm naar boven en naar onder verplaatst worden.
Heb je toevallig een resource voor die bottleneck opmerking?
Nee ik heb niks fatsoenlijks gezien waar ze PCI-e 2.0 x4 of PCI-e 3.0 x2 (zelfde bandbreedte) testen met minimale, gemiddelde framerate of frametimes en microstuttering. Sowieso beschikken maar een handjevol sites over die geschikte apparatuur en zover ik weet hebben ze het niet daarvoor gebruikt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
Is idd niet zichtbaar, maar je blaast nu lucht door de zijkanten, terwijl het makkelijker van voor naar achter wil.
Ik vraag me af of dat significant verschil maakt, allicht ook weer een keer testen. Het zou me verbazen als het meetbaar verschil oplevert.
-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
En waarom dat dan? Geheugen lijkt niet hoog en de fan kan bij deze koeler een paar cm naar boven en naar onder verplaatst worden.
Diepte zien in 2d plaatjes is lastig, het is dus slecht zichtbaar. Het geheugen staat gelijk aan de onderrand van de onderste 2 ribben van de Mugen. Zelfs als de fan boven het geheugen staat door hem ietwat te verschuiven kan de montage klem er alsnog niet langs. Bij de opbouw heb ik het destijds geprobeerd, vandaar :)

Misschien ooit een nieuwe mount maken om het alsnog mogelijk te maken - ik ben het namelijk wel met je eens dat het de luchtstroom alleen maar ten goede kan komen.
-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
Nee ik heb niks fatsoenlijks gezien waar ze PCI-e 2.0 x4 of PCI-e 3.0 x2 (zelfde bandbreedte) testen met minimale, gemiddelde framerate of frametimes en microstuttering. Sowieso beschikken maar een handjevol sites over die geschikte apparatuur en zover ik weet hebben ze het niet daarvoor gebruikt.
Laat ik je dan bij deze melden dat er geen significant prestatieverschil zit in dit hardwaregeval:

AMD Phenom II X4 955 BE @ Stock
MSI N760 TF 2GD5/OC

Benchmark: Unigine Valley 1.0 (gemiddeld over 3 runs, relatief korte benchmark)

PCI-E 2.0 @ 4x: 2697 (Max FPS: 111.9)

PCI-E 2.0 @ 16x: 2747 (Max FPS: 112.4)

Dat levert een 1.85% prestatiewinst op :*) Die wil ik ook nog wel toekennen aan de cold boot die tussendoor plaats heeft gevonden.

Ik heb de moeite genomen ook even rivatuner te gebruiken om te kijken hoe het gesteld was met de CPU load, die bleef netjes onder de 75% - er was dus geen sprake van een CPU bottleneck.

Voor een uitgebreidere analyse (spikes in frametimes, wat real-world performance in games met stevige textures) heb ik toch wat meer tijd nodig. Voorlopig is dit redelijk representabel lijkt me.

*edit*

bewijs van 16x voor de volledigheid:
Afbeeldingslocatie: http://i.imgur.com/5Z0hahZ.png

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
Valley en andere synthetische test schalen niet zo goed met extra PCIe bandbreedte

Hier een mooi overzichtje ;)
http://www.techpowerup.co...I-Express_Scaling/23.html

Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

!mark schreef op zaterdag 07 juni 2014 @ 20:16:
Valley en andere synthetische test schalen niet zo goed met extra PCIe bandbreedte

Hier een mooi overzichtje ;)
http://www.techpowerup.co...I-Express_Scaling/23.html
Prima linkje, thanks!

Ik kwam terug naar dit topic om wat real-world tests te melden.

Ik heb The Witcher 2 even op Ultra gezet en zie gemiddeld zo'n 5-10% meer performance. Met V-Sync aan zit hij wederom stabiel op 60 FPS maar dit terwijl de CPU load bijna 10 - 20% lager ligt. :? Ik heb meer topics gezien waar mensen vergelijkbare waarnemingen doen.

En dan te bedenken dat mijn GTX460 4 jaar in dat 4x slot heeft geleefd. Affijn, al met al weer een leuk avondje prutsen.

Iets meer ontopic: MSI GTX 760 bevalt echt prima. ik heb lang gewacht met het upgraden van mijn GTX 460 - het idee was eigenlijk om te wachten op de 860 / 870.

Toch zeer blij met de upgrade, dit moet het wel kunnen trekken tot zaken als hardware adaptive sync de standaard zijn.

[ Voor 21% gewijzigd door Steef op 07-06-2014 22:01 ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ThaRabbit schreef op zaterdag 07 juni 2014 @ 19:46:
[...]


Ik vraag me af of dat significant verschil maakt, allicht ook weer een keer testen. Het zou me verbazen als het meetbaar verschil oplevert.
Significant vast niet, klein verschil waarschijnlijk.
Diepte zien in 2d plaatjes is lastig, het is dus slecht zichtbaar. Het geheugen staat gelijk aan de onderrand van de onderste 2 ribben van de Mugen. Zelfs als de fan boven het geheugen staat door hem ietwat te verschuiven kan de montage klem er alsnog niet langs. Bij de opbouw heb ik het destijds geprobeerd, vandaar :)
Dan zitten daar best overdreven grote "koelribben" (sommigen zijn half plastic en koelen overigens echt niet).
Benchmark: Unigine Valley 1.0 (gemiddeld over 3 runs, relatief korte benchmark)

PCI-E 2.0 @ 4x: 2697 (Max FPS: 111.9)

PCI-E 2.0 @ 16x: 2747 (Max FPS: 112.4)
Max fps is niet interessant, dat is meer een CPU iets.
Ik heb de moeite genomen ook even rivatuner te gebruiken om te kijken hoe het gesteld was met de CPU load, die bleef netjes onder de 75% - er was dus geen sprake van een CPU bottleneck.
Weet je niet, kan ook zijn dat drie kernen vol worden belast, omdat die maar max drie nuttig kan gebruiken, dan heb je dus wel een CPU bottleneck.
Voor een uitgebreidere analyse (spikes in frametimes, wat real-world performance in games met stevige textures) heb ik toch wat meer tijd nodig. Voorlopig is dit redelijk representabel lijkt me.
Voor een uitgebreide analyse mag je je hele bankrekening leeg halen en dan mag er ook aardig wat opstaan, anders kun je die apparatuur niet betalen. :p
!mark schreef op zaterdag 07 juni 2014 @ 20:16:
Valley en andere synthetische test schalen niet zo goed met extra PCIe bandbreedte
Heeft niet met schalen nodig, er is gewoon minder communicatie nodig tussen de videokaart en de rest van het systeem. Er is dus weinig bandbreedte nodig en meer geeft dus weinig tot geen winst.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

-The_Mask- schreef op zaterdag 07 juni 2014 @ 22:43:Dan zitten daar best overdreven grote "koelribben" (sommigen zijn half plastic en koelen overigens echt niet).
Volledig metaal, ze zijn inderdaad redelijk aan de maat. C'est la vie.
Weet je niet, kan ook zijn dat drie kernen vol worden belast, omdat die maar max drie nuttig kan gebruiken, dan heb je dus wel een CPU bottleneck.
De waarde is geen overall gemiddelde, simpelweg een observatie van de load van de 4 individuele kernen, dat verstand had ik nog net wel paraat ;)

Voor de overbodige duidelijkheid: geen enkele individuele kern is boven de 75% load gekomen. Overigens is die waarde sinds de verkassing naar het PCI-E 16x slot alleen maar lager geworden - ook in real world belastingssituaties.
Voor een uitgebreide analyse mag je je hele bankrekening leeg halen en dan mag er ook aardig wat opstaan, anders kun je die apparatuur niet betalen. :p
Beuh, uitgebreid houdt voor mij op bij een aantal games door rennen + frame times + temp logs + clock logs. Het moet wel leuk blijven :9

[ Voor 11% gewijzigd door Steef op 07-06-2014 23:10 ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ThaRabbit schreef op zaterdag 07 juni 2014 @ 23:04:

De waarde is geen overall gemiddelde, simpelweg een observatie van de load van de 4 individuele kernen, dat verstand had ik nog net wel paraat ;)
Hoe weet je dat zo zeker? In taakbeheer of ander programma zul je het niet zien, threads verwisselen namelijk vaak van core. Dan lijkt het dus of er vier voor 75% belast worden, maar kan het gewoon zo zijn dat het drie op 100% zijn, taakbeheer laat je dat alleen niet zien, omdat het zo snel wisselt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

-The_Mask- schreef op zaterdag 07 juni 2014 @ 23:14:
[...]

Hoe weet je dat zo zeker? In taakbeheer of ander programma zul je het niet zien, threads verwisselen namelijk vaak van core. Dan lijkt het dus of er vier voor 75% belast worden, maar kan het gewoon zo zijn dat het drie op 100% zijn, taakbeheer laat je dat alleen niet zien, omdat het zo snel wisselt.
Taakbeheer? Wat is dit, tweakers voor 12 jarigen :*)

Rivatuner's Statistics Server kan actuele statistieken weergeven in een direct3d overlay en kan numerieke logs per core bijhouden - zowel van CPU als GPU. Dan zit je natuurlijk nog steeds vast aan je minimale pollrate van je monitor software, die weer niet te hoog mag zijn maar weer waardeloos is als hij te laag is.

Vanzelfsprekend komt de pollrate niet in de buurt van de snelheid waarmee threads van core wisselen. Affijn, zie voorgaande opmerkingen over leuk blijven :9

*edit*

we gaan overigens afschuwelijk offtopic

[ Voor 7% gewijzigd door Steef op 07-06-2014 23:27 . Reden: typo kabouters ]

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

ThaRabbit schreef op zaterdag 07 juni 2014 @ 18:20:
En dat is maar goed ook, want mijn 16x PCI-E slotje zit verdacht dicht onder mijn Mugen :9

[afbeelding]
Dat is dus echt de enige reden dat ik maar ook zo'n suf Corsair H110 ding heb gekocht in plaats van een mooie grote Thermalright CPU koeler : Die zou dan tegen mijn #1 videokaart aan leunen of zelfs in de weg zitten :/

Al die mobo bakkers moeten eens grote moederborden gaan maken!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

LOL nóg groter ? :O

Gewoon een beetje plannen en uitzoeken, dan heb je geen gigantische planken en cases nodig:

Afbeeldingslocatie: http://i.imgur.com/2gjHuKi.jpg

CPU en GPU draaien nu op waterkoeling, minder lawaai.
ThaRabbit schreef op zaterdag 07 juni 2014 @ 23:19:
Taakbeheer? Wat is dit, tweakers voor 12 jarigen :*)
The Mask legt het uit op een manier zodat iedereen het snapt en hij weet duidelijk niet hoe ver jouw kennis reikt. Je hoeft niet direct er vanuit te gaan dat je kennis "ontoereikend" ofzo is, maar je zei eerst (paraphrasing) "75% load over alle cores dus geen bottleneck", The Mask legt uit dat dat niet evident is en je replied dan "ja natuurlijk, weet ik ook wel". Iedereen is hier uiteindelijk om te leren, daar hoef je jezelf niet voor te verdedigen, we are all friends here :)

Acties:
  • 0 Henk 'm!

  • Steef
  • Registratie: November 2004
  • Laatst online: 06-09 10:11

Steef

GoT's Most Eaten

Phuncz schreef op zondag 08 juni 2014 @ 09:07:
The Mask legt het uit op een manier zodat iedereen het snapt en hij weet duidelijk niet hoe ver jouw kennis reikt. Je hoeft niet direct er vanuit te gaan dat je kennis "ontoereikend" ofzo is, maar je zei eerst (paraphrasing) "75% load over alle cores dus geen bottleneck", The Mask legt uit dat dat niet evident is en je replied dan "ja natuurlijk, weet ik ook wel". Iedereen is hier uiteindelijk om te leren, daar hoef je jezelf niet voor te verdedigen, we are all friends here :)
Dat was mij duidelijk, ik deed nog een poging de tongue-in-cheek over te laten komen met een :*). Blijft natuurlijk lastig reacties op waarde te schatten.

Prima heen en weer discussie wat mij betreft :)

Mooie case, overigens. Zeer compact.

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400


Acties:
  • 0 Henk 'm!

Verwijderd

Titan Z sli review
http://nl.hardware.info/r...view-tones-tizair-systeem

Wat een tegenvaller, te langzaam te duur en ook nog eens nergens nuttig voor.

[ Voor 26% gewijzigd door Verwijderd op 08-06-2014 10:10 ]


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
nero355 schreef op zondag 08 juni 2014 @ 00:43:
Al die mobo bakkers moeten eens grote moederborden gaan maken!
Als ze gewoon het primaire x16 slot wat lager zouden plaatsen zou het ook geen probleem zijn :Y

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ergste nog is wanneer je weinig ruimte hebt en je laat een schroefje vallen.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Verwijderd schreef op zondag 08 juni 2014 @ 10:05:
Titan Z sli review
http://nl.hardware.info/r...view-tones-tizair-systeem

Wat een tegenvaller, te langzaam te duur en ook nog eens nergens nuttig voor.
Ik heb hem 2 dagen voor NDA afliep gebouwd en toen waren er nog geen drivers beschikbaar voor TitanZ. Dus ik kon zelf niets testen of optimaliseren. De drivers die gebruikt werden door HWI gaan dan sowieso nog geen week oud zijn. Daar gaat amper iets van optimalisatie inzitten, zeker voor de deze specifieke dual titanz situatie. Dus er is nog wel ruimte voor verbetering.

Wordt ook duidelijk en meermaals gemeld in de review dat de resultaten hier en daar niet helemaal consequent zijn en dit eventueel wel met drivers op te lossen is.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 23:06
Noel schreef op zondag 08 juni 2014 @ 13:39:
[...]


Ik heb hem 2 dagen voor NDA afliep gebouwd en toen waren er nog geen drivers beschikbaar voor TitanZ. Dus ik kon zelf niets testen of optimaliseren. De drivers die gebruikt werden door HWI gaan dan sowieso nog geen week oud zijn. Daar gaat amper iets van optimalisatie inzitten, zeker voor de deze specifieke dual titanz situatie. Dus er is nog wel ruimte voor verbetering.

Wordt ook duidelijk en meermaals gemeld in de review dat de resultaten hier en daar niet helemaal consequent zijn en dit eventueel wel met drivers op te lossen is.
Neemt niet weg dat het een vrij nutteloos product is, kijkend naar prijs/prestatie.

Acties:
  • 0 Henk 'm!

Verwijderd

Driver 337.91 (28 mei en Titan-Z only) is gebruikt bij de Titan-Z review. Misschien dat er nog wat te verbeteren valt op driver gebied want de drivers en kaart zijn nog maar pas uit, maar die prijs, pfff die gaat echt nergens over.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Tja, quad-SLI heeft nog nooit echt goed geschaald.
Dat is niets nieuws.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het lijkt me ook financieel beter om 3x GTX780's te gebruiken ipv. één of twee Titan Z's, financieel zit je er veel goedkoper mee uit en prestaties gaan beter zijn in of vergelijkbaar. Als je dit soort oplossingen koopt (6000€ voor twee) dan ga je dit niet op een mATX systeempje frotten, dan neem je sowieso een ATX mobo met een X99 chipset en dan is er plaats voor 3 of 4 kaarten.

Zelfs een enkele kaart lijkt zijn doel voorbijgestreeft te hebben als het voor gaming is, dan wacht je best op de GTX 790.

[ Voor 14% gewijzigd door Phuncz op 08-06-2014 16:26 ]


Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Grappen als de Titan Z hebben gewoon een hoog "kijk eens wat ik heb"/"kijk eens wat ik kan" gehalte, punt. Er is altijd al een top end reeks geweest die gewoon nergens op sloeg, en die bestaat enkel om stom mee te kunnen patsen, zowel voor Nvidia als de enkeling die het koopt.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Amanoo schreef op zondag 08 juni 2014 @ 17:08:
Grappen als de Titan Z hebben gewoon een hoog "kijk eens wat ik heb"/"kijk eens wat ik kan" gehalte, punt. Er is altijd al een top end reeks geweest die gewoon nergens op sloeg, en die bestaat enkel om stom mee te kunnen patsen, zowel voor Nvidia als de enkeling die het koopt.
True. Ik snap ook niet dat er dan nog steeds mensen zijn die afkomen met te duur, belachelijk, nutteloos, slechte prijs/prestatieverhouding, etc. Denk dat iedereen dat wel door heeft en dat het verder gewoon gimmicks zijn. Zo gaat het al jaren.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Phuncz schreef op zondag 08 juni 2014 @ 09:07:
LOL nóg groter ? :O

Gewoon een beetje plannen en uitzoeken, dan heb je geen gigantische planken en cases nodig:

[afbeelding]

CPU en GPU draaien nu op waterkoeling, minder lawaai.
Moet er niet aan denken :

- 1 videokaart :|
- Bijna geen plek voor storage :/

Hooguit leuk als LANbak :P
!mark schreef op zondag 08 juni 2014 @ 11:54:
Als ze gewoon het primaire x16 slot wat lager zouden plaatsen zou het ook geen probleem zijn :Y
Mijn eVGA 4-Way SLI had dat, maar die ging stuk dus kocht ik een AsRock Extreme11 vanwege 7x PCIe en 8x LSI SAS controller en die is gewoon kleiner helaas :)

Ideaal vind ik de eVGA SR-1 of SR-2 met wat meer ruimte tussen het laatste slot en de onboard USB en dergelijk eronder.

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Rebel8319
  • Registratie: Augustus 2008
  • Laatst online: 15-09 15:48
Wat is nu de beste upgrade om te doen , ik heb een Quad core Xeon die op 3,4ghz loopt met 12gb ram geheugen met een GTX 580 met 1,5gb geheugen.

Ik zou een upgrade willen doen qua GPHX kaart , ik zit nog te dubben om er een 2de 580 bij te prikken , maar ik lees ook dat ze dan Enorm veel vermogen en energie trekken samen.

Wat is een goede performance wise upgrade voor , de kaart zou ik evt ook wel 2dehands willen kopen , daar heb ik geen problemen mee,

https://www.instagram.com/indigobeatz_rebelchild/


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

ProCeela schreef op maandag 09 juni 2014 @ 08:28:
Wat is nu de beste upgrade om te doen , ik heb een Quad core Xeon die op 3,4ghz loopt met 12gb ram geheugen met een GTX 580 met 1,5gb geheugen.
Op zich is SLI leuk maar 1,5GB is niet meer van deze tijd. Je gaat beter voor een GTX 770 of 780 in mijn ogen.

GTX 590 vs GTX 780:
http://www.anandtech.com/bench/product/1185?vs=1036

GTX 590 vs GTX 780
http://www.anandtech.com/bench/product/1185?vs=1037

De GTX 590 is eigenlijk een dubbele GTX 580 op één kaart (lagere clocks) en hierdoor ook geen PCIe beperking ofzo. Dus een ruwe vergelijking wat je zou hebben met twee GTX 580's en één GTX 780 of één GTX 770.

Buiten wat uitzonderingen en Compute toepassingen, gaan de GTX 770 en de GTX 780 sneller, stiller en zuiniger zijn. Evenals ook meer (toekomstige) technieken ondersteunen.
nero355 schreef op zondag 08 juni 2014 @ 23:08:
Moet er niet aan denken :

- 1 videokaart :|
- Bijna geen plek voor storage :/
Al mijn storage zit in mijn NAS, 6x 2TB's. SSD'tje kan tegenwoordige op een latje dus eigenlijk zijn 2,5" bays zelfs al "wasted" :P
Meerdere GPU's heb ik eigenlijk nooit interesse in gehad, heb geen surround gaming en ik heb geen verplichting naar mezelf om het meest extreme qua settings te halen (16x MSAA of zo) dus ik kom met één kaartje toe :)

Maar ik zie de aantrekking wel hoor ! Maar ik hou meer van kleine PC's die efficient gebouwd zijn.

[ Voor 21% gewijzigd door Phuncz op 09-06-2014 08:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia is blijkbaar ook bezig om zijn technieken open te maken, zoals Physx over Directcompute.
https://developer.nvidia..../flex-unified-gpu-physics

Goed nieuws voor iedereen. Het is wel een oud artikel maar ja beter laat dan nooit.

[ Voor 13% gewijzigd door Verwijderd op 11-06-2014 15:11 ]


Acties:
  • 0 Henk 'm!

  • rodemannetje
  • Registratie: September 2002
  • Laatst online: 23:14
Even een vraagje tussendoor: zijn er goede kant en klare waterkoelingskits voor de titan die ook beetje betaalbaar zijn? Heb onlangs 2e hands titan gekocht (pracht ding). Op internet zie ik veel exotische kits of zelfbouw kits. Ik heb al een h100 cpu koeler.

i7 860 3.94ghz/mugen 2b/lancool k62/corsair hx650/vertex II/asus p7p55e pro/msi gtx570 oc/ OCZ3G1866LV6GK /xfi pro elite/Samsung 214t tft/3 hd's/plex dvd


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Anders ga je voor de Gigabyte laatste Windforce-koeler, die zou 600w af kunnen voeren volgens de verhalen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op woensdag 11 juni 2014 @ 15:10:
Nvidia is blijkbaar ook bezig om zijn technieken open te maken, zoals Physx over Directcompute.
https://developer.nvidia..../flex-unified-gpu-physics

Goed nieuws voor iedereen. Het is wel een oud artikel maar ja beter laat dan nooit.
Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"

Aangezien 3.4 nog niet eens is aangekondigd, laat staan dat er een developer iets mee doet - wellicht is mijn 2028 dan nog wat optimistisch ook :+

En dit is geen nieuws. Dit stamt al van vorig jaar.

[ Voor 18% gewijzigd door Werelds op 12-06-2014 00:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Maar voor de meeste tweakers is het wel nieuws, oo kal is het oud nieuws :+
Ik verwacht het ergens in 2015-1016 FLEX omdat Nvidia er toch wel druk mee bezig is, en waarschijnlijk in de aankomende Batman game.

Edit

Na wat verder zoeken maakt The Witcher 3 ook gebruik van FLEX Physx.
http://wccftech.com/nvidi...ysx-turbulence-particles/

En het komt in de Cry engine en in de UR4 engine.

Maak er maar op zijn laatst 2015 van.

[ Voor 42% gewijzigd door Verwijderd op 12-06-2014 09:56 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Zoals ik al aan gaf, is dat FLEX zoals dat aan TWIMTBP partners als toevoeging op 3.3 wordt aangeboden. Daar zit 0,0 spul in om het ook fatsoenlijk op non-Nvidia te laten draaien.

Enige positieve is dat het eindelijk PhysX 3.x is.

Acties:
  • 0 Henk 'm!

Verwijderd

Oké duidelijk.

Gerucht, de Nvidia 800 series komt later dit jaar, goedkoper en dan de vorige series (700) en op 20nm.

http://wccftech.com/nvidi...erful-cheaper-700-series/

Laat dit jaar, dus het zal wel volgend jaar worden op 20nm.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als de schrijver zelf ook maar een klein beetje verstand had dan wist die dat het natuurlijk nergens op slaat. Zelf nVidia weet de prijzen van hun toekomstige prijzen nog niet zo ver vooruit en dan zal één of andere hobby bob van een flut site het wel weten? Prijzen worden natuurlijk net voordat een product launcht bepaald en niet een half jaar van te voren.

[ Voor 16% gewijzigd door -The_Mask- op 13-06-2014 11:57 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Verwijderd schreef op vrijdag 13 juni 2014 @ 11:52:
Oké duidelijk.

Gerucht, de Nvidia 800 series komt later dit jaar, goedkoper en dan de vorige series (700) en op 20nm.

http://wccftech.com/nvidi...erful-cheaper-700-series/

Laat dit jaar, dus het zal wel volgend jaar worden op 20nm.
Hmm dus dit klinkt (goedkoper, kleiner procede) meer als een node-shrink van Kepler dan een nieuwe GPU van Maxwell. Of ze hebben Maxwell veel versimpeld zodat hij niet duur is geworden? Of de productie problemen van 20nm vallen erg mee en de prijs kan naar beneden?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op vrijdag 13 juni 2014 @ 11:57:
[...]

Hmm dus dit klinkt (goedkoper, kleiner procede) meer als een node-shrink van Kepler dan een nieuwe GPU van Maxwell. Of ze hebben Maxwell veel versimpeld zodat hij niet duur is geworden? Of de productie problemen van 20nm vallen erg mee en de prijs kan naar beneden?
Het zijn wel geruchten die moet je niet te serieus nemen maar het kan wel kloppen en is het dus nog afwachten. Die kerels van al die site's kunnen het niet zeker weten maar speculeren is wel leuk :+

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
-The_Mask- schreef op vrijdag 13 juni 2014 @ 11:55:
Als de schrijver zelf ook maar een klein beetje verstand had dan wist die dat het natuurlijk nergens op slaat. Zelf nVidia weet de prijzen van hun toekomstige prijzen nog niet zo ver vooruit en dan zal één of andere hobby bob van een flut site het wel weten? Prijzen worden natuurlijk net voordat een product launcht bepaald en niet een half jaar van te voren.
Hmm, persoonlijke aanval richting die schrijven lijkt me per definitie niet gepast.... Maar;
Now, take this with a pinch of salt. These guys have never failed us in the past so I owe it to them to not label it as a rumor.
Lijkt me duidelijk... (bold in de bron).

Verder is een voorspelling doen momenteel niet zo heel moeilijk. De GTX 750 Maxwell is momenteel een prijs/prestatie kanon (12% beter dan bijvoorbeeld een R7 260, 59% dan een GTX 650). De laatste architecturen van Nvidia bleken allemaal een succes. Tussen 2011 en 2011 ging de operationele winst van 200M naar 600M. Met fermi begonnen ze weer een beetje winst te draaien op de consumenten kaarten. Met Kepler zat er gewoon een lekkere marge op. We weten nu al hoe goed Maxwell is.

Wat dat betreft kun je wel veronderstellen dat Nvidia een prijs kan maken. Immers AMD verkoopt nog voor bodemprijzen. Die "stutten" momenteel de "Graphics" winst door de SoC oplossing erbij te plakken.

Vervolgens gebruiken ze dat weer als "excuus" voor een dalende marge:
Gross margin in 2013 was adverselyimpacted by the lower average gross margins in our Graphics and Visual Solutions segment primarily driven bylower margin semi-custom SOC products, which we began shipping in the second quarter of 2013
Dat samen met een dalende R&D uitgave in Graphics belooft niet veel goeds voor AMD. En dat is slecht nieuws, want Nvidia bepaalt de prijzen ahv wat AMD doet.

[ Voor 9% gewijzigd door sdk1985 op 13-06-2014 20:36 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17-09 07:38

Tomas Hochstenbach

Redacteur componenten
Het zou kunnen dat er dit jaar nog high-end 20nm-chips verschijnen, al verwacht ik dat niet en is het dan waarschijnlijk een paperlaunch. Het nieuwsbericht is in ieder geval gebaseerd op gebakken lucht, neem Wccf alsjeblieft niet te serieus.

Hun 'source' is Expreview, die zelf verwijzen naar een Koreaanse site met 'drama, movie and celebrity news'. Het 'gerucht' an sich kan iedereen trouwens zelf ook wel bedenken, het ligt nou eenmaal nogal voor de hand dat je bij een nieuwe generatie meer prestaties voor hetzelfde geld krijgt.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op vrijdag 13 juni 2014 @ 20:33:
[...]


Hmm, persoonlijke aanval richting die schrijven lijkt me per definitie niet gepast.... Maar;


[...]

Lijkt me duidelijk... (bold in de bron).
Het is gewoon dom om iets over prijzen te gaan schrijven, terwijl zelf nVidia nu niet met prijzen bezig is.
Verder is een voorspelling doen momenteel niet zo heel moeilijk. De GTX 750 Maxwell is momenteel een prijs/prestatie kanon (12% beter dan bijvoorbeeld een R7 260, 59% dan een GTX 650).
R7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.

De laatste architecturen van Nvidia bleken allemaal een succes. Tussen 2011 en 2011 ging de operationele winst van 200M naar 600M. Met fermi begonnen ze weer een beetje winst te draaien op de consumenten kaarten. Met Kepler zat er gewoon een lekkere marge op. We weten nu al hoe goed Maxwell is.
Wat dat betreft kun je wel veronderstellen dat Nvidia een prijs kan maken. Immers AMD verkoopt nog voor bodemprijzen. Die "stutten" momenteel de "Graphics" winst door de SoC oplossing erbij te plakken.
Volgens mij is de grafische divisie van AMD al jaren prima winstgevend in tegenstellingen tot de CPU divisie.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
quote: The_Mask
R7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.
Nope. Zie passmark:

GeForce GTX 750 3264
Radeon R7 260X 2994

Let op dat die GTX 750 niet eens een stroomaansluiting heeft. Iedereen met een beetje gevoel voor gpu historie herkent wat een prestatie die GTX 750 is op dat prijspunt. Stel je voor dat er een 200W kaart komt op die architectuur... Het geeft ook aan dat het ding veel sneller kan (kwestie van wat meer stroom geven).
Volgens mij is de grafische divisie van AMD al jaren prima winstgevend in tegenstellingen tot de CPU divisie.
Absoluut niet waar...

2011 werd er op 1565 miljoen omzet 51 miljoen OPERATIONELE winst gemaakt.

http://ir.amd.com/phoenix...4093&p=irol-reportsannual

Dus dat is min of meer product dumping. De jaren ervoor is het niet beter. AMD geeft zichzelf de schuld door productie tekorten. Ik geloof dat alle jaren sinds de Ati overname opgeteld nog niet de jaarwinst van Nvidia overtreffen... Ter vergelijking: Nvidia haalt netto regelmatig 300-600 miljoen per jaar binnen.

AMD heeft Ati voor 5 miljard overgenomen, totaal ongeveer 2 miljard moeten afschrijven. Vervolgens zijn ze tot op heden nog niet in staat geweest om een fatsoenlijke marge te behalen. Met Southern Island leek het even of AMD het licht had gezien (relatief duurder), maar dat heeft niet lang geduurd.

R&D gaat er ook elk jaar op achteruit lijkt het wel (begonnen ooit met 1800 miljard, nu <1400 en dan nog niet eens inflatie meegerekend).
Research and development expenses of $1.2 billion in 2013 decreased by $153 million, or 11%, compared
to $1.4 billion in 2012.
Zonder te investeren kun je haast niet met een superieur product komen. Financieel gezien zijn ze tot op heden dan ook succesvol geweest. Als het stof daalt en je op een "succes" als de 4870 reflecteert, dan kun je alleen concluderen dat die kaart te goedkoop is verkocht. AMD is helaas dus een beetje een zinkend schip.

Ik durf onderhand stellig te beweren dat "gamers" beter waren afgeweest als AMD Ati niet had overgenomen. Ati was immers een gezond bedrijf met premium kaarten. AMD heeft zich verslikt en uiteindelijk kan het haast niet anders dat AMD ook op gpu vlak gaat achter lopen. Nvidia researched immers lekker door, met een steeds groter budget, en met steeds meer winst.

[ Voor 37% gewijzigd door sdk1985 op 13-06-2014 23:29 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op vrijdag 13 juni 2014 @ 23:17:
[...]


Nope. Zie passmark:

GeForce GTX 750 3264
Radeon R7 260X 2994
Passmark. :')

Zullen we maar naar games gaan kijken, daar gaat het toch uiteindelijk om.
http://www.techpowerup.co...eForce_GTX_750_Ti/25.html
Absoluut niet waar...
Van MaximumPC:
On the flip side, AMD's Graphics and Visual Solutions division increased its revenue by 29 percent sequentially and a whopping 165 percent year-over-year.
Operating income for graphics came to $121 million in the fourth quarter of 2013.
http://www.maximumpc.com/...hat_graphics_division2014

[ Voor 6% gewijzigd door -The_Mask- op 13-06-2014 23:45 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Synthetic werkt tot op heden goed op een gpu. Hoe goed er in een specifieke game wordt gepresteerd is tegenwoordig een driver spelletje.

edit: Ik had het over de non-Ti, die is < €100. Maar op die link komt de 260X er niet best vanaf ;).
AMD's Graphics and Visual Solutions division increased its revenue by 29 percent sequentially and a whopping 165 percent year-over-year.
Zoals gezegd hebben ze Visual Solutions toegevoegd aan de gpu tak om zo de winst te boosten (daar komen nu de console royalties). Als je in de Annual Report van AMD kijkt dan zie je dat AMD zelf aangeeft dat de winststijging volledig wordt veroorzaakt door die toevoeging.

Dus bedankt, beide punten ondersteunen mijn post ;).

[ Voor 21% gewijzigd door sdk1985 op 14-06-2014 00:02 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
Neemt niet weg dat passmark meestal vrijwel betekenisloos is. En ja, de 750Ti is een gave kaart, verslaat mijn huidige gtx 470 met minder dan 1/3 van het verbruik, wel jammer dat ie niet standaard met displayport komt.

[ Voor 14% gewijzigd door haarbal op 14-06-2014 00:03 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Passmark voor cpu is onderhevig aan hyperthreading en multicores waar je in games vaak niks van merkt (immers er is altijd één heavy main thread). Dus daar werkt niet niet ja.

Bij een gpu praat je over rendering wat je in zoveel kleine stukjes kan opsplitsen als je zelf wil. Synthetic op GPU zijn IMO gewoon een prima maatstaf. Heet ook eigenlijk videobenchmarks.net maar het is eigendom van passmark :). Hoe goed die ruwe kracht zich in FPS vertaald zal per game verschillen, waarbij de ene game het op de ene driver beter doet dan de anderen. Tot op heden geen reden om aan te nemen dat passmark een bepaald merk voortrekt. Het is natuurlijk wel even afwachten wat er met NV gameworks + Ubisoft gebeurd en of Watchdogs nog bijtrekt.

*Had het overigens over de non-Ti, die heb je voor <€100), De Ti is natuurlijk ook leuk.*

[ Voor 35% gewijzigd door sdk1985 op 14-06-2014 00:04 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 13 juni 2014 @ 21:00:
[...]
Het is gewoon dom om iets over prijzen te gaan schrijven, terwijl zelf nVidia nu niet met prijzen bezig is.

[...]

R7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.
Ze hebben geen eens een prijs bekent gemaakt, enkel dat het mogelijk is dat deze serie goedkoper word dan de vorige serie en dat is gewoon mogelijk. Er staat verder duidelijk bij dat het met een korreltje zout genomen moet worden. Niet gelijk zo als een dolle tekeer gaan 8)7

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
sdk1985 schreef op vrijdag 13 juni 2014 @ 23:17:
GeForce GTX 750 3264
Radeon R7 260X 2994
De GTX780 is volgens Passmark 20% sneller dan een 290X, ik zou het als 780 eigenaar graag willen maar het is niet zo :)

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zelf kijk niet naar dat soort benchmarks maar wat er in game gebeurd en wat de kwaliteit is van een product. Nvidia is altijd iets duurder en na mijn weten gebruiken ze ook betere componenten waar door een kaart ook wat duurder word, zal het maar weer opzoeken voordat ik er gezeur over krijg.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nvidia gebruikt helemaal geen componenten, dat doen partners als MSI e.d..
Verder denk ik dat je niet op de hoogte bent van het 88xx series debacle.
Het enige dat Nvidia wel goed voor elkaar heeft zijn hun koel oplossingen.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben zeker wel op de hoogte van de 8800 serie maar waarom zou ik dat er bij moeten halen want dat is iets van een paar jaar terug en niet van nu, daar hebben ze bij Nvidia inmiddels vast wel van geleerd want de uitval van kaarten nu ligt iets van 2% lager dan bij AMD.

Bron.
http://www.pcworld.com/ar...ump-amd-video-cards-.html

Nvidia reference kaarten zijn naar mijn weten allemaal het zelfde en daar worden iets betere componenten voor gebruikt (verklaart ook minder uitval) en dat is ook een van de redenen dat de kaarten wat duurder zijn.
spNk schreef op zaterdag 14 juni 2014 @ 12:01:

Het enige dat Nvidia wel goed voor elkaar heeft zijn hun koel oplossingen.
Correctie. En de gpu chips.

[ Voor 26% gewijzigd door Verwijderd op 14-06-2014 15:18 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op vrijdag 13 juni 2014 @ 23:17:
[...]


Nope. Zie passmark:

GeForce GTX 750 3264
Radeon R7 260X 2994
Inderdaad goede manier om te kijken hoe snel een gpu is, ik kijk vaak eerst naar de SuperPi score van een cpu voor ik er een koop. Dat bepaald namelijk hoe snel die is, voor gpus keek ik voorheen naar de bitcoin score maar ik zie dat passmark een betere indicatie geeft? :+

@Magherb82
Ben wel benieuwd naar de bron :p.
Wat betreft gpu chips, zover ik weet heeft ATI/AMD altijd betere gpu chips gemaakt en is Nvidia vooral goed in het software gedeelte. Pas sinds de 6xx serie vind ik Nvidia op hetzelfde niveau (en arguably better) zitten als AMD.

Acties:
  • 0 Henk 'm!

Verwijderd

Toegevoegd ;)

Zal best dat AMD betere chips maakte Mijn reactie was ook meer dat Nvidia ook goede chips maakt maar ik weet niet of ze slechter of beter zijn, ik vind ze van AMD goed en die van Nvidia ook omdat ik met beide nooit problemen heb gehad maar dat zegt natuurlijk niets.

Waar van ik denk dat Nvida een slechte gpu chip heeft gemaakt is de GTX400 series of lag het hoge verbruik of het lekken niet aan de chip zelf?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zaterdag 14 juni 2014 @ 15:25:
Toegevoegd ;)

Zal best dat AMD betere chips maakte Mijn reactie was ook meer dat Nvidia ook goede chips maakt maar ik weet niet of ze slechter of beter zijn, ik vind ze van AMD goed en die van Nvidia ook omdat ik met beide nooit problemen heb gehad maar dat zegt natuurlijk niets.

Waar van ik denk dat Nvida een slechte gpu chip heeft gemaakt is de GTX400 series of lag het hoge verbruik of het lekken niet aan de chip zelf?
Dank je :p.

Ze hebben bij de GTX480 een monster chip gemaakt zonder dat ze enige ervaring met het procedé hadden. Dit kan problemen opleveren, AMD heeft het die generatie slimmer aangepakt door eerst het 40nm procedé uit te testen met de HD4770 dus ze hadden al enige ervaring en waren meer berekent op eventuele dingen die konden foutgaan.
Je zag ook dat ze met de GTX500 iets meer ervaring hadden gekregen en dat ze daardoor het stroomgebruik hebben kunnen terugschroeven, de chips gebruikten nog steeds veel maar niet meer de 320Watt die de GTX480 uit de muur kon trekken :P

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op zaterdag 14 juni 2014 @ 12:11:
Ik ben zeker wel op de hoogte van de 8800 serie maar waarom zou ik dat er bij moeten halen want dat is iets van een paar jaar terug en niet van nu, daar hebben ze bij Nvidia inmiddels vast wel van geleerd want de uitval van kaarten nu ligt iets van 2% lager dan bij AMD.
Uiteraard hebben ze daar van geleerd, maar jouw stelling was dat nvidia altijd "betere componenten" gebruikt, wat dus niet waar is.
Nvidia reference kaarten zijn naar mijn weten allemaal het zelfde en daar worden iets betere componenten voor gebruikt (verklaart ook minder uitval) en dat is ook een van de redenen dat de kaarten wat duurder zijn.
Dat weet ik niet zeker, mogelijk mogen fabrikanten gewoon zelf weten wat voor componenten ze gebruiken, zolang er maar niets aan het board design veranderd. Nogmaals, daar ben ik niet zeker van.
Correctie. En de gpu chips.
Mja, daar valt over te twisten, maar ik vind de GPU zelf niet onder componenten vallen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nieuws: 'GeForce GTX 880 en 870 met nieuwe Maxwell-gpu's komen in de herfst'

Mmmm. Ben benieuwdVoor mij komt het niet onlogisch over. 20nm waarschijnlijk voorlopig niet goed genoeg voor productie en je moet toch wat nieuws introduceren om je omzet op pijl te houden.

De hamvraag voor mij is alleen hoe lang daarna 20nm dan komt. Wil zelf wel weer wat nieuws (heb nu 670SLI wat heel goed bevalt, inmiddels enorme bang for buck qua levensduur alleen geheugen wordt wat krap) maar als 20nm dan een half jaar later al komt dan ben ik ook niet blij.

Of wellicht heb ik te hoge verwachtingen van de performance sprong van Maxwell 28nm naar 20nm ? De nieuwe nodes zijn tegenwoordig niet perse meer een enorme prestatiewinst volgensmij.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Prestaties wel, de nieuwe nodes worden alleen steeds nadeliger op alle andere vlakken. Het wordt steeds lastiger om ze efficiënt te houden omdat de transistors zo dicht op elkaar zitten; dat zien wij terug in warmere chips die meer verbruiken :)

Ik zie alleen niet in hoe GM204 een geweldige zet is op 28nm. De performance van GM107 is wel *iets* beter maar nauwelijks de sprong die we willen zien. Als dit klopt, gaat dit meer aanvoelen als een refresh dan een nieuwe generatie.

Acties:
  • 0 Henk 'm!

Verwijderd

Je moet toch wat als je nog niet op 20nm zit, dan maar 28nm voor een tussen oplossing en erna de zelfde op 20nm ergens in 2015, april, mij of zelfs juni maar dat is speculatie, er word zelfs gespeculeerd over eind 2014 begin 2015 maar dat is wat te optimistisch denk ik?

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Werelds schreef op woensdag 18 juni 2014 @ 14:26:
Prestaties wel, de nieuwe nodes worden alleen steeds nadeliger op alle andere vlakken. Het wordt steeds lastiger om ze efficiënt te houden omdat de transistors zo dicht op elkaar zitten; dat zien wij terug in warmere chips die meer verbruiken :)

Ik zie alleen niet in hoe GM204 een geweldige zet is op 28nm. De performance van GM107 is wel *iets* beter maar nauwelijks de sprong die we willen zien. Als dit klopt, gaat dit meer aanvoelen als een refresh dan een nieuwe generatie.
De sprong is 2x performance per Watt (aldus het artikel :+ ). Of het precies 2x is dat zal wel niet (daar is het getal te rond voor).

Maar dat het een stuk beter wordt is zeker. Dat is al zichtbaar is in de GTX 750/750 Ti die geen externe power nodig hebben, maar wel beter presteren dan de vorige generatie MET externe voeding.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/perfwatt.gif
Van 54 naar 100% voor het GTX x50 Ti model.

Wie herrinert zich nog Fermi? De stap van Nvidia naar goede performance/watt?

Dat zag er zo uit:
Afbeeldingslocatie: http://tpucdn.com/reviews/Zotac/GeForce_GTX_460_1_GB/images/perfwatt.gif

Van 67% naar 100% voor het GTX x60 model. Terwijl AMD daar eigenlijk al was.

Als je denkt dat het Maxwell een refresh wordt dan heb je niet goed opgelet ;).

[ Voor 30% gewijzigd door sdk1985 op 18-06-2014 16:17 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • kobus71
  • Registratie: April 2008
  • Laatst online: 25-05 15:23
oktober decenmber komen de 870 en 880. :)
Ben benieuwd.
Er is ook meer over de specs bekend:http://wccftech.com/gtx-880-arrive-oct-nov/

Lol was al op de voor pagina gemeld.

[ Voor 11% gewijzigd door kobus71 op 18-06-2014 16:32 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ben benieuwd of we de eerste UHD capabele GPU met TDP<200watt op 28nm Maxwell mogen verwachten

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sdk1985 schreef op woensdag 18 juni 2014 @ 16:11:
[...]

De sprong is 2x performance per Watt (aldus het artikel :+ ). Of het precies 2x is dat zal wel niet (daar is het getal te rond voor).

-snip-

Als je denkt dat het Maxwell een refresh wordt dan heb je niet goed opgelet ;).
Daar zit de grote clou.

Het boeit geen reet hoe veel meer performance per Watt ze er uit krijgen geperst als ze nog steeds tegen dezelfde muur aanlopen waar GK104 en GK110 zich aan houden :)

Ze krijgen er niet meer transistors in gepompt dan voorheen en die performance per watt vertaalt zich niet 1:1 op nanometer niveau. Daar mag je eerder rekenen op hooguit 20-30% omdat ze alles net iets rapper kunnen laten tikken zonder tegen het TDP aan te lopen. Onthoudt even dat GM107 _exact_ dezelfde transistor dichtheid als GK110 heeft en GK104 ligt daar miniem achter: 12,6/mm^2 voor GK110/GM107, 12 voor GK104. Onthoudt ook dat GM107 dan wel dicht bij de 200% zit vergeleken met GK107 qua prestaties, hij is ook een stuk groter en heeft een stuk meer transistors. Ze mogen wel in dezelfde "tier" zitten qua naamgeving, qua eigenschappen is dat absoluut niet het geval.

Ik denk dat jij eerder niet goed hebt gelezen wat ik precies schreef ;)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Die nieuwe 730 hé ... heeft die wel of niet H.265 versnelling ?!
Dan weet ik gelijk wat mijn nieuwe HTPC favoriet is :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
Meh één versie van de GT730 is gebaseerd op de antieke Fermi acritectuur, verwacht niet dat er H.265 versnelling op zit :P

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Voor zover ik weet hebben nog nergens HEVC versnelling in? Dichtste dat daar bij in de buurt komt is Kaveri, waar je via HSA + OpenCL de last op de CPU behoorlijk kunt verminderen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Het boeit geen reet hoe veel meer performance per Watt ze er uit krijgen geperst als ze nog steeds tegen dezelfde muur aanlopen waar GK104 en GK110 zich aan houden
Je doet veel te moeilijk. Lijkt een beetje op die altijd maar terug kerende "maar die kaart is te duur en complex" discussie, terwijl 4 maanden later uit de kwartaal cijfers blijkt dat het dure aspect kant nog wal slaat en er dikke winsten worden gedraaid.

Er wordt nu eenmaal op performance per watt gebouwd tegenwoordig. Net als Intel die de Wet van Moore in stand houdt omdat ze zelf als bedrijfsmissie juist het instand houden van die wet hebben staan ;). De roadmaps van Nvidia spreken tegenwoordig standaard over performance per watt.

De gtx750 (ti) is af en ligt in de winkel. Als we er van uitgaan dat er een gelijkwaardig TDP wordt gesteld voor de high end kaarten dan is per definitie de volgende kaart dus x % sneller. In dit geval kun je dan op basis van techpower gaan schatten.

De GTX 770 zit op 59% waarbij de GTX 750 100% is. Dat is dus 100/59=1,69. De 750 is dus 1,69 keer beter per Watt. Dan kun je dus verwachten dat een kaart met een gelijkwaardig TDP (230W) dus ook 69% sneller is.

Natuurlijk kan Nvidia dat te dol vinden en het TDP verlagen, maar technisch lijkt het geen probleem te zijn. Immers de architectuur heeft zichzelf al bewezen. Zal vooral afhangen van waar AMD mee komt.

Bij Kepler was het eigenlijk niet anders. Het kon wel sneller, maar het hoefde niet. Kepler kwam oorspronkelijk uit met 170W voor de 670 en 195W voor de 680. Pas met de 7xx serie is het TDP verhoogd.

Het zit er eigenlijk dik in dat het TDP nu ook wel weer iets omlaag zal gaan. Dus wat dat betreft is het dan waarschijnlijk verstandiger om van het TDP van een 680 uit te gaan voor de nieuwe GTX 870 (maar dat is koffiedik kijken).

Die zit echter op 55% tov 100% dus dan kom je op 100/55= 81% sneller dan een GTX 680.

Over een paar maanden weten we het zeker. Maar gezien het succes van zowel Fermi als Keppler zie ik geen reden om somber te gaan lopen doen. Het lijkt erop dat er weer mooie tijden aan komen voor gpu land ;).

[ Voor 19% gewijzigd door sdk1985 op 19-06-2014 00:34 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, jij doet veel te makkelijk.

Nogmaals, performance per Watt ligt wel hoger, maar als je kijkt naar performance per SP vergeleken met GK107 (wat nu eenmaal de directe voorganger is) zul je zien dat daar geen enkel verschil in zit. Ik zal heel kort rekenen voor je, heb helaas geen tijd om een volledige som te doen:

- GK107: 384/32/16 op 118 mm^2 met 1300m transistors
- GM107: 640/40/16 op 148 mm^2 met 1870m transistors

Dat is SP/TMU/ROP hierboven. TPU zegt dat overall performance (dus niet per Watt) voor de GTX 650 61% is tegenover de 750 Ti. Even snel rekenen:
- 61 / (1300 / 1870) = 87,8% performance/transistor
- 61 / (384 / 640) = 101,7% performance/SP

Dichtheid:
- 1300m / 118 = 11,02 transistors/mm^2
- 1870m / 148 = 12,64 transistors/mm^2

Dit is wat ik je duidelijk probeer te maken. Hoewel de 750 Ti per Watt veel beter scoort, winnen ze dus geen reet per SP, wat toch de belangrijkste factor voor performance is. Dat GK107 lager ligt per transistor ligt vooral aan de toch behoorlijk lagere dichtheid.

En om het verhaal compleet te maken, GK110 heeft een dichtheid van 7080m / 561 = 12,62m transistors /mm^2. Juist ja, exact hetzelfde als GM107. GK104 ligt iets lager op 3540m / 294 = 12,04m transistors/mm^2.

Gaan we er even van uit dat ze met GM104 gewoon die 12,6 halen en gaan we simpelweg uit van GK104 als doel qua oppervlak, dan zou je 294 * 12,6 = 3704 transistors kwijt komen. Trekken we de lijn van GK107 dan door met minder TMUs per SP (1 op 16 in plaats van 1 op 12 zoals in GK104) zou je wellicht ergens rond 1792 SPs kwijt kunnen - we zullen wel gewoon 32 ROPs nodig hebben dus daar besparen we niets. En dan zit je al slechts te kijken naar maximaal 15% winst over GK104. Leuk dat ze dat dan wellicht klaar spelen met 130W in plaats van 180W, maar maakt zoals ik al zei voor de absolute performance geen reet uit.


20nm is gewoon een noodzaak voor enige zinvolle prestatie winsten (en nogmaals, dan heb ik het over daadwerkelijke performance, niet over een relatieve term als performance per Watt), tenzij Nvidia GM104 over de 300mm^2 heen laat gaan. Maar dan wil ik niet weten hoe monsterlijk groot GM110 wordt :)
het succes van zowel Fermi
Fermi? Een success? _O-


Edit: laat ik anders weer even een van onze favoriete vergelijkingen maken: auto's. En dan ook Volkswagen, want dat rijd ik zelf :P

VAG kwam enkele jaren geleden met een 1,4 liter 4 cilinder blokje, met daar een turbo bovenop geplakt (1.4 TSI dus). Dat was goed voor 160 PK bij een verbruik van 1 op 15 à 16.

Dat TSI blokje had wat problemen en was aan vernieuwing toe. Zie daar, nieuwe 1.4 TSI. Slechts 140 PK deze keer, maar wel met een verbruik van slechts 1 op 21 (pakweg) en kotste ook nog eens minder CO2 uit. Prestaties voor z'n verbruik beter dan voorheen, maar in de werkelijkheid was hij gewoon net iets trager dan z'n onzuinigere voorganger. Niet veel, maar toch.

In algemenere termen: performance per vermogen beter dan voorheen, absolute performance niet. Komt je dat niet bekend voor?

[ Voor 27% gewijzigd door Werelds op 19-06-2014 12:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Fermi 1 was geen succes maar Fermi 2 was wel een succes.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

WTF is Fermi 2 ?

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
sdk1985 schreef op donderdag 19 juni 2014 @ 00:27:
Maar gezien het succes van zowel Fermi
Mits we het 300-350w stroomverbruik buiten beschouwing laten >:)
GTX480 */zucht

[ Voor 3% gewijzigd door !mark op 19-06-2014 13:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
!mark schreef op donderdag 19 juni 2014 @ 13:24:
[...]

Mits we het 300-350w stroomverbruik buiten beschouwing laten >:)
GTX480 */zucht
* en de 9 maanden vertraging
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte

Zelfs GF110 was geen geweldig product. GF100 was gewoon ronduit een slecht product. GF104 en met name GF114 hebben de architectuur nog van z'n beste kant laten zien, maar over de gehele generatie was Fermi gewoon het slechtste van Nvidia sinds de Stofzuiger 5000 serie.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op donderdag 19 juni 2014 @ 14:34:
[...]

* en de 9 maanden vertraging
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant (die van de huidige GTX-en is prachtig maar ook niet muisstil en om nog maar te zwijgen over het rode kamp, stilte koeling ==> custom/aftermarkt koeling zoals al jaren gebruikelijk is (TF2-3-4/WF3/DCU2)

Hoop dat we binnenkort een wat breder aanbod van maxwell mobile gaan zien. Ben namelijk op zoek naar een lenovo e540 maar dan met maxwell of een degelijke laptop met een 850m (helaas throttlen de verder goede n550 extreem)

[ Voor 9% gewijzigd door eL_Jay op 19-06-2014 14:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op donderdag 19 juni 2014 @ 14:34:
[...]

* en de 9 maanden vertraging
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte

Zelfs GF110 was geen geweldig product. GF100 was gewoon ronduit een slecht product. GF104 en met name GF114 hebben de architectuur nog van z'n beste kant laten zien, maar over de gehele generatie was Fermi gewoon het slechtste van Nvidia sinds de Stofzuiger 5000 serie.
Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Gaan we het weer over Fermi hebben? Gaat nergens over.

Als nVidia zichzelf de 200watt TDP gunt, kunnen ze Maxwell waarschijnlijk verder clocken dan dat ze konden bij Kepler op die TDP. Dat is wat ik er ook uit haal.

Maar we gaan het zien.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 00:52
Verwijderd schreef op donderdag 19 juni 2014 @ 14:54:
[...]

Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?
GTX580 was ook de tegenhanger van de HD6970

[quote]
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant
[quote]
Er is een verschil tussen luidruchtig en luidruchtig
HD6990, R9290(X) en GTX480 waren alledrie veel te luid.

Laten we de FX5800 Ultra buiten beschouwing :P

[ Voor 33% gewijzigd door !mark op 19-06-2014 15:07 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op donderdag 19 juni 2014 @ 14:39:
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant
Er is een verschil tussen muisstil of standje tornado zoals bij de 480 het geval was en nu bij de 290. Zeker als je concurrent op minder dan 10% performance achter je ligt terwijl jouw chip 60% groter is en veel warmer wordt.
Verwijderd schreef op donderdag 19 juni 2014 @ 14:54:
Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?
GF110 maakte alleen goed hoe slecht GF100 was. De 5870 is ook niet waar je GF110 moet vergelijken, dat is Cayman (69x0). Cypress (58x0) zat zoals ik net zeg nog geen 10% achter GF100, maar was veel kleiner, stiller, koeler en op tijd. Wellicht heb je dat toen niet mee gekregen, maar de 480 kwam driekwart jaar later dan oorspronkelijk gepland doordat Nvidia productie problemen had. Daarom volgde de 580 ook zo snel en hebben we ook nooit een GF100 gezien met alle SMs ingeschakeld.
XanderDrake schreef op donderdag 19 juni 2014 @ 14:57:
Als nVidia zichzelf de 200watt TDP gunt, kunnen ze Maxwell waarschijnlijk verder clocken dan dat ze konden bij Kepler op die TDP. Dat is wat ik er ook uit haal.

Maar we gaan het zien.
Waar haal je dat uit dan?

Want de 750 Ti draait "maar" op 1020, terwijl de 770 op 1046 draait. En als je naar GK107 kijkt, zie je snelheden van 928 tot 1058. En zoals ik hierboven al liet zien is de dichtheid bij GK107 ietsjes lager, dus daar is meer ruimte om met de kloksnelheden te spelen. Bij de hogere dichtheid in GK104, GK107 en GK110 lopen het verbruik en de temperatuur exponentieel op bij het verhogen van de kloksnelheid.

Ik betwijfel of er daadwerkelijk zo veel ruimte is qua kloksnelheden.

[ Voor 6% gewijzigd door Werelds op 19-06-2014 15:12 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Altijd lastig om de die hard "geeks" de oogkleppen af te nemen maar ik doe toch nog maar een poging:

Fermi was zeker een succes want Fermi heeft de consumenten tak weer winstgevend gemaakt.

Zie cijfers GPU only (dus zonder PSB en CPB)
2009: 2595 omzet met -246M
2010: 2660 omzet met -13M
2011: 2527 omzet met +30M
http://www.google.nl/url?...S9A&bvm=bv.69411363,d.ZWU

Als AMD of Nvidia een "snelle" kaart in de winkel legt met verlies maakt een product niet succesvol. Hooguit leuk voor de consument op korte termijn. Op lange termijn zit het R&D uitgave in de weg.

De Geforce 2xx reeks was dus NIET succesvol. Geforce 4xx en 5xx waren dat wel.

Dan komen we bij Kepler. Kepler is echt een ongekend succes. Abnormaal gewoon...

2012: 3816 omzet met winst 821 miljoen winst.
2013: 3251 omzet met 884 miljoen winst.
http://www.sec.gov/Archiv...3000008/nvda-2013x10k.htm

De "winst" is dus van -9% gestegen naar 1,1% met Fermi en +27% met Kepler.

Vergeet niet dat de consumenten tak voor een bedrijf als Intel / AMD / Nvidia puur aanwezig zijn om volume te draaien, zodat die onderzoekskosten een beetje te spreiden zijn. De winst komt normaal gesproken uit de hoge marge producten. In het geval van Nvidia dus de Quadro (PSB) markt (die elk jaar +- 300 M winst draait).

[ Voor 4% gewijzigd door sdk1985 op 19-06-2014 15:29 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kijk anders even verder dan dat je neus lang is. Duik dieper in de financieële raporten en kijk waar er nu precies verlies en winst mee is geboekt en waarmee niet.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
madmaxnl schreef op donderdag 19 juni 2014 @ 15:19:
Kijk anders even verder dan dat je neus lang is. Duik dieper in de financieële raporten en kijk waar er nu precies verlies en winst mee is geboekt en waarmee niet.
Ik heb juist dieper gekeken maat ;).
Our GPU business is comprised primarily of our GeForce discrete and chipset products which support desktop and notebook personal computers, or PCs,
plus memory products. Our PSB is comprised of our Quadro professional workstation products and other professional graphics products, including our
NVIDIA Tesla high-performance computing products. Our CPB is comprised of our Tegra mobile products which support tablets, smartphones, personal
media players, or PMPs, internet television, automotive navigation, and other similar devices. CPB also includes license, royalty, other revenue and associated
costs related to video game consoles and other digital consumer electronics devices. Original equipment manufacturers, or OEMs, original design
manufacturers, or ODMs, add-in-card manufacturers, system builders and consumer electronics companies worldwide utilize our processors as a core
component of their entertainment, business and professional solutions.
Die cijfers hebben betrekking op de GeForce lijn. Niet op PSB (Quadro) en CPB (tegra etc).

[ Voor 61% gewijzigd door sdk1985 op 19-06-2014 15:25 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Waar worden de kosten van R&D dan onder geschoven? Als je die namelijk onder de PSB tak schuift? Ik heb namelijk niet verder gekeken dan dat mijn neus lang is :+

[ Voor 69% gewijzigd door madmaxnl op 19-06-2014 15:31 ]

Pagina: 1 ... 22 ... 30 Laatste

Dit topic is gesloten.