The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Low profile én game waardig is altijd een schaarse combo geweest. Sinds de R600 en G80 zijn GPU's steeds zwaarder en complexer. Ik kan me destijds nog 8600GT's herinneren die low profile waren maar sindsdien kan ik me er geen meer herinneren.thijsco19 schreef op zondag 01 juni 2014 @ 18:28:
Ben bang dat ik dan toch de R7 250 moet nemen. Vind dit wel een gemist schot van nVidia.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
[ Voor 65% gewijzigd door mitsumark op 02-06-2014 09:52 ]
Mijn oude NVIDIA 7900gs was ook single slot en maakte helemaal niet veel herriespNk schreef op zondag 01 juni 2014 @ 23:04:
Dat gaat hem inderdaad niet worden, ik kan mijn 7800GT en 9800 PRO met standaard single slot koeler nog goed herinneren, wat een pokke herrie maakten die. En die hadden een TDP van 65 en 45(?) Watt, en werden goed heet.
TDP van 82w, dus met een 6pin
Verwijderd
Misschien wel weer een nieuwe koel techniek/oplossing.
NVIDIA Maxwell GPUs Could Possibly Feature New Axial-Radial Hybrid Fan Solution
Read more: http://wccftech.com/nvidi...n-solution/#ixzz33V2rfU3i
Maar was dat een reference koeler of een 3rd party?!mark schreef op maandag 02 juni 2014 @ 12:18:
[...]
Mijn oude NVIDIA 7900gs was ook single slot en maakte helemaal niet veel herrie![]()
TDP van 82w, dus met een 6pin
Ik vraag me af waar die cache eigenlijk voor gebruikt wordt. Het zal waarschijnlijk geen textures zijn, ik denk eerder een stukje shadercode dat veel wordt gebruikt ingame.Verwijderd schreef op maandag 02 juni 2014 @ 18:24:
Ik ben benieuwt naar mid end, high end Maxwell gpu's, of deze nu weer met een kleinere geheugen bus komt of niet. Ik hoop kleiner zo dat er bespaart kan worden op verbruik en toch genoeg L2 cache om minstens 6gb goed aan te kunnen sturen zonder een bottelnek.
Misschien wel weer een nieuwe koel techniek/oplossing.
NVIDIA Maxwell GPUs Could Possibly Feature New Axial-Radial Hybrid Fan Solution
Read more: http://wccftech.com/nvidi...n-solution/#ixzz33V2rfU3i
Weet hier te weinig van af
Ik denk niet dat de midend 6gb gaat krijgen, ik gok eerder op 2gb of 4gb icm een 256bits bus. Highend zal wel beter hebben.
ReferentiespNk schreef op maandag 02 juni 2014 @ 22:51:
[...]
Maar was dat een reference koeler of een 3rd party?
Deze dus

[ Voor 13% gewijzigd door !mark op 02-06-2014 23:51 ]
Verwijderd
Op pagina 9 gaat het om het geheugen.Sp3ci3s8472 schreef op maandag 02 juni 2014 @ 23:30:
[...]
Ik vraag me af waar die cache eigenlijk voor gebruikt wordt. Het zal waarschijnlijk geen textures zijn, ik denk eerder een stukje shadercode dat veel wordt gebruikt ingame.
Weet hier te weinig van af.
Ik denk niet dat de midend 6gb gaat krijgen, ik gok eerder op 2gb of 4gb icm een 256bits bus. Highend zal wel beter hebben.
http://international.down...GTX-750-Ti-Whitepaper.pdf
Een GTX 780 Ti is hoogst onwaarschijnlijk. EVGA is al teruggekrabbeld, ze hebben er eerst wel op gehint dat een 6GB 780 Ti zou komen maar lijken daar nu op terug te komen. Ook wel logisch, de Titan Black zou dan een stuk minder verkopen, die zou dan nog als enige voordeel hebben de betere compute performance.Verwijderd schreef op zondag 01 juni 2014 @ 15:21:
6 GB-editie van witte Galaxy GTX 780 'Hall of Fame' gelanceerd
http://nl.hardware.info/n...0-hall-of-fame-gelanceerd
Jammer dat er niet gelijk 6gb op de gtx780 werd gezet want het komt nu wel van pas. De ti zal vast ook nog wel volgen?
De 6GB 780 is dus al wel gereleased, met die Galaxy HOF 6GB, de Asus Strix 6GB en de EVGA modellen.
01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110
"C:\Program Files\NVIDIA Corporation\Control Panel Client\NvGpuUtilization.exe"
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Helaas van een alinea wordt ik niet wijzerVerwijderd schreef op dinsdag 03 juni 2014 @ 11:07:
[...]
Op pagina 9 gaat het om het geheugen.
http://international.down...GTX-750-Ti-Whitepaper.pdf
Ik ga er van uit dat het enigzins hetzelfde dan werkt als bij een cpu.
Mechwarrior Online: Flapdrol
Verwijderd
Of bedoel ik nu heel wat anders?
[ Voor 9% gewijzigd door Verwijderd op 05-06-2014 12:36 ]
Min of meer wel ja.haarbal schreef op donderdag 05 juni 2014 @ 12:34:
En is dat hoe furmark aan die idiote temperaturen kwam toen er nog geen artificiële limiters waren?
Dat is ook waarom AMD van VLIW5 naar VLIW4 is gegaan binnen een jaar. De 5870 had namelijk 90% van de tijd 1 van de 5 ALU's in een SPU ongebruikt. Dan zag je wel 100% usage, omdat nagenoeg alle SPUs wel bezig waren, maar in de praktijk was dat eigenlijk met pijn en moeite 80%. Er zijn maar weinig toepassingen die die 5e ALU aan het werk kregen (minen wel
Nee, dat klopt; hoewel het verbruikte vermogen volgens mij ook niet 100% accuraat is. Ik betwijfel of dat ook daadwerkelijk is wat er door het slot en de stekkers getrokken wordt. Eigenlijk nooit echt naar gekekenVerwijderd schreef op donderdag 05 juni 2014 @ 12:35:
Dat is wel weer mooi te zien met AB je ziet dan kun je he verschil van verbruik zien en van het vermogen wat er verbruikt word. Vaak kijkt men alleen maar naar verbruik, die kan dan op 99 % staan maar het vermogen maar op 50%. Het vermogen heeft ook zijn nadelen op de powerlimit, bereik je de standaard 100% dan klokt de gpu terug omda tje dan op de max TDP zit.
Of bedoel ik nu heel wat anders?
Bij het ontstoffen van mijn gamebak viel mij een kleine opdruk op naast het PCI-E slot waar al jarenlang getrouw mijn videokaart in zit te snorren:
PCIE4X
Jullie raden het vast al; de afgelopen 4 jaar heeft mijn GTX460 doodleuk in een PCI-E 2.0 4X slotje gezeten - ik heb ook doodleuk mijn gloednieuwe GTX760 in hetzelfde PCI-E 2.0 4X slot gedrukt

Opvallend is dat ik wel gewoon 110 FPS in The Witcher 2 trek, GPU-Z rapporteert ook vrolijk PCI-E 2.0 4X - het is dus echt een 4X slotje.
[ Voor 4% gewijzigd door Steef op 07-06-2014 18:15 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
En dat is maar goed ook, want mijn 16x PCI-E slotje zit verdacht dicht onder mijn MugenPhuncz schreef op zaterdag 07 juni 2014 @ 18:12:
Is ook voldoende voor een enkele GPU, 8x en 16x is vooral voor SLI van nut.

[ Voor 0% gewijzigd door Steef op 07-06-2014 18:21 . Reden: typo-kabouters ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Overigens is een plaatsing aan de zijkant wel degelijk een onmogelijkheid, hij zit daar met een goede reden
Heb je toevallig een resource voor die bottleneck opmerking? ten tijde van de GTX 480 is opgemerkt dat 4x 2.0 nog zat bleek te zijn voor een SLI opstelling:
http://www.hardocp.com/ar...width_perf_x16x16_vs_x4x4
Een recentere benchmark heb ik niet op kunnen duiken.
*edit*
iets recenter, toch een stevig verschil zodra je naar 4x dropt - al moet hierbij wel mee worden genomen dat het 4x slot in deze video op een andere controller zit.
YouTube: Final PCIe Bandwith Comparison Test - Real Word Performance Benchmarks Linus Tech Tips
ik ga gewoon wat benchmarks draaien, terug on-topic!
[ Voor 39% gewijzigd door Steef op 07-06-2014 18:52 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Is idd niet zichtbaar, maar je blaast nu lucht door de zijkanten, terwijl het makkelijker van voor naar achter wil.ThaRabbit schreef op zaterdag 07 juni 2014 @ 18:30:
De "juiste" plek? Ik neem aan dat je aan de zijkant bedoelt. Misschien niet zichtbaar, boven de Mugen zit nog een casefan om warme lucht af te voeren.
En waarom dat dan? Geheugen lijkt niet hoog en de fan kan bij deze koeler een paar cm naar boven en naar onder verplaatst worden.Overigens is een plaatsing aan de zijkant wel degelijk een onmogelijkheid, hij zit daar met een goede reden
Nee ik heb niks fatsoenlijks gezien waar ze PCI-e 2.0 x4 of PCI-e 3.0 x2 (zelfde bandbreedte) testen met minimale, gemiddelde framerate of frametimes en microstuttering. Sowieso beschikken maar een handjevol sites over die geschikte apparatuur en zover ik weet hebben ze het niet daarvoor gebruikt.Heb je toevallig een resource voor die bottleneck opmerking?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik vraag me af of dat significant verschil maakt, allicht ook weer een keer testen. Het zou me verbazen als het meetbaar verschil oplevert.-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
Is idd niet zichtbaar, maar je blaast nu lucht door de zijkanten, terwijl het makkelijker van voor naar achter wil.
Diepte zien in 2d plaatjes is lastig, het is dus slecht zichtbaar. Het geheugen staat gelijk aan de onderrand van de onderste 2 ribben van de Mugen. Zelfs als de fan boven het geheugen staat door hem ietwat te verschuiven kan de montage klem er alsnog niet langs. Bij de opbouw heb ik het destijds geprobeerd, vandaar-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
En waarom dat dan? Geheugen lijkt niet hoog en de fan kan bij deze koeler een paar cm naar boven en naar onder verplaatst worden.
Misschien ooit een nieuwe mount maken om het alsnog mogelijk te maken - ik ben het namelijk wel met je eens dat het de luchtstroom alleen maar ten goede kan komen.
Laat ik je dan bij deze melden dat er geen significant prestatieverschil zit in dit hardwaregeval:-The_Mask- schreef op zaterdag 07 juni 2014 @ 19:17:
Nee ik heb niks fatsoenlijks gezien waar ze PCI-e 2.0 x4 of PCI-e 3.0 x2 (zelfde bandbreedte) testen met minimale, gemiddelde framerate of frametimes en microstuttering. Sowieso beschikken maar een handjevol sites over die geschikte apparatuur en zover ik weet hebben ze het niet daarvoor gebruikt.
AMD Phenom II X4 955 BE @ Stock
MSI N760 TF 2GD5/OC
Benchmark: Unigine Valley 1.0 (gemiddeld over 3 runs, relatief korte benchmark)
PCI-E 2.0 @ 4x: 2697 (Max FPS: 111.9)
PCI-E 2.0 @ 16x: 2747 (Max FPS: 112.4)
Dat levert een 1.85% prestatiewinst op
Ik heb de moeite genomen ook even rivatuner te gebruiken om te kijken hoe het gesteld was met de CPU load, die bleef netjes onder de 75% - er was dus geen sprake van een CPU bottleneck.
Voor een uitgebreidere analyse (spikes in frametimes, wat real-world performance in games met stevige textures) heb ik toch wat meer tijd nodig. Voorlopig is dit redelijk representabel lijkt me.
*edit*
bewijs van 16x voor de volledigheid:

Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Hier een mooi overzichtje
http://www.techpowerup.co...I-Express_Scaling/23.html
Prima linkje, thanks!!mark schreef op zaterdag 07 juni 2014 @ 20:16:
Valley en andere synthetische test schalen niet zo goed met extra PCIe bandbreedte
Hier een mooi overzichtje
http://www.techpowerup.co...I-Express_Scaling/23.html
Ik kwam terug naar dit topic om wat real-world tests te melden.
Ik heb The Witcher 2 even op Ultra gezet en zie gemiddeld zo'n 5-10% meer performance. Met V-Sync aan zit hij wederom stabiel op 60 FPS maar dit terwijl de CPU load bijna 10 - 20% lager ligt.
En dan te bedenken dat mijn GTX460 4 jaar in dat 4x slot heeft geleefd. Affijn, al met al weer een leuk avondje prutsen.
Iets meer ontopic: MSI GTX 760 bevalt echt prima. ik heb lang gewacht met het upgraden van mijn GTX 460 - het idee was eigenlijk om te wachten op de 860 / 870.
Toch zeer blij met de upgrade, dit moet het wel kunnen trekken tot zaken als hardware adaptive sync de standaard zijn.
[ Voor 21% gewijzigd door Steef op 07-06-2014 22:01 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Significant vast niet, klein verschil waarschijnlijk.ThaRabbit schreef op zaterdag 07 juni 2014 @ 19:46:
[...]
Ik vraag me af of dat significant verschil maakt, allicht ook weer een keer testen. Het zou me verbazen als het meetbaar verschil oplevert.
Dan zitten daar best overdreven grote "koelribben" (sommigen zijn half plastic en koelen overigens echt niet).Diepte zien in 2d plaatjes is lastig, het is dus slecht zichtbaar. Het geheugen staat gelijk aan de onderrand van de onderste 2 ribben van de Mugen. Zelfs als de fan boven het geheugen staat door hem ietwat te verschuiven kan de montage klem er alsnog niet langs. Bij de opbouw heb ik het destijds geprobeerd, vandaar
Max fps is niet interessant, dat is meer een CPU iets.Benchmark: Unigine Valley 1.0 (gemiddeld over 3 runs, relatief korte benchmark)
PCI-E 2.0 @ 4x: 2697 (Max FPS: 111.9)
PCI-E 2.0 @ 16x: 2747 (Max FPS: 112.4)
Weet je niet, kan ook zijn dat drie kernen vol worden belast, omdat die maar max drie nuttig kan gebruiken, dan heb je dus wel een CPU bottleneck.Ik heb de moeite genomen ook even rivatuner te gebruiken om te kijken hoe het gesteld was met de CPU load, die bleef netjes onder de 75% - er was dus geen sprake van een CPU bottleneck.
Voor een uitgebreide analyse mag je je hele bankrekening leeg halen en dan mag er ook aardig wat opstaan, anders kun je die apparatuur niet betalen.Voor een uitgebreidere analyse (spikes in frametimes, wat real-world performance in games met stevige textures) heb ik toch wat meer tijd nodig. Voorlopig is dit redelijk representabel lijkt me.
Heeft niet met schalen nodig, er is gewoon minder communicatie nodig tussen de videokaart en de rest van het systeem. Er is dus weinig bandbreedte nodig en meer geeft dus weinig tot geen winst.!mark schreef op zaterdag 07 juni 2014 @ 20:16:
Valley en andere synthetische test schalen niet zo goed met extra PCIe bandbreedte
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Volledig metaal, ze zijn inderdaad redelijk aan de maat. C'est la vie.-The_Mask- schreef op zaterdag 07 juni 2014 @ 22:43:Dan zitten daar best overdreven grote "koelribben" (sommigen zijn half plastic en koelen overigens echt niet).
De waarde is geen overall gemiddelde, simpelweg een observatie van de load van de 4 individuele kernen, dat verstand had ik nog net wel paraatWeet je niet, kan ook zijn dat drie kernen vol worden belast, omdat die maar max drie nuttig kan gebruiken, dan heb je dus wel een CPU bottleneck.
Voor de overbodige duidelijkheid: geen enkele individuele kern is boven de 75% load gekomen. Overigens is die waarde sinds de verkassing naar het PCI-E 16x slot alleen maar lager geworden - ook in real world belastingssituaties.
Beuh, uitgebreid houdt voor mij op bij een aantal games door rennen + frame times + temp logs + clock logs. Het moet wel leuk blijvenVoor een uitgebreide analyse mag je je hele bankrekening leeg halen en dan mag er ook aardig wat opstaan, anders kun je die apparatuur niet betalen.
[ Voor 11% gewijzigd door Steef op 07-06-2014 23:10 ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Hoe weet je dat zo zeker? In taakbeheer of ander programma zul je het niet zien, threads verwisselen namelijk vaak van core. Dan lijkt het dus of er vier voor 75% belast worden, maar kan het gewoon zo zijn dat het drie op 100% zijn, taakbeheer laat je dat alleen niet zien, omdat het zo snel wisselt.ThaRabbit schreef op zaterdag 07 juni 2014 @ 23:04:
De waarde is geen overall gemiddelde, simpelweg een observatie van de load van de 4 individuele kernen, dat verstand had ik nog net wel paraat
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Taakbeheer? Wat is dit, tweakers voor 12 jarigen-The_Mask- schreef op zaterdag 07 juni 2014 @ 23:14:
[...]
Hoe weet je dat zo zeker? In taakbeheer of ander programma zul je het niet zien, threads verwisselen namelijk vaak van core. Dan lijkt het dus of er vier voor 75% belast worden, maar kan het gewoon zo zijn dat het drie op 100% zijn, taakbeheer laat je dat alleen niet zien, omdat het zo snel wisselt.
Rivatuner's Statistics Server kan actuele statistieken weergeven in een direct3d overlay en kan numerieke logs per core bijhouden - zowel van CPU als GPU. Dan zit je natuurlijk nog steeds vast aan je minimale pollrate van je monitor software, die weer niet te hoog mag zijn maar weer waardeloos is als hij te laag is.
Vanzelfsprekend komt de pollrate niet in de buurt van de snelheid waarmee threads van core wisselen. Affijn, zie voorgaande opmerkingen over leuk blijven
*edit*
we gaan overigens afschuwelijk offtopic
[ Voor 7% gewijzigd door Steef op 07-06-2014 23:27 . Reden: typo kabouters ]
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Dat is dus echt de enige reden dat ik maar ook zo'n suf Corsair H110 ding heb gekocht in plaats van een mooie grote Thermalright CPU koeler : Die zou dan tegen mijn #1 videokaart aan leunen of zelfs in de weg zittenThaRabbit schreef op zaterdag 07 juni 2014 @ 18:20:
En dat is maar goed ook, want mijn 16x PCI-E slotje zit verdacht dicht onder mijn Mugen![]()
[afbeelding]

Al die mobo bakkers moeten eens grote moederborden gaan maken!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||

Gewoon een beetje plannen en uitzoeken, dan heb je geen gigantische planken en cases nodig:

CPU en GPU draaien nu op waterkoeling, minder lawaai.
The Mask legt het uit op een manier zodat iedereen het snapt en hij weet duidelijk niet hoe ver jouw kennis reikt. Je hoeft niet direct er vanuit te gaan dat je kennis "ontoereikend" ofzo is, maar je zei eerst (paraphrasing) "75% load over alle cores dus geen bottleneck", The Mask legt uit dat dat niet evident is en je replied dan "ja natuurlijk, weet ik ook wel". Iedereen is hier uiteindelijk om te leren, daar hoef je jezelf niet voor te verdedigen, we are all friends hereThaRabbit schreef op zaterdag 07 juni 2014 @ 23:19:
Taakbeheer? Wat is dit, tweakers voor 12 jarigen
Dat was mij duidelijk, ik deed nog een poging de tongue-in-cheek over te laten komen met eenPhuncz schreef op zondag 08 juni 2014 @ 09:07:
The Mask legt het uit op een manier zodat iedereen het snapt en hij weet duidelijk niet hoe ver jouw kennis reikt. Je hoeft niet direct er vanuit te gaan dat je kennis "ontoereikend" ofzo is, maar je zei eerst (paraphrasing) "75% load over alle cores dus geen bottleneck", The Mask legt uit dat dat niet evident is en je replied dan "ja natuurlijk, weet ik ook wel". Iedereen is hier uiteindelijk om te leren, daar hoef je jezelf niet voor te verdedigen, we are all friends here
Prima heen en weer discussie wat mij betreft
Mooie case, overigens. Zeer compact.
Sony A7III | Sony 24 - 105 G | Sigma 100 - 400
Verwijderd
http://nl.hardware.info/r...view-tones-tizair-systeem
Wat een tegenvaller, te langzaam te duur en ook nog eens nergens nuttig voor.
[ Voor 26% gewijzigd door Verwijderd op 08-06-2014 10:10 ]
Als ze gewoon het primaire x16 slot wat lager zouden plaatsen zou het ook geen probleem zijnnero355 schreef op zondag 08 juni 2014 @ 00:43:
Al die mobo bakkers moeten eens grote moederborden gaan maken!

Ik heb hem 2 dagen voor NDA afliep gebouwd en toen waren er nog geen drivers beschikbaar voor TitanZ. Dus ik kon zelf niets testen of optimaliseren. De drivers die gebruikt werden door HWI gaan dan sowieso nog geen week oud zijn. Daar gaat amper iets van optimalisatie inzitten, zeker voor de deze specifieke dual titanz situatie. Dus er is nog wel ruimte voor verbetering.Verwijderd schreef op zondag 08 juni 2014 @ 10:05:
Titan Z sli review
http://nl.hardware.info/r...view-tones-tizair-systeem
Wat een tegenvaller, te langzaam te duur en ook nog eens nergens nuttig voor.
Wordt ook duidelijk en meermaals gemeld in de review dat de resultaten hier en daar niet helemaal consequent zijn en dit eventueel wel met drivers op te lossen is.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Neemt niet weg dat het een vrij nutteloos product is, kijkend naar prijs/prestatie.Noel schreef op zondag 08 juni 2014 @ 13:39:
[...]
Ik heb hem 2 dagen voor NDA afliep gebouwd en toen waren er nog geen drivers beschikbaar voor TitanZ. Dus ik kon zelf niets testen of optimaliseren. De drivers die gebruikt werden door HWI gaan dan sowieso nog geen week oud zijn. Daar gaat amper iets van optimalisatie inzitten, zeker voor de deze specifieke dual titanz situatie. Dus er is nog wel ruimte voor verbetering.
Wordt ook duidelijk en meermaals gemeld in de review dat de resultaten hier en daar niet helemaal consequent zijn en dit eventueel wel met drivers op te lossen is.
Verwijderd
Dat is niets nieuws.
Zelfs een enkele kaart lijkt zijn doel voorbijgestreeft te hebben als het voor gaming is, dan wacht je best op de GTX 790.
[ Voor 14% gewijzigd door Phuncz op 08-06-2014 16:26 ]
True. Ik snap ook niet dat er dan nog steeds mensen zijn die afkomen met te duur, belachelijk, nutteloos, slechte prijs/prestatieverhouding, etc. Denk dat iedereen dat wel door heeft en dat het verder gewoon gimmicks zijn. Zo gaat het al jaren.Amanoo schreef op zondag 08 juni 2014 @ 17:08:
Grappen als de Titan Z hebben gewoon een hoog "kijk eens wat ik heb"/"kijk eens wat ik kan" gehalte, punt. Er is altijd al een top end reeks geweest die gewoon nergens op sloeg, en die bestaat enkel om stom mee te kunnen patsen, zowel voor Nvidia als de enkeling die het koopt.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Moet er niet aan denken :Phuncz schreef op zondag 08 juni 2014 @ 09:07:
LOL nóg groter ?
Gewoon een beetje plannen en uitzoeken, dan heb je geen gigantische planken en cases nodig:
[afbeelding]
CPU en GPU draaien nu op waterkoeling, minder lawaai.
- 1 videokaart
- Bijna geen plek voor storage

Hooguit leuk als LANbak
Mijn eVGA 4-Way SLI had dat, maar die ging stuk dus kocht ik een AsRock Extreme11 vanwege 7x PCIe en 8x LSI SAS controller en die is gewoon kleiner helaas!mark schreef op zondag 08 juni 2014 @ 11:54:
Als ze gewoon het primaire x16 slot wat lager zouden plaatsen zou het ook geen probleem zijn
Ideaal vind ik de eVGA SR-1 of SR-2 met wat meer ruimte tussen het laatste slot en de onboard USB en dergelijk eronder.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik zou een upgrade willen doen qua GPHX kaart , ik zit nog te dubben om er een 2de 580 bij te prikken , maar ik lees ook dat ze dan Enorm veel vermogen en energie trekken samen.
Wat is een goede performance wise upgrade voor , de kaart zou ik evt ook wel 2dehands willen kopen , daar heb ik geen problemen mee,
https://www.instagram.com/indigobeatz_rebelchild/
Op zich is SLI leuk maar 1,5GB is niet meer van deze tijd. Je gaat beter voor een GTX 770 of 780 in mijn ogen.ProCeela schreef op maandag 09 juni 2014 @ 08:28:
Wat is nu de beste upgrade om te doen , ik heb een Quad core Xeon die op 3,4ghz loopt met 12gb ram geheugen met een GTX 580 met 1,5gb geheugen.
GTX 590 vs GTX 780:
http://www.anandtech.com/bench/product/1185?vs=1036
GTX 590 vs GTX 780
http://www.anandtech.com/bench/product/1185?vs=1037
De GTX 590 is eigenlijk een dubbele GTX 580 op één kaart (lagere clocks) en hierdoor ook geen PCIe beperking ofzo. Dus een ruwe vergelijking wat je zou hebben met twee GTX 580's en één GTX 780 of één GTX 770.
Buiten wat uitzonderingen en Compute toepassingen, gaan de GTX 770 en de GTX 780 sneller, stiller en zuiniger zijn. Evenals ook meer (toekomstige) technieken ondersteunen.
Al mijn storage zit in mijn NAS, 6x 2TB's. SSD'tje kan tegenwoordige op een latje dus eigenlijk zijn 2,5" bays zelfs al "wasted"nero355 schreef op zondag 08 juni 2014 @ 23:08:
Moet er niet aan denken :
- 1 videokaart
- Bijna geen plek voor storage
Meerdere GPU's heb ik eigenlijk nooit interesse in gehad, heb geen surround gaming en ik heb geen verplichting naar mezelf om het meest extreme qua settings te halen (16x MSAA of zo) dus ik kom met één kaartje toe
Maar ik zie de aantrekking wel hoor ! Maar ik hou meer van kleine PC's die efficient gebouwd zijn.
[ Voor 21% gewijzigd door Phuncz op 09-06-2014 08:48 ]
Verwijderd
https://developer.nvidia..../flex-unified-gpu-physics
Goed nieuws voor iedereen. Het is wel een oud artikel maar ja beter laat dan nooit.
[ Voor 13% gewijzigd door Verwijderd op 11-06-2014 15:11 ]
i7 860 3.94ghz/mugen 2b/lancool k62/corsair hx650/vertex II/asus p7p55e pro/msi gtx570 oc/ OCZ3G1866LV6GK /xfi pro elite/Samsung 214t tft/3 hd's/plex dvd
Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"Verwijderd schreef op woensdag 11 juni 2014 @ 15:10:
Nvidia is blijkbaar ook bezig om zijn technieken open te maken, zoals Physx over Directcompute.
https://developer.nvidia..../flex-unified-gpu-physics
Goed nieuws voor iedereen. Het is wel een oud artikel maar ja beter laat dan nooit.
Aangezien 3.4 nog niet eens is aangekondigd, laat staan dat er een developer iets mee doet - wellicht is mijn 2028 dan nog wat optimistisch ook
En dit is geen nieuws. Dit stamt al van vorig jaar.
[ Voor 18% gewijzigd door Werelds op 12-06-2014 00:41 ]
Verwijderd
Ik verwacht het ergens in 2015-1016 FLEX omdat Nvidia er toch wel druk mee bezig is, en waarschijnlijk in de aankomende Batman game.
Edit
Na wat verder zoeken maakt The Witcher 3 ook gebruik van FLEX Physx.
http://wccftech.com/nvidi...ysx-turbulence-particles/
En het komt in de Cry engine en in de UR4 engine.
Maak er maar op zijn laatst 2015 van.
[ Voor 42% gewijzigd door Verwijderd op 12-06-2014 09:56 ]
Enige positieve is dat het eindelijk PhysX 3.x is.
Verwijderd
Gerucht, de Nvidia 800 series komt later dit jaar, goedkoper en dan de vorige series (700) en op 20nm.
http://wccftech.com/nvidi...erful-cheaper-700-series/
Laat dit jaar, dus het zal wel volgend jaar worden op 20nm.
[ Voor 16% gewijzigd door -The_Mask- op 13-06-2014 11:57 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hmm dus dit klinkt (goedkoper, kleiner procede) meer als een node-shrink van Kepler dan een nieuwe GPU van Maxwell. Of ze hebben Maxwell veel versimpeld zodat hij niet duur is geworden? Of de productie problemen van 20nm vallen erg mee en de prijs kan naar beneden?Verwijderd schreef op vrijdag 13 juni 2014 @ 11:52:
Oké duidelijk.
Gerucht, de Nvidia 800 series komt later dit jaar, goedkoper en dan de vorige series (700) en op 20nm.
http://wccftech.com/nvidi...erful-cheaper-700-series/
Laat dit jaar, dus het zal wel volgend jaar worden op 20nm.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Het zijn wel geruchten die moet je niet te serieus nemen maar het kan wel kloppen en is het dus nog afwachten. Die kerels van al die site's kunnen het niet zeker weten maar speculeren is wel leukXanderDrake schreef op vrijdag 13 juni 2014 @ 11:57:
[...]
Hmm dus dit klinkt (goedkoper, kleiner procede) meer als een node-shrink van Kepler dan een nieuwe GPU van Maxwell. Of ze hebben Maxwell veel versimpeld zodat hij niet duur is geworden? Of de productie problemen van 20nm vallen erg mee en de prijs kan naar beneden?
Hmm, persoonlijke aanval richting die schrijven lijkt me per definitie niet gepast.... Maar;-The_Mask- schreef op vrijdag 13 juni 2014 @ 11:55:
Als de schrijver zelf ook maar een klein beetje verstand had dan wist die dat het natuurlijk nergens op slaat. Zelf nVidia weet de prijzen van hun toekomstige prijzen nog niet zo ver vooruit en dan zal één of andere hobby bob van een flut site het wel weten? Prijzen worden natuurlijk net voordat een product launcht bepaald en niet een half jaar van te voren.
Lijkt me duidelijk... (bold in de bron).Now, take this with a pinch of salt. These guys have never failed us in the past so I owe it to them to not label it as a rumor.
Verder is een voorspelling doen momenteel niet zo heel moeilijk. De GTX 750 Maxwell is momenteel een prijs/prestatie kanon (12% beter dan bijvoorbeeld een R7 260, 59% dan een GTX 650). De laatste architecturen van Nvidia bleken allemaal een succes. Tussen 2011 en 2011 ging de operationele winst van 200M naar 600M. Met fermi begonnen ze weer een beetje winst te draaien op de consumenten kaarten. Met Kepler zat er gewoon een lekkere marge op. We weten nu al hoe goed Maxwell is.
Wat dat betreft kun je wel veronderstellen dat Nvidia een prijs kan maken. Immers AMD verkoopt nog voor bodemprijzen. Die "stutten" momenteel de "Graphics" winst door de SoC oplossing erbij te plakken.
Vervolgens gebruiken ze dat weer als "excuus" voor een dalende marge:
Dat samen met een dalende R&D uitgave in Graphics belooft niet veel goeds voor AMD. En dat is slecht nieuws, want Nvidia bepaalt de prijzen ahv wat AMD doet.Gross margin in 2013 was adverselyimpacted by the lower average gross margins in our Graphics and Visual Solutions segment primarily driven bylower margin semi-custom SOC products, which we began shipping in the second quarter of 2013
[ Voor 9% gewijzigd door sdk1985 op 13-06-2014 20:36 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Hun 'source' is Expreview, die zelf verwijzen naar een Koreaanse site met 'drama, movie and celebrity news'. Het 'gerucht' an sich kan iedereen trouwens zelf ook wel bedenken, het ligt nou eenmaal nogal voor de hand dat je bij een nieuwe generatie meer prestaties voor hetzelfde geld krijgt.
Het is gewoon dom om iets over prijzen te gaan schrijven, terwijl zelf nVidia nu niet met prijzen bezig is.sdk1985 schreef op vrijdag 13 juni 2014 @ 20:33:
[...]
Hmm, persoonlijke aanval richting die schrijven lijkt me per definitie niet gepast.... Maar;
[...]
Lijkt me duidelijk... (bold in de bron).
R7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.Verder is een voorspelling doen momenteel niet zo heel moeilijk. De GTX 750 Maxwell is momenteel een prijs/prestatie kanon (12% beter dan bijvoorbeeld een R7 260, 59% dan een GTX 650).
De laatste architecturen van Nvidia bleken allemaal een succes. Tussen 2011 en 2011 ging de operationele winst van 200M naar 600M. Met fermi begonnen ze weer een beetje winst te draaien op de consumenten kaarten. Met Kepler zat er gewoon een lekkere marge op. We weten nu al hoe goed Maxwell is.
Volgens mij is de grafische divisie van AMD al jaren prima winstgevend in tegenstellingen tot de CPU divisie.Wat dat betreft kun je wel veronderstellen dat Nvidia een prijs kan maken. Immers AMD verkoopt nog voor bodemprijzen. Die "stutten" momenteel de "Graphics" winst door de SoC oplossing erbij te plakken.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nope. Zie passmark:quote: The_MaskR7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.
GeForce GTX 750 3264
Radeon R7 260X 2994
Let op dat die GTX 750 niet eens een stroomaansluiting heeft. Iedereen met een beetje gevoel voor gpu historie herkent wat een prestatie die GTX 750 is op dat prijspunt. Stel je voor dat er een 200W kaart komt op die architectuur... Het geeft ook aan dat het ding veel sneller kan (kwestie van wat meer stroom geven).
Absoluut niet waar...Volgens mij is de grafische divisie van AMD al jaren prima winstgevend in tegenstellingen tot de CPU divisie.
2011 werd er op 1565 miljoen omzet 51 miljoen OPERATIONELE winst gemaakt.
http://ir.amd.com/phoenix...4093&p=irol-reportsannual
Dus dat is min of meer product dumping. De jaren ervoor is het niet beter. AMD geeft zichzelf de schuld door productie tekorten. Ik geloof dat alle jaren sinds de Ati overname opgeteld nog niet de jaarwinst van Nvidia overtreffen... Ter vergelijking: Nvidia haalt netto regelmatig 300-600 miljoen per jaar binnen.
AMD heeft Ati voor 5 miljard overgenomen, totaal ongeveer 2 miljard moeten afschrijven. Vervolgens zijn ze tot op heden nog niet in staat geweest om een fatsoenlijke marge te behalen. Met Southern Island leek het even of AMD het licht had gezien (relatief duurder), maar dat heeft niet lang geduurd.
R&D gaat er ook elk jaar op achteruit lijkt het wel (begonnen ooit met 1800 miljard, nu <1400 en dan nog niet eens inflatie meegerekend).
Zonder te investeren kun je haast niet met een superieur product komen. Financieel gezien zijn ze tot op heden dan ook succesvol geweest. Als het stof daalt en je op een "succes" als de 4870 reflecteert, dan kun je alleen concluderen dat die kaart te goedkoop is verkocht. AMD is helaas dus een beetje een zinkend schip.Research and development expenses of $1.2 billion in 2013 decreased by $153 million, or 11%, compared
to $1.4 billion in 2012.
Ik durf onderhand stellig te beweren dat "gamers" beter waren afgeweest als AMD Ati niet had overgenomen. Ati was immers een gezond bedrijf met premium kaarten. AMD heeft zich verslikt en uiteindelijk kan het haast niet anders dat AMD ook op gpu vlak gaat achter lopen. Nvidia researched immers lekker door, met een steeds groter budget, en met steeds meer winst.
[ Voor 37% gewijzigd door sdk1985 op 13-06-2014 23:29 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Passmark.sdk1985 schreef op vrijdag 13 juni 2014 @ 23:17:
[...]
Nope. Zie passmark:
GeForce GTX 750 3264
Radeon R7 260X 2994
Zullen we maar naar games gaan kijken, daar gaat het toch uiteindelijk om.
http://www.techpowerup.co...eForce_GTX_750_Ti/25.html
Van MaximumPC:Absoluut niet waar...
On the flip side, AMD's Graphics and Visual Solutions division increased its revenue by 29 percent sequentially and a whopping 165 percent year-over-year.
http://www.maximumpc.com/...hat_graphics_division2014Operating income for graphics came to $121 million in the fourth quarter of 2013.
[ Voor 6% gewijzigd door -The_Mask- op 13-06-2014 23:45 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
edit: Ik had het over de non-Ti, die is < €100. Maar op die link komt de 260X er niet best vanaf
Zoals gezegd hebben ze Visual Solutions toegevoegd aan de gpu tak om zo de winst te boosten (daar komen nu de console royalties). Als je in de Annual Report van AMD kijkt dan zie je dat AMD zelf aangeeft dat de winststijging volledig wordt veroorzaakt door die toevoeging.AMD's Graphics and Visual Solutions division increased its revenue by 29 percent sequentially and a whopping 165 percent year-over-year.
Dus bedankt, beide punten ondersteunen mijn post
[ Voor 21% gewijzigd door sdk1985 op 14-06-2014 00:02 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 14% gewijzigd door haarbal op 14-06-2014 00:03 ]
Mechwarrior Online: Flapdrol
Bij een gpu praat je over rendering wat je in zoveel kleine stukjes kan opsplitsen als je zelf wil. Synthetic op GPU zijn IMO gewoon een prima maatstaf. Heet ook eigenlijk videobenchmarks.net maar het is eigendom van passmark
*Had het overigens over de non-Ti, die heb je voor <€100), De Ti is natuurlijk ook leuk.*
[ Voor 35% gewijzigd door sdk1985 op 14-06-2014 00:04 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Ze hebben geen eens een prijs bekent gemaakt, enkel dat het mogelijk is dat deze serie goedkoper word dan de vorige serie en dat is gewoon mogelijk. Er staat verder duidelijk bij dat het met een korreltje zout genomen moet worden. Niet gelijk zo als een dolle tekeer gaan-The_Mask- schreef op vrijdag 13 juni 2014 @ 21:00:
[...]
Het is gewoon dom om iets over prijzen te gaan schrijven, terwijl zelf nVidia nu niet met prijzen bezig is.
[...]
R7 260X, R7 265 en R9 270, de omliggende kaarten van AMD hebben allemaal een betere prijs/prestatie, alleen performance/watt is minder.

De GTX780 is volgens Passmark 20% sneller dan een 290X, ik zou het als 780 eigenaar graag willen maar het is niet zo
Verwijderd
Verder denk ik dat je niet op de hoogte bent van het 88xx series debacle.
Het enige dat Nvidia wel goed voor elkaar heeft zijn hun koel oplossingen.
Verwijderd
Bron.
http://www.pcworld.com/ar...ump-amd-video-cards-.html
Nvidia reference kaarten zijn naar mijn weten allemaal het zelfde en daar worden iets betere componenten voor gebruikt (verklaart ook minder uitval) en dat is ook een van de redenen dat de kaarten wat duurder zijn.
Correctie. En de gpu chips.spNk schreef op zaterdag 14 juni 2014 @ 12:01:
Het enige dat Nvidia wel goed voor elkaar heeft zijn hun koel oplossingen.
[ Voor 26% gewijzigd door Verwijderd op 14-06-2014 15:18 ]
Inderdaad goede manier om te kijken hoe snel een gpu is, ik kijk vaak eerst naar de SuperPi score van een cpu voor ik er een koop. Dat bepaald namelijk hoe snel die is, voor gpus keek ik voorheen naar de bitcoin score maar ik zie dat passmark een betere indicatie geeft?sdk1985 schreef op vrijdag 13 juni 2014 @ 23:17:
[...]
Nope. Zie passmark:
GeForce GTX 750 3264
Radeon R7 260X 2994
@Magherb82
Ben wel benieuwd naar de bron
Wat betreft gpu chips, zover ik weet heeft ATI/AMD altijd betere gpu chips gemaakt en is Nvidia vooral goed in het software gedeelte. Pas sinds de 6xx serie vind ik Nvidia op hetzelfde niveau (en arguably better) zitten als AMD.
Verwijderd
Zal best dat AMD betere chips maakte Mijn reactie was ook meer dat Nvidia ook goede chips maakt maar ik weet niet of ze slechter of beter zijn, ik vind ze van AMD goed en die van Nvidia ook omdat ik met beide nooit problemen heb gehad maar dat zegt natuurlijk niets.
Waar van ik denk dat Nvida een slechte gpu chip heeft gemaakt is de GTX400 series of lag het hoge verbruik of het lekken niet aan de chip zelf?
Dank jeVerwijderd schreef op zaterdag 14 juni 2014 @ 15:25:
Toegevoegd
Zal best dat AMD betere chips maakte Mijn reactie was ook meer dat Nvidia ook goede chips maakt maar ik weet niet of ze slechter of beter zijn, ik vind ze van AMD goed en die van Nvidia ook omdat ik met beide nooit problemen heb gehad maar dat zegt natuurlijk niets.
Waar van ik denk dat Nvida een slechte gpu chip heeft gemaakt is de GTX400 series of lag het hoge verbruik of het lekken niet aan de chip zelf?
Ze hebben bij de GTX480 een monster chip gemaakt zonder dat ze enige ervaring met het procedé hadden. Dit kan problemen opleveren, AMD heeft het die generatie slimmer aangepakt door eerst het 40nm procedé uit te testen met de HD4770 dus ze hadden al enige ervaring en waren meer berekent op eventuele dingen die konden foutgaan.
Je zag ook dat ze met de GTX500 iets meer ervaring hadden gekregen en dat ze daardoor het stroomgebruik hebben kunnen terugschroeven, de chips gebruikten nog steeds veel maar niet meer de 320Watt die de GTX480 uit de muur kon trekken
Uiteraard hebben ze daar van geleerd, maar jouw stelling was dat nvidia altijd "betere componenten" gebruikt, wat dus niet waar is.Verwijderd schreef op zaterdag 14 juni 2014 @ 12:11:
Ik ben zeker wel op de hoogte van de 8800 serie maar waarom zou ik dat er bij moeten halen want dat is iets van een paar jaar terug en niet van nu, daar hebben ze bij Nvidia inmiddels vast wel van geleerd want de uitval van kaarten nu ligt iets van 2% lager dan bij AMD.
Dat weet ik niet zeker, mogelijk mogen fabrikanten gewoon zelf weten wat voor componenten ze gebruiken, zolang er maar niets aan het board design veranderd. Nogmaals, daar ben ik niet zeker van.Nvidia reference kaarten zijn naar mijn weten allemaal het zelfde en daar worden iets betere componenten voor gebruikt (verklaart ook minder uitval) en dat is ook een van de redenen dat de kaarten wat duurder zijn.
Mja, daar valt over te twisten, maar ik vind de GPU zelf niet onder componenten vallen.Correctie. En de gpu chips.
Mmmm. Ben benieuwdVoor mij komt het niet onlogisch over. 20nm waarschijnlijk voorlopig niet goed genoeg voor productie en je moet toch wat nieuws introduceren om je omzet op pijl te houden.
De hamvraag voor mij is alleen hoe lang daarna 20nm dan komt. Wil zelf wel weer wat nieuws (heb nu 670SLI wat heel goed bevalt, inmiddels enorme bang for buck qua levensduur alleen geheugen wordt wat krap) maar als 20nm dan een half jaar later al komt dan ben ik ook niet blij.
Of wellicht heb ik te hoge verwachtingen van de performance sprong van Maxwell 28nm naar 20nm ? De nieuwe nodes zijn tegenwoordig niet perse meer een enorme prestatiewinst volgensmij.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik zie alleen niet in hoe GM204 een geweldige zet is op 28nm. De performance van GM107 is wel *iets* beter maar nauwelijks de sprong die we willen zien. Als dit klopt, gaat dit meer aanvoelen als een refresh dan een nieuwe generatie.
Verwijderd
De sprong is 2x performance per Watt (aldus het artikelWerelds schreef op woensdag 18 juni 2014 @ 14:26:
Prestaties wel, de nieuwe nodes worden alleen steeds nadeliger op alle andere vlakken. Het wordt steeds lastiger om ze efficiënt te houden omdat de transistors zo dicht op elkaar zitten; dat zien wij terug in warmere chips die meer verbruiken
Ik zie alleen niet in hoe GM204 een geweldige zet is op 28nm. De performance van GM107 is wel *iets* beter maar nauwelijks de sprong die we willen zien. Als dit klopt, gaat dit meer aanvoelen als een refresh dan een nieuwe generatie.
Maar dat het een stuk beter wordt is zeker. Dat is al zichtbaar is in de GTX 750/750 Ti die geen externe power nodig hebben, maar wel beter presteren dan de vorige generatie MET externe voeding.

Van 54 naar 100% voor het GTX x50 Ti model.
Wie herrinert zich nog Fermi? De stap van Nvidia naar goede performance/watt?
Dat zag er zo uit:

Van 67% naar 100% voor het GTX x60 model. Terwijl AMD daar eigenlijk al was.
Als je denkt dat het Maxwell een refresh wordt dan heb je niet goed opgelet
[ Voor 30% gewijzigd door sdk1985 op 18-06-2014 16:17 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ben benieuwd.
Er is ook meer over de specs bekend:http://wccftech.com/gtx-880-arrive-oct-nov/
Lol was al op de voor pagina gemeld.
[ Voor 11% gewijzigd door kobus71 op 18-06-2014 16:32 ]
Daar zit de grote clou.sdk1985 schreef op woensdag 18 juni 2014 @ 16:11:
[...]
De sprong is 2x performance per Watt (aldus het artikel). Of het precies 2x is dat zal wel niet (daar is het getal te rond voor).
-snip-
Als je denkt dat het Maxwell een refresh wordt dan heb je niet goed opgelet.
Het boeit geen reet hoe veel meer performance per Watt ze er uit krijgen geperst als ze nog steeds tegen dezelfde muur aanlopen waar GK104 en GK110 zich aan houden
Ze krijgen er niet meer transistors in gepompt dan voorheen en die performance per watt vertaalt zich niet 1:1 op nanometer niveau. Daar mag je eerder rekenen op hooguit 20-30% omdat ze alles net iets rapper kunnen laten tikken zonder tegen het TDP aan te lopen. Onthoudt even dat GM107 _exact_ dezelfde transistor dichtheid als GK110 heeft en GK104 ligt daar miniem achter: 12,6/mm^2 voor GK110/GM107, 12 voor GK104. Onthoudt ook dat GM107 dan wel dicht bij de 200% zit vergeleken met GK107 qua prestaties, hij is ook een stuk groter en heeft een stuk meer transistors. Ze mogen wel in dezelfde "tier" zitten qua naamgeving, qua eigenschappen is dat absoluut niet het geval.
Ik denk dat jij eerder niet goed hebt gelezen wat ik precies schreef
Dan weet ik gelijk wat mijn nieuwe HTPC favoriet is
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Je doet veel te moeilijk. Lijkt een beetje op die altijd maar terug kerende "maar die kaart is te duur en complex" discussie, terwijl 4 maanden later uit de kwartaal cijfers blijkt dat het dure aspect kant nog wal slaat en er dikke winsten worden gedraaid.Het boeit geen reet hoe veel meer performance per Watt ze er uit krijgen geperst als ze nog steeds tegen dezelfde muur aanlopen waar GK104 en GK110 zich aan houden
Er wordt nu eenmaal op performance per watt gebouwd tegenwoordig. Net als Intel die de Wet van Moore in stand houdt omdat ze zelf als bedrijfsmissie juist het instand houden van die wet hebben staan
De gtx750 (ti) is af en ligt in de winkel. Als we er van uitgaan dat er een gelijkwaardig TDP wordt gesteld voor de high end kaarten dan is per definitie de volgende kaart dus x % sneller. In dit geval kun je dan op basis van techpower gaan schatten.
De GTX 770 zit op 59% waarbij de GTX 750 100% is. Dat is dus 100/59=1,69. De 750 is dus 1,69 keer beter per Watt. Dan kun je dus verwachten dat een kaart met een gelijkwaardig TDP (230W) dus ook 69% sneller is.
Natuurlijk kan Nvidia dat te dol vinden en het TDP verlagen, maar technisch lijkt het geen probleem te zijn. Immers de architectuur heeft zichzelf al bewezen. Zal vooral afhangen van waar AMD mee komt.
Bij Kepler was het eigenlijk niet anders. Het kon wel sneller, maar het hoefde niet. Kepler kwam oorspronkelijk uit met 170W voor de 670 en 195W voor de 680. Pas met de 7xx serie is het TDP verhoogd.
Het zit er eigenlijk dik in dat het TDP nu ook wel weer iets omlaag zal gaan. Dus wat dat betreft is het dan waarschijnlijk verstandiger om van het TDP van een 680 uit te gaan voor de nieuwe GTX 870 (maar dat is koffiedik kijken).
Die zit echter op 55% tov 100% dus dan kom je op 100/55= 81% sneller dan een GTX 680.
Over een paar maanden weten we het zeker. Maar gezien het succes van zowel Fermi als Keppler zie ik geen reden om somber te gaan lopen doen. Het lijkt erop dat er weer mooie tijden aan komen voor gpu land
[ Voor 19% gewijzigd door sdk1985 op 19-06-2014 00:34 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Nee, jij doet veel te makkelijk.sdk1985 schreef op donderdag 19 juni 2014 @ 00:27:
Je doet veel te moeilijk.
Nogmaals, performance per Watt ligt wel hoger, maar als je kijkt naar performance per SP vergeleken met GK107 (wat nu eenmaal de directe voorganger is) zul je zien dat daar geen enkel verschil in zit. Ik zal heel kort rekenen voor je, heb helaas geen tijd om een volledige som te doen:
- GK107: 384/32/16 op 118 mm^2 met 1300m transistors
- GM107: 640/40/16 op 148 mm^2 met 1870m transistors
Dat is SP/TMU/ROP hierboven. TPU zegt dat overall performance (dus niet per Watt) voor de GTX 650 61% is tegenover de 750 Ti. Even snel rekenen:
- 61 / (1300 / 1870) = 87,8% performance/transistor
- 61 / (384 / 640) = 101,7% performance/SP
Dichtheid:
- 1300m / 118 = 11,02 transistors/mm^2
- 1870m / 148 = 12,64 transistors/mm^2
Dit is wat ik je duidelijk probeer te maken. Hoewel de 750 Ti per Watt veel beter scoort, winnen ze dus geen reet per SP, wat toch de belangrijkste factor voor performance is. Dat GK107 lager ligt per transistor ligt vooral aan de toch behoorlijk lagere dichtheid.
En om het verhaal compleet te maken, GK110 heeft een dichtheid van 7080m / 561 = 12,62m transistors /mm^2. Juist ja, exact hetzelfde als GM107. GK104 ligt iets lager op 3540m / 294 = 12,04m transistors/mm^2.
Gaan we er even van uit dat ze met GM104 gewoon die 12,6 halen en gaan we simpelweg uit van GK104 als doel qua oppervlak, dan zou je 294 * 12,6 = 3704 transistors kwijt komen. Trekken we de lijn van GK107 dan door met minder TMUs per SP (1 op 16 in plaats van 1 op 12 zoals in GK104) zou je wellicht ergens rond 1792 SPs kwijt kunnen - we zullen wel gewoon 32 ROPs nodig hebben dus daar besparen we niets. En dan zit je al slechts te kijken naar maximaal 15% winst over GK104. Leuk dat ze dat dan wellicht klaar spelen met 130W in plaats van 180W, maar maakt zoals ik al zei voor de absolute performance geen reet uit.
20nm is gewoon een noodzaak voor enige zinvolle prestatie winsten (en nogmaals, dan heb ik het over daadwerkelijke performance, niet over een relatieve term als performance per Watt), tenzij Nvidia GM104 over de 300mm^2 heen laat gaan. Maar dan wil ik niet weten hoe monsterlijk groot GM110 wordt
Fermi? Een success?het succes van zowel Fermi

Edit: laat ik anders weer even een van onze favoriete vergelijkingen maken: auto's. En dan ook Volkswagen, want dat rijd ik zelf
VAG kwam enkele jaren geleden met een 1,4 liter 4 cilinder blokje, met daar een turbo bovenop geplakt (1.4 TSI dus). Dat was goed voor 160 PK bij een verbruik van 1 op 15 à 16.
Dat TSI blokje had wat problemen en was aan vernieuwing toe. Zie daar, nieuwe 1.4 TSI. Slechts 140 PK deze keer, maar wel met een verbruik van slechts 1 op 21 (pakweg) en kotste ook nog eens minder CO2 uit. Prestaties voor z'n verbruik beter dan voorheen, maar in de werkelijkheid was hij gewoon net iets trager dan z'n onzuinigere voorganger. Niet veel, maar toch.
In algemenere termen: performance per vermogen beter dan voorheen, absolute performance niet. Komt je dat niet bekend voor?
[ Voor 27% gewijzigd door Werelds op 19-06-2014 12:11 ]
Mits we het 300-350w stroomverbruik buiten beschouwing latensdk1985 schreef op donderdag 19 juni 2014 @ 00:27:
Maar gezien het succes van zowel Fermi
GTX480 */zucht
[ Voor 3% gewijzigd door !mark op 19-06-2014 13:24 ]
* en de 9 maanden vertraging!mark schreef op donderdag 19 juni 2014 @ 13:24:
[...]
Mits we het 300-350w stroomverbruik buiten beschouwing laten
GTX480 */zucht
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte
Zelfs GF110 was geen geweldig product. GF100 was gewoon ronduit een slecht product. GF104 en met name GF114 hebben de architectuur nog van z'n beste kant laten zien, maar over de gehele generatie was Fermi gewoon het slechtste van Nvidia sinds de Stofzuiger 5000 serie.
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant (die van de huidige GTX-en is prachtig maar ook niet muisstil en om nog maar te zwijgen over het rode kamp, stilte koeling ==> custom/aftermarkt koeling zoals al jaren gebruikelijk is (TF2-3-4/WF3/DCU2)Werelds schreef op donderdag 19 juni 2014 @ 14:34:
[...]
* en de 9 maanden vertraging
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte
Hoop dat we binnenkort een wat breder aanbod van maxwell mobile gaan zien. Ben namelijk op zoek naar een lenovo e540 maar dan met maxwell of een degelijke laptop met een 850m (helaas throttlen de verder goede n550 extreem)
[ Voor 9% gewijzigd door eL_Jay op 19-06-2014 14:40 ]
Verwijderd
Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?Werelds schreef op donderdag 19 juni 2014 @ 14:34:
[...]
* en de 9 maanden vertraging
* en de luidruchtige koeler
* en de slechte leverbaarheid wat de vertraging bijna 12 maanden maakte
Zelfs GF110 was geen geweldig product. GF100 was gewoon ronduit een slecht product. GF104 en met name GF114 hebben de architectuur nog van z'n beste kant laten zien, maar over de gehele generatie was Fermi gewoon het slechtste van Nvidia sinds de Stofzuiger 5000 serie.
Als nVidia zichzelf de 200watt TDP gunt, kunnen ze Maxwell waarschijnlijk verder clocken dan dat ze konden bij Kepler op die TDP. Dat is wat ik er ook uit haal.
Maar we gaan het zien.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
GTX580 was ook de tegenhanger van de HD6970Verwijderd schreef op donderdag 19 juni 2014 @ 14:54:
[...]
Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?
[quote]
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant
[quote]
Er is een verschil tussen luidruchtig en luidruchtig
HD6990, R9290(X) en GTX480 waren alledrie veel te luid.
Laten we de FX5800 Ultra buiten beschouwing
[ Voor 33% gewijzigd door !mark op 19-06-2014 15:07 ]
Er is een verschil tussen muisstil of standje tornado zoals bij de 480 het geval was en nu bij de 290. Zeker als je concurrent op minder dan 10% performance achter je ligt terwijl jouw chip 60% groter is en veel warmer wordt.eL_Jay schreef op donderdag 19 juni 2014 @ 14:39:
De eerste stille referentiekoeler voor een high-end gpu moet nog worden gemaakt dus dat maakt je argument nogal irrelevant
GF110 maakte alleen goed hoe slecht GF100 was. De 5870 is ook niet waar je GF110 moet vergelijken, dat is Cayman (69x0). Cypress (58x0) zat zoals ik net zeg nog geen 10% achter GF100, maar was veel kleiner, stiller, koeler en op tijd. Wellicht heb je dat toen niet mee gekregen, maar de 480 kwam driekwart jaar later dan oorspronkelijk gepland doordat Nvidia productie problemen had. Daarom volgde de 580 ook zo snel en hebben we ook nooit een GF100 gezien met alle SMs ingeschakeld.Verwijderd schreef op donderdag 19 juni 2014 @ 14:54:
Wat een totale onzin, de gf110 was een geweldige chip vergelijkbaar en zelfs beter dan de hd 5870, dus dat is ook een slechte chip dan?
Waar haal je dat uit dan?XanderDrake schreef op donderdag 19 juni 2014 @ 14:57:
Als nVidia zichzelf de 200watt TDP gunt, kunnen ze Maxwell waarschijnlijk verder clocken dan dat ze konden bij Kepler op die TDP. Dat is wat ik er ook uit haal.
Maar we gaan het zien.
Want de 750 Ti draait "maar" op 1020, terwijl de 770 op 1046 draait. En als je naar GK107 kijkt, zie je snelheden van 928 tot 1058. En zoals ik hierboven al liet zien is de dichtheid bij GK107 ietsjes lager, dus daar is meer ruimte om met de kloksnelheden te spelen. Bij de hogere dichtheid in GK104, GK107 en GK110 lopen het verbruik en de temperatuur exponentieel op bij het verhogen van de kloksnelheid.
Ik betwijfel of er daadwerkelijk zo veel ruimte is qua kloksnelheden.
[ Voor 6% gewijzigd door Werelds op 19-06-2014 15:12 ]
Altijd lastig om de die hard "geeks" de oogkleppen af te nemen maar ik doe toch nog maar een poging:
Fermi was zeker een succes want Fermi heeft de consumenten tak weer winstgevend gemaakt.
Zie cijfers GPU only (dus zonder PSB en CPB)
2009: 2595 omzet met -246M
2010: 2660 omzet met -13M
2011: 2527 omzet met +30M
http://www.google.nl/url?...S9A&bvm=bv.69411363,d.ZWU
Als AMD of Nvidia een "snelle" kaart in de winkel legt met verlies maakt een product niet succesvol. Hooguit leuk voor de consument op korte termijn. Op lange termijn zit het R&D uitgave in de weg.
De Geforce 2xx reeks was dus NIET succesvol. Geforce 4xx en 5xx waren dat wel.
Dan komen we bij Kepler. Kepler is echt een ongekend succes. Abnormaal gewoon...
2012: 3816 omzet met winst 821 miljoen winst.
2013: 3251 omzet met 884 miljoen winst.
http://www.sec.gov/Archiv...3000008/nvda-2013x10k.htm
De "winst" is dus van -9% gestegen naar 1,1% met Fermi en +27% met Kepler.
Vergeet niet dat de consumenten tak voor een bedrijf als Intel / AMD / Nvidia puur aanwezig zijn om volume te draaien, zodat die onderzoekskosten een beetje te spreiden zijn. De winst komt normaal gesproken uit de hoge marge producten. In het geval van Nvidia dus de Quadro (PSB) markt (die elk jaar +- 300 M winst draait).
[ Voor 4% gewijzigd door sdk1985 op 19-06-2014 15:29 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ik heb juist dieper gekeken maatmadmaxnl schreef op donderdag 19 juni 2014 @ 15:19:
Kijk anders even verder dan dat je neus lang is. Duik dieper in de financieële raporten en kijk waar er nu precies verlies en winst mee is geboekt en waarmee niet.
Die cijfers hebben betrekking op de GeForce lijn. Niet op PSB (Quadro) en CPB (tegra etc).Our GPU business is comprised primarily of our GeForce discrete and chipset products which support desktop and notebook personal computers, or PCs,
plus memory products. Our PSB is comprised of our Quadro professional workstation products and other professional graphics products, including our
NVIDIA Tesla high-performance computing products. Our CPB is comprised of our Tegra mobile products which support tablets, smartphones, personal
media players, or PMPs, internet television, automotive navigation, and other similar devices. CPB also includes license, royalty, other revenue and associated
costs related to video game consoles and other digital consumer electronics devices. Original equipment manufacturers, or OEMs, original design
manufacturers, or ODMs, add-in-card manufacturers, system builders and consumer electronics companies worldwide utilize our processors as a core
component of their entertainment, business and professional solutions.
[ Voor 61% gewijzigd door sdk1985 op 19-06-2014 15:25 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 69% gewijzigd door madmaxnl op 19-06-2014 15:31 ]
Dit topic is gesloten.