Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Natuurlijk was het veel mooier geweest als zo'n gpu ook nog op 20nm zit dan is het helemaal een feestje voor nvidia maar dat gaat niet door. Misschien had nvidia toch maar van TSMC af moeten stappen, werd hun ook aangeboden in 2013 om ook ergens anders hun chips te laten bakken.
http://www.theinquirer.ne...-are-knocking-on-its-door
Nvida heeft al vaker door TSMC gedonder gehad, te weinig wafers en dat soort fratsen waar door er niet genoeg gpu's gemaak kunnen worden. Dit waren verder geen yield problemen wat er al snel van gemaakt werd, maar achteraf was het toch TMSC.
http://www.techpowerup.co...-28-nm-manufacturing.html
[ Voor 12% gewijzigd door Verwijderd op 01-04-2014 11:25 ]
Je gaat je toch afvragen waarom Nvidia altijd gezeik heeft bij TSMC, AMD/ATI hebben er eigenlijk nooit last van. Dan zou ik als bedrijf toch gaan kijken of je je chips wel goed ontwerpt voor massa productie.Verwijderd schreef op dinsdag 01 april 2014 @ 11:21:
Nvida heeft al vaker door TSMC gedonder gehad, te weinig wafers en dat soort fratsen waar door er niet genoeg gpu's gemaak kunnen worden. Dit waren verder geen yield problemen wat er al snel van gemaakt werd, maar achteraf was het toch TMSC.
http://www.techpowerup.co...-28-nm-manufacturing.html
Verwijderd
http://wccftech.com/amd-r...lack-skus-extreme-demand/
En ben het er wel mee eens waarom nvidia zo vaak gedonder heeft met TSMC maar daar kun je bijna alleen maar over speculeren ipv echt feiten maken.
Probleem bjij TSMC is vaak te weinig wafers misschien wel personeel?, je kunt niet voor iedere pc component in een keer allemaal chips gaan bakken op 20nm want ze hebben allerlei andere bedrijven die al eerder zijn met 20nm die al verkocht worden en ze zijn al bezig op 16nm.
[ Voor 110% gewijzigd door Verwijderd op 01-04-2014 11:53 ]
Heb je een bron waar specifiek staat dat het echt te weinig wafers zijn met de reden?
Pfff, wat lul je toch steeds... Ik zie geen link tussen wat je hier over AMD zegt en de TSMC 20/28nm issues.Verwijderd schreef op dinsdag 01 april 2014 @ 11:40:
Ook AMD heeft er problemen mee gehad, NIET om de wafers maar om andere zaken. Nadeel als het om AMD gaat dat ze weining los laten over hun problemen of ontkennen het misschien wel?
http://wccftech.com/amd-r...lack-skus-extreme-demand/
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Verwijderd
Als het gaat om AMD en wafers bij TSMC,
http://www.kitguru.net/co...ough-wafer-slots-at-tsmc/
Ik wil hier verder geen AMD discussie starten ook maar beantwoorde een vraag over AMD en daar zit geen bedoeling of zo achter.
[ Voor 61% gewijzigd door Verwijderd op 01-04-2014 12:48 ]
Waar zijn hier de problemen van AMD met TSMC te zien? Het enige "probleem" dat AMD heeft gehad is dat ze niet aan de vraag konden voldoen, wat alles behalve negatief isVerwijderd schreef op dinsdag 01 april 2014 @ 11:40:
Ook AMD heeft er problemen mee gehad, NIET om de wafers maar om andere zaken. Nadeel als het om AMD gaat dat ze weining los laten over hun problemen of ontkennen het misschien wel?
http://wccftech.com/amd-r...lack-skus-extreme-demand/
En ben het er wel mee eens waarom nvidia zo vaak gedonder heeft met TSMC maar daar kun je bijna alleen maar over speculeren ipv echt feiten maken.
Probleem bjij TSMC is vaak te weinig wafers misschien wel personeel?, je kunt niet voor iedere pc component in een keer allemaal chips gaan bakken op 20nm want ze hebben allerlei andere bedrijven die al eerder zijn met 20nm die al verkocht worden en ze zijn al bezig op 16nm.
Nvidia heeft productie problemen gehad die AMD niet heeft gehad; eind resultaat ontzettend waren slechte yields en dingen zoals het underfill probleem. Het is ook juist Nvidia die daar niet open over zijn geweest, het gezeik met Fermi hebben ze heel lang ontkend en dat lag toch echt bij hen en niet bij TSMC.
Verwijderd
http://www.extremetech.co...dia-threaten-to-jump-ship
Kijk anderen laten het zien van de negatieve kant als het om nvidia gaat ik laat ook een andere kant zien wat kan zijn. Dit is niet om anderen voor de schenen trappen dat is nooit mijn bedoeling maar men mag wel eens wat verder kijken toch?
[ Voor 5% gewijzigd door Verwijderd op 01-04-2014 12:13 ]
Ik wens Nvidia dan ook veel geluk met een andere foundry te vinden die aan de vraag kan voldoen. TSMC is nu eenmaal de grootste; op Intel na. Zie je dat al voor je, Nvidia die hun GPU's in Intel's fabs bakt?
Verwijderd
Ik zie het het ook van een andere kant en daar blijf ik bij ipv wijzen met vingertjes naar 1 kant toe, of beter gezegt ik zie het van 2 kanten die waar kunnen zijn omdat er gewoon niet voldoende info is om het als feiten te kunnen brengen. Volgens mij was het ook nooit goed geweest dit dit jaren terug hoer begon met speculaties en geen feiten.
Dit soort zaken wordt ws alleen maar erger in de toekomst omdat de benodigde investeringen om naar nog weer een kleiner proces toe te gaan astronomisch zijn en sterk toenemen. Alleen de allergrootsten kunnen dit nog enigzins opbrengen. Apple, Samsung, Intel.
Wel interessant artikel hierover: http://techsoda.com/no-20nm-graphics-amd-nvidia/
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Verder is dit niet oftopic geneuzel het is een discussie niet meer en niet minder waar we allemaal van kunnen leren.
[ Voor 55% gewijzigd door dion_b op 01-04-2014 13:26 ]
http://wccftech.com/nvidi...eforce-cards-performance/
Ben benieuwd!
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
en de tekst die erbij hoort leest :
Dit is toch gewoon mipmapping dat al jaaaaren lang bestaatDit betekent dat wanneer bijvoorbeeld een texture uit 16 tegels of pixels bestaat, er normaliter altijd ook kleinere versies worden opgeslagen met 4 tegels en 1 tegel. Wanneer niet het volledige detail nodig is, bijvoorbeeld omdat de texture op grote afstand staat, kan dan de versie met minder pixels snel getoond worden. Als de kleinere versies niet beschikbaar waren in het geheugen, moeten deze kleinere versies eerst opnieuw berekend worden. Voordat deze texture echter gebruikt kan worden moet eerst alle tegels (tiles) worden verstuurd, voor 16 pixels is dit dus 16+4+1 = 21 pixels. Hier komen tiled-resources om de hoek zetten, want slechts de helft van het aantal pixels is in dit geval al voldoende waarna de rest van de pixels vrij eenvoudig berekend kan worden.
Zoiets : http://en.wikipedia.org/wiki/File:MipMap_Example_STS101.jpg
Dan verstuur je toch alleen wat je nodig hebt en hoef je helemaal niks nieuws te berekenen ?!
* nero355 snapt het niet helemaal... Kan iemand dit goed uitleggen ?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Bij MIP mapping moet élke versie van de afbeelding gestuurd worden. Beter gezegd, alle versies samen worden als 1 enkele afbeelding opgeslagen en moet ook in z'n geheel gelezen/geschreven worden. Dus als jij een 2048x2048 texture hebt met een minimum van 16x16 heb je in totaal (2048^2)+(1024^2)+(512^2)+(256^2)+(128^2)+(64^2)+(32^2)+(16^2) = 5592320 pixels. Gaan we nu even uit van 32bpp is dat 4 bytes per pixel, of wel 5592320 * 4 = 22369280 bytes ofwel iets meer dan 21 MB aan data dat in je geheugen moet blijven zitten.
Bij tiled resources blijven alleen de delen in het geheugen die je nodig hebt. Met andere woorden, bij een grote texture wil je waarschijnlijk de grote versie en misschien de 128x128 versie; dan blijven ook alleen die versies in het geheugen.
Wat het betekent is dat we gigantische textures kunnen hebben, zonder daarbij gigantische hoeveelheden VRAM nodig te hebben.
Overigens is dit wat MegaTexture is en wat Tech 4/4.5 dus in software doet. Het zit dan ook al veel langer in OpenGL voor AMD (AMD_sparse_texture) en AMD heeft het ook bijna 2.5 jaar geleden al in hun GPU's ingebouwd, zij noemden het alleen Partially Resident Textures: http://www.anandtech.com/...d-radeon-hd-7970-review/6 - Overigens doet AMD het wel in hardware en niet in software; AMD's implementatie is dus sneller.
En als laatste een video met een demo: http://channel9.msdn.com/Events/Build/2013/4-063
Spring naar 17:30
Disclaimer: alle cijfertjes zijn afkomstig van mijn duim met behulp van wat zuigwerk en dienen alleen als eenvoudig voorbeeld
Edit: overigens blundert HWI daar wel gigantisch door te zeggen dat TW zo'n winsten krijgt dankzij Tiled Resources. Dat is onzin, want het spel moet die API gebruiken, dat kan Nvidia er niet zomaar in forceren. Nee, de winsten in Rome 2 worden geboekt door wat "optimalisaties" die gegarandeerd niet helemaal kuis zijn
[ Voor 13% gewijzigd door Werelds op 07-04-2014 09:42 ]
Zover ik weet maakt nVidia nu gebruik van Tiled Resources. Dit zit in DirectX 11.2.yinx84 schreef op maandag 07 april 2014 @ 10:13:
Heb het hier eerder gevraagd, maar heb nog geen definitief antwoord gevonden... is dit alleen van toepassing op Win 8.1 zoals sommigen suggereren? Of kan ik hier als Windows 7 (64-bit) gebruiker ook van genieten?
DirectX 11.2 zit echter niet in Windows 7 of Windows 8.
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
De eerste resultaten die ik her en der lees zeer zeer positief. Toch bij veel games een mooie prestatiewinst van zo'n 10%
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Ik zal de resultaten straks wel even posten
Ik zou ze allemaal voorlopig met een vrachtwagen zout nemen.MazeWing schreef op maandag 07 april 2014 @ 13:00:
Inmiddels zijn de drivers te downloaden: http://www.guru3d.com/fil...337_50_beta_download.html
De eerste resultaten die ik her en der lees zeer zeer positief. Toch bij veel games een mooie prestatiewinst van zo'n 10%
Er zit op de 3DCenter forums ook een grapjurk die 25% verbetering claimt te krijgen op een 3930K@3.8 + 780 Ti op Medium in BF4.
Op de locatie van zijn screenshot krijg ik met de "oude" driver even veel FPS als hij met de oude driver. Ware het niet dat ik een 770 en geen 780 Ti heb

EDIT: Zie net dat ik Sleeping Dogs en Tomb Raider ook heb, maar ook die zijn niet geinstalleerd.

[ Voor 15% gewijzigd door Tom. C op 07-04-2014 16:03 ]
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
Nu met mijn CPU op 2,0GHz wel een verbetering overal, je hebt er dus eigenlijk alleen echt iets aan met een trage CPU i.c.m. een sneller GPU
Klopt, ik denk dat vooral gebruikers van SLI het een en ander gaan merken.!mark schreef op maandag 07 april 2014 @ 15:58:
Metro LL gaf bij mij geen totaal geen verbetering.
Nu met mijn CPU op 2,0GHz wel een verbetering overal, je hebt er dus eigenlijk alleen echt iets aan met een trage CPU i.c.m. een sneller GPU
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
Hitman Absolution is nog wel lekker, dat vind ik nog wel leuk om op drie schermen te spelen op een enkele 660 Ti, dus daar kan ik wel wat extra performance gebruikenTom. C schreef op maandag 07 april 2014 @ 15:44:
Ik merk ook totaal geen verbetering. Alleen de games die worden genoemd bij de release notes hebben inderdaad een boost gekregen. Daarvan speel ik er echter maar 1 (Metro Last Light) en die is momenteel niet geinstalleerd. Er worden wel mooie winsten geboekt met Hitman Absolution.
EDIT: Zie net dat ik Sleeping Dogs en Tomb Raider ook heb, maar ook die zijn niet geinstalleerd.
Tomb Raider ga ik ook nog spelen. Ben benieuwd, de installatie is nu bezig.
01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110
Levert wel wat prestatiewinst op maar niet echt veel:
AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.

Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd
En nog even getest met een "langzamere" CPU:

Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.
Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.
Mooi overzicht! Star Swarm heeft een mooie boost gekregen zeg.!mark schreef op maandag 07 april 2014 @ 19:38:
Heb vanmiddag het een ander getest met de nieuwe driver:
Levert wel wat prestatiewinst op maar niet echt veel:
AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.
[afbeelding]
Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd
En nog even getest met een "langzamere" CPU:
[afbeelding]
Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.
Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.
Als je trouwens het grafische gedeelte van de MP van BF4 met de SP vergelijkt, valt gelijk op dat de MP een uitgeklede versie is. Veel minder details. Dat verklaart de framerates misschien. Heb het zelf nog niet getest.
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
Ik dacht dus dat dit bij MIPMAPS al lang werd gedaan buiten de GPU om en dan alleen de texture die ook echt nodig is werd ingeladen in het VRAM... blijkbaar nietWerelds schreef op maandag 07 april 2014 @ 09:30:
Bij MIP mapping moet élke versie van de afbeelding gestuurd worden. Beter gezegd, alle versies samen worden als 1 enkele afbeelding opgeslagen en moet ook in z'n geheel gelezen/geschreven worden.
Bij tiled resources blijven alleen de delen in het geheugen die je nodig hebt. Met andere woorden, bij een grote texture wil je waarschijnlijk de grote versie en misschien de 128x128 versie; dan blijven ook alleen die versies in het geheugen.
Wat het betekent is dat we gigantische textures kunnen hebben, zonder daarbij gigantische hoeveelheden VRAM nodig te hebben.


Had ik geld mee kunnen verdienen als patent of zo
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Wat voor OS heb je als ik vragen mag?!mark schreef op maandag 07 april 2014 @ 19:38:
Heb vanmiddag het een ander getest met de nieuwe driver:
Levert wel wat prestatiewinst op maar niet echt veel:
AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.
[afbeelding]
Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd
En nog even getest met een "langzamere" CPU:
[afbeelding]
Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.
Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.
Haha, het lijkt inderdaad ook logisch, maar je moet onthouden dat mipmapping al een behoorlijk oude technologie is. Toentertijd was bandbreedte een stuk kostbaarder dan nu; je wilde het spul dus niet on-demand laden.nero355 schreef op maandag 07 april 2014 @ 19:53:
[...]
Ik dacht dus dat dit bij MIPMAPS al lang werd gedaan buiten de GPU om en dan alleen de texture die ook echt nodig is werd ingeladen in het VRAM... blijkbaar nietBest slecht eigenlijk
Had ik geld mee kunnen verdienen als patent of zo
Daarnaast is er met tiled resources ook wel iets meer mogelijk dan alleen het mipmapping voorbeeld. So kun je bijvoorbeeld slechts een deel van een texture laden puur omdat het object dat je er mee gaat behangen niet groot genoeg is voor de hele texture. Dat soort gekke dingen zijn allemaal mogelijk
Ga zelf nog even niet kijken want heb eindelijk OBS werkend met NVENC, elke keer als ik de nvidia driver update, voor OBS zo ver is, herkent hij NVENC niet meer.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dit zou ik ook heel graag willen weten, maar plaatjes van benchmarkresultaten (die eerder ook in deze thread gepost zijn) duiden ook op verbeteringen in Win7. Scroll maar eens terug en kijk rechts onderin de hoek bij die plaatjes.sdk1985 schreef op dinsdag 08 april 2014 @ 14:48:
Iemand met Win7 x64 al die moeite genomen om te kijken of er ook voor de "gewone" direct x 11 nog wat winst is geboekt? (Lijkt me sterk dat ze uitsluitend tiled resources hebben aangepakt)
Ga zelf nog even niet kijken want heb eindelijk OBS werkend met NVENC, elke keer als ik de nvidia driver update, voor OBS zo ver is, herkent hij NVENC niet meer.
Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.
http://www.twitch.tv/jannustitannus
Arma 3 draait helaas niet beter of slechter.evilpin0 schreef op woensdag 09 april 2014 @ 11:05:
Ben benieuwd wat het effect van de Wonder drivers heeft op Arma3, een brak geoptimaliseerd spel.
Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.
Op het forum van Guru3d wordt er voor elke nieuwe driver een topic gemaakt waar mensen hun ervaringen posten. Hier zitten vast en zeker ook mensen tussen met Windows 7.
http://forums.guru3d.com/showthread.php?t=388074
9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250
An a day keeps the doctor away.
Ik zit met hetzelfde "probleem", zal ik een 780 kopen of nog eventjes wachten tot de nieuwe gen...iApp schreef op woensdag 09 april 2014 @ 15:33:
Is het nu een goed moment om een Nvidia 770 GTX voor circa €270,- aan te schaffen, of kan ik beter twee maandjes wachten op de Nvidia 870 GTX? Weet iemand welke nieuwigheid de Nvidia 8xx series gaat meebrengen?
http://forums.bistudio.co...vidia-GeForce-337-50-Betaevilpin0 schreef op woensdag 09 april 2014 @ 11:05:
Ben benieuwd wat het effect van de Wonder drivers heeft op Arma3, een brak geoptimaliseerd spel.
Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.
op een lege map lijkt het wel te helpen
bij een lomp gevecht trekt de ai nog steeds de cpu vol, dus dan zal hij nauwelijks beter draaien.
Mechwarrior Online: Flapdrol
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
An a day keeps the doctor away.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
offtopic// Dan zou ik eerder een R9 280X halen voor €230...//iApp schreef op woensdag 09 april 2014 @ 19:42:
De 760 GTX is 'maar' €200 euro, is dat een betere deal?
Een GTX 760 is een perfecte kaart voor 1920x1080. Future proof willen zijn met een 3dkaart is gekken werk;). Elke 1.5-2 jaar zijn die dingen weer 40% sneller, en dat wordt dus ook gebruikt in de games.iApp schreef op woensdag 09 april 2014 @ 19:42:
De 760 GTX is 'maar' €200 euro, is dat een betere deal?
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores.yasin89 schreef op woensdag 09 april 2014 @ 20:47:
[...]
offtopic// Dan zou ik eerder een R9 280X halen voor €230...//
An a day keeps the doctor away.
Ik heb net een tweedehands GTX 680 Asus gekocht voor €180,- met een DirectCUII cooler, dat ding is echt superstil, zelfs onder het gamen. Het is dan wel een drie slot kaart, maar je hoort hem echt helemaal niet, erg prettig, helemaal vergeleken met mijn F16 XFX cooler die ik had op mijn vorige GPU.iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]
Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores.Dan nog de vraag of het de €70,- euro extra waard is t.a.v. de 760 GTX met 'maar' 20% minder performance.
Ik ben sowieso meer een tweedehands GPU koper geworden sinds mijn 6850 kaart. De zogenaamde net aan midrange kaarten zijn het eigenlijk niet waard als je de prestaties vergelijkt met een generatie lager en de prijzen daarvan op de tweedehandsmarkt. Voor €180 heb ik nu een kaart die net even onder de 770 presteert en net zo duur is als de net aan kaarten, maar je krijgt er een veel betere kaart voor terug.
Ik ben weer naar Nvidia gegaan omdat je daarmee ook 3D kan gamen met een anaglyph bril en er redelijke kits zijn voor een shutter bril. Ook de drivers bevallen me beter bij Nvidia. AMD heeft ook prima kaarten, maar waar mijn wensen liggen vind ik Nvidia net even prettiger werken, helemaal nu Nvidia ook minder verbruikt dan AMD kaarten.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Zo goed zijn ze allemaal helemaal niet. Maar dit is echt geen nieuws en het is ook geen nieuws dat jij een nieuwe videokaart zoekt.iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]
Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler)
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Na het installeren van Windows 8.1 Update 1 (x84) werkt de 337.50 driver (soms ?) niet meer. Device manager geeft aan dat "device stopped working" en de resolutie is ineens 1024 x 768. Herinstalleren van de driver geeft alleen een zwart scherm.
De WHQL van paar weken terug (335.23) werkt ok.
Ja, ik het weet het ... beta is beta, maar toch opvallend.
(heb een 660Ti)
iMac 24" M3 | Mac mini M4 | iPhone 16 Pro 256GB | iPad Pro M4 11" 256GB 5G | AW Series 10 | Sony KD-55XE9305 (Ziggo CI+) | ATV 4K | Denon AVC-X3700H | Switch 2 | PS5 Pro/PSVR2 | XSX | Netatmo | Hue | UC Remote 2 | HA | FRITZ!Box 7590AX | XS4ALL glasvezel
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nou is de 750 Ti wel iets hoger geklokt, maar als je dat verrekent heb je nog steeds een factor 1.6 verschil, mogen ze wel een flinke cache op die kaarten zetten.
Mechwarrior Online: Flapdrol
Die 256b bus vond ik ook apart, zeker ook aangezien mem speed niet significant hoger is (kan volgensmij ook niet heel veel hoger met GDDR5) maar aangezien dit niet de "grootste' maxwell zou worden is het misschien wel verklaarbaar.
[ Voor 20% gewijzigd door Help!!!! op 10-04-2014 13:13 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Maar één ding is zeker, 20nm is nog ver weg, dus als er geen high-end Maxwell op 28nm komt duurt het nog heel lang voor wel hem gaan zien.
Specs kloppen dus normaal gesproken ook van geen kant. Als het een 20nm kaart wordt dan kunnen wel nog wel een hele tijd wachten en zo ver vooruit kloppen de specificaties toch nooit en als het een 28nm kaart wordt dan kloppende specs ook niet aangezien er 20nm staat. Dus hoe je het ook bekijkt de specificaties kunnen alleen maar niet kloppen.
[ Voor 85% gewijzigd door -The_Mask- op 10-04-2014 15:01 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]
Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores.Dan nog de vraag of het de €70,- euro extra waard is t.a.v. de 760 GTX met 'maar' 20% minder performance.

Voor bf3 op 1080p is het overkill....

Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
De aantallen zijn ook heel onlogisch. Slechts 40 ROPs op die 3200 SPs? En er even van uitgaande dat we inderdaad naar GM104 kijken en we dus tegen de 300mm^2 aan zitten, zit daar ook een behoorlijke verdichting van transistors in, meer dan ik zou verwachten.
Allemaal dikke duim werk
Dan is de Nvidia 770 GTX idd een betere optie! Nu nog de keuze tussen het 2 GB en 4 GB model, aangezien 2560 x 1440 nog aardig wat geheugen voor textures wil gebruiken...sdk1985 schreef op donderdag 10 april 2014 @ 15:03:
[...]
Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:
[afbeelding]
Voor bf3 op 1080p is het overkill....
[afbeelding]
Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).
[ Voor 4% gewijzigd door iApp op 10-04-2014 17:16 ]
An a day keeps the doctor away.
Dat komt vast uit een hele oude review, aangezien een R9 280X het nu iig veel beter doet met BF3, gelijk als een GTX 770 op full HD. Maar again dit is geen nieuws.sdk1985 schreef op donderdag 10 april 2014 @ 15:03:
[...]
Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:
[afbeelding]
Voor bf3 op 1080p is het overkill....
[afbeelding]
Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ps Anandtech heeft de 280 ook getest; 70 vs 84 en 46 vs 53 in het voordeel van Nvidia.
http://images.anandtech.com/graphs/graph7400/58679.png
http://images.anandtech.com/graphs/graph7400/58678.png
Maar zoals je zelf al aangeeft worden benchmark tegenwoordig steeds meer moment opnames... Zie ook de info over de wonderdriver 1 pagina eerder
Ik kon de Geforce Experience overigens updaten:
http://www.geforce.com/wh...es/geforce-experience-2-0
Beste nieuws is dat alt-tab gaan nu je recording pauzeert in plaats van beëindigd...Today, we are releasing GeForce Experience 2.0, a major update that introduces ShadowPlay desktop capture, advanced Twitch streaming controls, ShadowPlay for notebooks, and SHIELD GameStream support for notebooks. This expansive update enables the capture of any game in Windows, gives streamers complete control over their feeds, enables fullscreen gameplay capture on notebooks, and enables GeForce GTX notebooks to stream gameplay to NVIDIA SHIELD, just like desktops.
Zal binnenkort eens kijken of de Nvidia shield streaming (via de Android emulatie app) beter werkt dan tijdens 1.8. Met Steam in-home streaming kon ik al gamen op mijn e-350, als android straks echt lekker werkt is het helemaal mooiThese capabilities also extend to Twitch streaming, enabling uninterrupted League of Legends broadcasts, and broadcasts of any game run in windowed mode. To enable desktop capture for local recordings and Twitch broadcasts, update to GeForce Experience 2.0, install the new GeForce 337.50 beta drivers, and ensure Windows Aero mode is enabled. Desktop capture is disabled by default; to enable the feature, go to Preferences -> ShadowPlay, and check "Allow desktop capture".
[ Voor 21% gewijzigd door sdk1985 op 10-04-2014 18:11 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 4% gewijzigd door !mark op 10-04-2014 21:32 ]
Nogmaals, geen enkele site laat ook maar enige vooruitgang zien in een van die games in situaties buiten SLI. Sterker nog, in de meeste gevallen valt het zelfs met SLI vies tegen, zoals Crysis 3.Verwijderd schreef op maandag 14 april 2014 @ 17:36:
Ik ben niet zo naïef om te denken dat de boost clocks zijn verhoogd of dat het allemaal sli profiel updates zijn. Je probeert wel dingen te brengen die helemaal niet aan de orde zijn zonder enig onderzoek er naar te doen en schreeuwt het van de daken af alsof nvidia de foute is. Ik merk zelf heel veel prestatie winsten op in Battlefield MP en in skyrim waar geen andere sli profielen voor worden gebruikt en dan de rest van de games nog om niet te vergeten zoals Thief en Crysis 3.
Wat ik nu al meerdere malen heb gezegd is dat het deels door nieuwe SLI profielen komt (Rome 2 zat er gewoonweg niet in, daar kun je moeilijk over doen wat je wil, maar het staat verdorie in de release notes van de driver), anderzijds door een bottleneck met betrekking tot SLI in hun driver. Als je wilt verzamel ik de reviews wel allemaal voor je. Anand, [H], Guru3D en kleinere sites als Blackholetec laten allemaal hetzelfde zien. In SLI zie je in veel gevallen vooruitgang; maar zelfs dan niet in alle gevallen. Met enkele GPU's is het verschil zo klein dat je bijna kunt spreken van een geval binnen de foutmarge, behalve in Hitman, Bioshock en Metro. Die 3 games gaan weldegelijk flink vooruit. Jouw voorbeeld van Crysis 3 gaat bijvoorbeeld alleen op met 1600x1200 of lager; op 1080p is het verschil al slechts 2% (1-2 FPS).
Het gaat simpelweg niet, zoals Nvidia beweert, om een of andere magische truuk waarmee ze onder DX11 in z'n geheel meer uit je kaart kunnen halen. Als dat zo was, dan zou er voor enkele kaarten ook iets te zien zijn en dat is gewoon niet het geval. Daar kun je je zo beledigd door voelen als je wil, maar dat is gewoon een feit. Alle sites die de driver hebben bekeken laten dat zien en ik ken ook niemand met een enkele kaart die wél iets uit die driver heeft gekregen. Ikzelf ook niet.
En nVidia geeft ook aan dat de grootste prestatieverbeteringen met SLI te behalen zijn. Het is toch juist mooi dat ze dat doen. SLI wordt zo steeds beter en beter bruikbaar. Zeker gezien de lage frametimes vergeleken met AMD...
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
http://www.guru3d.com/art...n_r9_295x2_review,30.html
De discussie begon in het andere topic voornamelijk omdat er werd geclaimed dat Nvidia met de 337.50 driver doet wat Mantle doet, wat totaal niet klopt. Hiermee bedoelde men niet "beter" of "slechter" maar waar de verschillen zitten bij de resultaten van beide.
Verwijderd
Bij veel anderen zijn de clocks niet verhoogt met de TI. Word er niet bedoeld dat de clock langer, sneller en stabieler op de maximale clock speed draaien dat verwacht ik namelijk eerder omdat bij niemand anders met de TI de clockspeeds zijn verhoogd.Astennu schreef op dinsdag 15 april 2014 @ 09:15:
[...]
Ach die mensen heb je in het nVidia topic net zo goed.
nVidia zal vast dingen verbeterd hebben. Maar het viel mij wel op dat de verschillen op 1080P en hoger maar 1-3% waren voor de 780 TI. En dat de clockspeeds voor boost modes hoger waren (bron HardOCP). Tja dat verklaart de snelheid winst in dat geval wel. Ik heb er niets op tegen hoor. Betere prestaties voor de eindgebruiker is altijd goed. Maar clockspeeds verhogen zou AMD eventueel ook nog kunnen doen. Doe 290X kaarten kunnen ook makkelijk 1050 MHz draaien.
Het zijn verder vooral de minimale fps die stukken beter zijn in meerdere games. Maximale fps zegt niet zo veel maar de minimale fps juist wel, dankzij het cpu overhead gedoe.
Nee, dat doet het dus niet. Je hebt echt een compleet verkeerd idee van wat Mantle is en doet.Verwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
In Direct3D zit een gigantische overhead, doordat de API geschikt moet zijn voor alle GPU's en alles dus heel abstract moet zijn. Het gevolg is dat er intern heel veel "nutteloze" (quotes omdat ze niet nutteloos zijn vanuit het oogpunt van D3D zelf) calls zitten, puur zodat het altijd werkt. Waar D3D vervolgens bijvoorbeeld 15 calls naar de driver nodig heeft (en de driver zelf waarschijnlijk ook 20 naar de GPU toe) zit Mantle veel dichter op de GPU. De API is veel directer gericht op renderen. Het grote verschil is dat je met Mantle zélf moet doen wat D3D in veel gevallen voor je doet.
Met andere woorden, waar je in D3D bijvoorbeeld D3D->doSomething() doet en D3D vervolgens 15 draw calls nodig heeft om uit te vogelen hoe dat precies moet, doe je in Mantle die draw calls zélf. Nu klinkt dat als meer werk, maar bij heel veel 3D bewerkingen zijn van die 15 calls bijvoorbeeld slechts 3 nodig voor jouw specifieke situatie.
Dit kan Nvidia gewoon onmogelijk veranderen. Voor de zoveelste keer, de bottlenecks waar developers tegen aan lopen (en dus de bottlenecks die Mantle wil vermijden en die devs op de consoles niet hebben) zitten in D3D, niet in de driver.
Ja, Nvidia heeft wat overhead verminderd. Maar het is níet dezelfde overhead waar men het over heeft met Mantle. Die zit op een veel hoger niveau. De overhead die Nvidia heeft verminderd is overhead die ze zelf hebben veroorzaakt en dat is een overhead waar een developer vooralsnog schijt aan heeft. Een developer werkt met D3D, niet met drivers. Developers lopen nu tegen bottlenecks met D3D aan, niet met drivers. Driver bottlenecks gaan ze juist pas tegen komen als ze met Mantle of straks DX12 werken.
Kijk maar bij HardOCP (R9 295X2 review) daar zie je toch duidelijk dat de Max Boost clocks hoger liggen dan voorheen. We hebben het niet over de base clocks.Verwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
[...]
Bij veel anderen zijn de clocks niet verhoogt met de TI. Word er niet bedoeld dat de clock langer, sneller en stabieler op de maximale clock speed draaien dat verwacht ik namelijk eerder omdat bij niemand anders met de TI de clockspeeds zijn verhoogd.
Het zijn verder vooral de minimale fps die stukken beter zijn in meerdere games. Maximale fps zegt niet zo veel maar de minimale fps juist wel, dankzij het cpu overhead gedoe.
Trouwens niet handig om een quote uit een ander topic hier te gebruiken. Nu zag ik hem toevallig maar anders had ik niet kunnen reageren
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ja, ik zie het maar dat is Kepler boost, die is meestal hoger dan de opgegeven boost clocks in gpu-zAstennu schreef op dinsdag 15 april 2014 @ 15:32:
[...]
Kijk maar bij HardOCP (R9 295X2 review) daar zie je toch duidelijk dat de Max Boost clocks hoger liggen dan voorheen. We hebben het niet over de base clocks.
Trouwens niet handig om een quote uit een ander topic hier te gebruiken. Nu zag ik hem toevallig maar anders had ik niet kunnen reageren
Het zelfde heb ik ook met mijn 2 titans maar dat is niet driver afhankelijk want de boost clocks blijft het zelfde zo is kaart 1 876 mhz boost in gpu-z maar in werkelijkheid is dat een stuk hoger. En de andere kaart heeft een wat mindere chip en die boost clock ligt weer wat lager.
De boost clocks hangt af van de ASIC, heb je een goede chip dan is de boost clock automatisch hoger en dit is niet nieuw of via een driver geforceerd.
Dat het niet op valt vind ik maar raar, dan hebben ze voorheen een kaart gebruikt met een mindere chip die dus een lagere boost clock heeft.
[ Voor 6% gewijzigd door Verwijderd op 15-04-2014 16:01 ]
Er van uitgaand dat ze dat dus weten is het raar dat die boostclocks met andere drivers ineens hoger uitvallen. Imo kun je dat soort dingen prima met drivers bij sturen. Ligt aan de implementatie van nVidia of het kan of niet. Maar ik zie niet waarom het niet zou kunnen.
[ Voor 22% gewijzigd door Astennu op 16-04-2014 08:26 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ik weet niet of het verder mogelijk is om ook de clocks te verhogen via drivers, ik denk het niet want de clocks worden via de BIOS geregeld. Het zal misschien kunnen maar dan moet in de driver zelf een BIOS flash zitten die dan een andere bios op de videokaart zet met een aangepaste boost clock.
Ik heb die artikel nog doorgelezen. Ze hebben het nergens over verhoogde boost clocks. Wat ik wel zie in één tabel is dat er real boost clock bij staat maar dat is dus die kepler boost wat ik een post boven jou al vertelde.
[ Voor 20% gewijzigd door Verwijderd op 16-04-2014 11:54 ]
Boost clocks zijn gewoon speed steps die aangeroepen worden. Kan ook extern aangestuurd worden als het moet.
Als dat die Kepler boost is prima zo veel verstand heb ik niet van nVidia's marketing termen. Waar het mij om ging is dat die is met de nieuwe drivers hoger is dan voorheen en dat zou dan ook een extra hoge FPS verklaren.
[ Voor 13% gewijzigd door Astennu op 16-04-2014 14:48 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Deze winsten haal ik ook.
http://www.hardwarecanuck...r-performance-review.html
Er is ook een hotfix driver uit voor del schermen.
http://nvidia.custhelp.com/app/answers/detail/a_id/3491
[ Voor 3% gewijzigd door Verwijderd op 18-04-2014 10:12 ]
Vertragings tactiek omdat maxwell verder weg is dan we denken of is dit om van de resterende stock af te komen?You may recognize the name. Does it tickle an old memory? Yes, pine for that Striker II motherboard again as the ROG’s new Striker graphics card range launches; the binding factor between them both being the Nvidia heart. Thankfully, though, we’ve dropped the blue and copper livery for a much more ROG red-n-black, with modern innovations like the CoolTech fan and custom ROG-ified DirectCU II cooler hardware, on top of a custom engineered PCB with binned GPUs and 8-phase DIGI+ VRM with Super Alloy Power hardware that’s primed for overclocking.
The LED backlit logo on the side varies in three gradients to represent real-time GPU load, and its 4GB double-memory size is perfect for ultra-high resolutions like WQHD, 4K or multiple monitor setups.
OverWerelds schreef op dinsdag 15 april 2014 @ 12:46:
[...]
Nee, dat doet het dus niet. Je hebt echt een compleet verkeerd idee van wat Mantle is en doet.
AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overheadVerwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
Overigens geniet de aanpak van Nvidia duidelijk de voorkeur, een hardware afhankelijke api is een erg slecht idee.
Los van de bekende nadelen (3dfx glide, remember that?) moet je ook rekening houden met het driver beleid van AMD... Die staan nu niet echt bekend in de lange support van hun producten. Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit

Ik denk dat we AMD heel erg dankbaar mogen zijn dat ze het Mantle concept hebben uitgewerkt, en zo druk hebben uitgeoefend om DirectX aan te pakken. Nu gewoon weer iedereen dezelfde API aub... Daarnaast aub ook alle Direct X updaten voor Windows 7 aub
[ Voor 12% gewijzigd door sdk1985 op 19-04-2014 00:37 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
[...]
Over
[...]
AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overhead.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.
Ik kan voor de grap anders wel een benchmark op mijn pc draaien, je ziet dat Nvidia meer fps in de Star Swarm demo heeft gekregen met hun highend kaart (kan ook zijn omdat ze nog nooit voor die demo hebben geoptimaliseerd maar dat terzijde). Morgen zal ik het op mijn setup draaien met Mantle icm een Q6600 en een 290, ik weet haast 100% zeker dat ik meer fps zal halen en misschien wel het dubbele.
Setup is ook wel de ultieme combinatie om het te testen, een vreselijk outdated cpu met een snelle gpu.
Het valt echter op, dat op de GPU gelimiteerde benchmarks (2560x1440 en hoger) de winsten hier voornamelijk zijn en op de CPU gelimiteerde benchmarks (1920x1080 en lager) er veel minder of vaak verwaarloosbaar (<2%) winst te behalen valt. Het lijkt dus dat niet de CPU overhead hebben gereduceerd maar algemeen hogere performance op de GPU hebben gerealiseerd. Wat logisch is, aangezien het fundamentele "probleem" bij DX11 zit en niet de Nvidia of AMD drivers.sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overhead.
Mantle is niet hardware-afhankelijk, dat denk je omdat AMD het heeft ontwikkeld. Mantle is door iedereen te gebruiken en AMD zou ermee gebaat zijn dat Nvidia het zou gebruiken. Maar Nvidia is gekend om steeds volledig voor zijn oplossingen te gaan.Overigens geniet de aanpak van Nvidia duidelijk de voorkeur, een hardware afhankelijke api is een erg slecht idee.
3dfx Glide stamt uit een heel andere tijd die niet meer vergelijkbaar is. Tegenwoordig moet men veel rekening houden met makkelijke conversie naar consoles.Los van de bekende nadelen (3dfx glide, remember that?) moet je ook rekening houden met het driver beleid van AMD... Die staan nu niet echt bekend in de lange support van hun producten.
AMD heeft inderdaad de "support" niet meer voor de oudere GPU's in zijn recentere drivers zitten, vermoedelijk om te focussen op de GCN structuur. Echter is er gewoon de Legacy driver van eind 2013 die tot en met de HD 5000-series ondersteund (5 jaar oud). Het is dan ook niet zo dat Nvidia nog iets doet met oude GPU's in zijn drivers.
De E350 is een low-end CPU met IGP van eind 2010. De Atom N330 die ik kocht rond de release van de barebone waar hij opzit was ook al "abandoned" omdat de IGP gewoon te oud was. Oude, goedkope producten hebben dat nu meestal, zeker als er niets meer te verbeteren valt.Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit.
Het is inderdaad goed dat Microsoft nu wakker wordt maar daar zie je ook weer het probleem aan software-dependent API's: je hangt vast aan de provider van de software. Microsoft had geen zin om DX nog te willen ontwikkelen dus dit stond stil: Nvidia en AMD (en Intel ?) moesten het maar gaan oplossen met meer ruwe prestaties en maar zoveel mogelijk rond de beperkingen bouwen.Ik denk dat we AMD heel erg dankbaar mogen zijn dat ze het Mantle concept hebben uitgewerkt, en zo druk hebben uitgeoefend om DirectX aan te pakken. Nu gewoon weer iedereen dezelfde API aub... Daarnaast aub ook alle Direct X updaten voor Windows 7 aub.
Mantle is niet letterlijk hardware- of software-dependent, maar zolang het in handen van AMD is, kunnen zij uiteindelijk ermee doen wat ze willen. In principe zou men beter overwegen om het platform-onafhankelijke OpenGL te ondersteunen, hierdoor zullen veel meer OS'en er gebruik van kunnen maken (mits drivers). Want met DX zien we nu ook dat we nog steeds afhankelijk zijn van iemand.
Dit dus. Gelukkig snapt iemand hetSp3ci3s8472 schreef op zaterdag 19 april 2014 @ 02:11:
Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.

De overhead die Nvidia vermindert met deze driver is overhead waar ze ook zelf verantwoordelijk voor zijn. De overhead vanuit D3D is gewoon nog steeds onverminderd aanwezig. Overigens heeft AMD al enkele jaren geleden een groot deel van hun CPU overhead verminderd. Dat was ten tijde van Cayman (5870). Daarna zijn ze echter weer wat afgezakt, waardoor Nvidia nu iets efficiënter met DX11 is.
Ik heb echter het gevoel dat we tegen een muur staan te praten..
[ Voor 4% gewijzigd door Werelds op 19-04-2014 11:48 ]
2H 2014 en nog steeds op 28nm geproduceerd. Viel wel te verwachten eigenlijk aangezien TSMC's 20nm nog niet klaar is voor gebruik in complexe gpu's.
Vraag me wel af of die 256-bit bus geen bottleneck gaat worden op hogere resoluties. Nvidia heeft blijkbaar wat aangepast in maxwell zodat er efficienter met het vram wordt gewerkt, maar of dat genoeg zal zijn valt nog te bezien imo.
[ Voor 32% gewijzigd door ColinZ op 19-04-2014 13:48 ]
Verwijderd
Ik denk niet dat die 256bit bus een bottlenek gaat vormen want Maxwell gaat er totaal anders mee om.ColinZ schreef op zaterdag 19 april 2014 @ 13:40:
Interessant stukje over maxwell: http://wccftech.com/nvidi...-wild-kepler-gk210-works/
2H 2014 en nog steeds op 28nm geproduceerd. Viel wel te verwachten eigenlijk aangezien TSMC's 20nm nog niet klaar is voor gebruik in complexe gpu's.
Vraag me wel af of die 256-bit bus geen bottleneck gaat worden op hogere resoluties. Nvidia heeft blijkbaar wat aangepast in maxwell zodat er efficienter met het vram wordt gewerkt, maar of dat genoeg zal zijn valt nog te bezien imo.
Dit heeft zo zijn voordelen zoals goedkoper een kaart maken. Het is noog wel afwachten wat het doet maar dat zit vast goed anders zet Nvidia er ook geen 256bit bus op.
Driver 337
En over de drivers van nvidia ik weet zelf natuurlijk ook wel dat het niets met DX11 te maken heeft, ik zeg ook nergens dat het er wel mee te maken heeft. Er zijn ook andere functies bij gekomen zoals dat de laad tijden in games minder worden en dat is goed te merken met BF4.
Dan nog kan je in die cache waarschijnlijk geen textures kwijt en daar is het ook niet voor bedoelt!mark schreef op zaterdag 19 april 2014 @ 16:24:
Maxwell heeft veel meer L2 cache wat de geheugen bottleneck potentieel kan wegnemen, de vraag is alleen hoe houdt die 256 bit bus zich op hogere resoluties
Maar correct me if im wrong zeg maar
Dat merkte je vroeger ook bij bepaalde dingen zoals superpi dat als het in de cache van de cpu paste het een factor 2 sneller kon zijn. Dat was eerder ook de grote reden dat intel processoren zo snel in die dingen waren, grote cache.
Edit:
Ook met spellen als de mainloop in de cache kon dan was het een stuk sneller.
[ Voor 5% gewijzigd door Sp3ci3s8472 op 20-04-2014 00:12 ]
Voor 150 meer kan ik pricewatch: Asus GTX780-DC2OC-3GD5 kopen.
350 euro, kost deze nieuw .... is dit het waard?
op andere sites lees ik juist weer dat ATI beter is voor gamen. (en dan vooral de r9 290x)
Eerlijk gezegd verwondert me dit niet dat beide fabrikanten geen nieuwe producten uitbrengen. Er is het één en ander gebeurd in de de GPU wereld in korte tijd (bv. coin mining) en het ziet ernaar uit dat men (Microsoft en AMD in de voorgrond) zich wil focussen op het efficienter maken van de software lagen, wat in mijn ogen een goede zet is: je hebt niets aan de beste technologie als driver en API issues je prestaties tegenhouden.TomasH schreef op zaterdag 19 april 2014 @ 14:12:
AMD heeft in de Q1-call officieel bevestigd dat er dit jaar geen 20nm-GPU's uitkomen, een tijdje terug was al in het nieuws dat Nvidia-partners dat zeiden. Moet wel raar lopen als een van de twee het wel nog voor 2015 voor elkaar krijgt. Ja, misschien een paperlaunch in december
We komen dan wel van een tijd waar er jaarlijks nieuwe lineups aan GPU's werden geintroduceerd die de vorige generatie van zijn sokkel bliezen, nog niet zo lang geleden allemaal. Op zich vind ik dit niet erg: men is minder "verplicht" te upgraden, zo kunnen mensen met een Core i-reeks van de tweede generatie nog steeds met alles mee, misschien blijft die GTX 780Ti en R9 290X nu langer zijn geld waard ?
Ik zou ook wel eens onderzoeken welke services je krijgt. Mijn ervaring met de driver support door AMD is minder dan geweldig. Nu ben ik een Linux gebruiker, dus krijg ik een extra kort stokje, maar ik heb uit het Windows-kamp ook wel eens geklaag gehoord, onder andere van mensen die een nieuwe laptop kochten waarvan na nauwelijks enige tijd AMD de GPU tot legacy benoemde, en iemand die Skyrim op de Intel IGP mocht spelen omdat zijn AMD GPU niet eens herkend wilde worden. Mijn ervaring met Nvidia is dat het gewoon werkt, niets meer, niets minder.Aggressor schreef op zondag 20 april 2014 @ 07:32:
ff een vraagje, momenteel heb ik de pricewatch: MSI Radeon R9 280X GAMING 3GB. (deze kan ik voor 200 verkopen)
Voor 150 meer kan ik pricewatch: Asus GTX780-DC2OC-3GD5 kopen.
350 euro, kost deze nieuw .... is dit het waard?
op andere sites lees ik juist weer dat ATI beter is voor gamen. (en dan vooral de r9 290x)
Ik wil hiermee niet meteen AMD compleet afraden, want dan krijg ik boze mensen op mijn dak, maar neem alsjeblieft dat soort dingen wel mee in je overweging. Hardware is meer dan alleen hardware. Support is ook een belangrijk aspect.
Overigens zitten we hiermee wel een beetje offtopic. Hoort niet echt thuis in een nieuwsdiscussie.
De originele stelling hield niet in dat Mantle hetzelfde was als de Nvidia wonderdriver... Er werd alleen opgemerkt dat beide gebruik maken van het verlagen van de cpu load om prestatie verbetering te bewerkstelligen. Juist dat dit niet op dezelfde manier werd opgelost bleek al uit de originele stellingSp3ci3s8472 schreef op zaterdag 19 april 2014 @ 02:11:
[...]
Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.
Ik kan voor de grap anders wel een benchmark op mijn pc draaien, je ziet dat Nvidia meer fps in de Star Swarm demo heeft gekregen met hun highend kaart (kan ook zijn omdat ze nog nooit voor die demo hebben geoptimaliseerd maar dat terzijde). Morgen zal ik het op mijn setup draaien met Mantle icm een Q6600 en een 290, ik weet haast 100% zeker dat ik meer fps zal halen en misschien wel het dubbele.
Setup is ook wel de ultieme combinatie om het te testen, een vreselijk outdated cpu met een snelle gpu.

Overigens lijkt de wonderdriver een bijproduct van Maxwell te zijn:
reviews: Nvidia GTX 750 Ti: de snelste onder de 75 wattNvidia heeft ook een groter deel van de scheduling van de hardware naar de software verplaatst. Dat heeft een iets hogere cpu-belasting tot gevolg, maar volgens Nvidia is dat een klein offer voor de energiebesparing die Maxwell met zich meebrengt.
Zal wel een soort cpu/driver analyse hebben plaatsgevonden (net als dat bleek dat NVidia al jaren intern rekening met frametimes hield, en AMD toe gaf daar nooit naar te hebben gekeken)..
*offtopic*
Low-power (16W) lijkt me een beter beschijvingDe E350 is een low-end CPU met IGP van eind 2010
Bordje wat ik had kwam pas in de pricewatch 4 maart 2011. Ik heb het ding waarschijnlijk rond maart 2012 gekocht (Aldus de tweakers review op mijn profiel). De chipset drivers vallen ook onder Catalyst dus komt er op neer dat post 2013 er gewoon niks meer gebeurd. Dat is jammer want de driver updates hebben eigenlijk elke keer behoorlijk wat verbeterd.
Tot op heden trouwens geen goede opvolger kunnen ontdekken. Dus mijn HTPC zal nog minstens een jaar die e350 blijven gebruiken (J1800 Intel hoef ik niet ivm brakke drivers, en fps bug). Maar dat is niet voor het Nvidia nieuwstopic
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Jouw stelling wellicht niet, het was wel die van Magherb82.sdk1985 schreef op zondag 20 april 2014 @ 20:42:
De originele stelling hield niet in dat Mantle hetzelfde was als de Nvidia wonderdriver... Er werd alleen opgemerkt dat beide gebruik maken van het verlagen van de cpu load om prestatie verbetering te bewerkstelligen. Juist dat dit niet op dezelfde manier werd opgelost bleek al uit de originele stelling. Hele verhaal waarom Mantle anders is was volstrekt overbodig, en verandert niets aan de juistheid van de stelling
. Iedereen die wil weten hoe/wat Matle doet kan gewoon op Anandtech de uitgebreide review bekijken.
Zijn exacte woorden:
Het doet níet hetzelfde als Mantle. Mantle zit op dezelfde plek als Direct3D. En onder Mantle zit nog steeds een driver, waar ook nog steeds overhead in zit. Om maar even schematisch weer te geven waar dit alles plaats vindt:Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
1
2
3
4
5
6
7
| D3D | Interface | Mantle Driver Driver | | GPU GPU |
Met Mantle heb je sowieso al de interop laag tussen D3D en de driver niet. Daarnaast moet ik eigenlijk Mantle op gelijk niveau met de GPU zetten om het verschil in principe achter de API weer te geven. Onthoud dat er met Mantle nog steeds gewoon een driver is. Wat je in Mantle doet zit veel dichter op wat je wilt dat de GPU doet, de driver vormt hier de interface naar de GPU toe. In D3D is de API veel abstracter en geeft hij niet noodzakelijkerwijs weer wat je wilt wat de GPU doet of zelfs wat je naar de driver wilt sturen.
Om ook dat maar even uit te leggen, auto vergelijking zoals we hier liever niet zien (
De overhead waar Nvidia aan heeft gewerkt met deze driver zit gewoon op een compleet ander niveau dan waar Mantle opereert - ik kan het zelfs nog leuker maken door te zeggen dat de overhead die ze nu weg halen, even goed in hun Mantle driver had gezeten als ze er 1 hadden willen maken. Dat betekent echter ook dat als ze er 1 hadden willen maken, de winst via Mantle nog veel groter was geweest.
Nogmaals, wat Nvidia doet is leuk en zeker prettig voor ons als gamers, maar wat ze beweren is gewoon je reinste onzin en het is dan ook uitermate zonde dat er zo veel mensen met beide voeten in trappen. En het is simpelweg niet zo effectief als Mantle; op 1080p zonder SLI is er nagenoeg niets te zien en laat Mantle nu juist daar leuke resultaten boeken.
Disclaimer: bovenstaand schema is je reinste onzin, want de manier waarop D3D werkt is eigenlijk nog veel ingewikkelder. Er zitten meerdere interfaces tussen D3D en de daadwerkelijke GPU driver en die interfaces communiceren ook onderling met elkaar. Dit was puur ter illustratie van wat er zich op hoog niveau afspeelt.
De E350 blijft een low-end oplossing aangezien het naar dat segment geprijsd was, evenals de Intel Atom. Low-power die niet low-end is, is eerder iets zoals de U-reeks CPU's van Intel. Maar als je een low-power oplossing zoekt, kijk dan zeker naar dit: pricewatch: Intel Next Unit of Computing (V3) Core i3-4010U en pricewatch: Intel Next Unit of Computing (V3) Core i5-4250Usdk1985 schreef op zondag 20 april 2014 @ 20:42:
Low-power (16W) lijkt me een beter beschijving.
...
Tot op heden trouwens geen goede opvolger kunnen ontdekken. Dus mijn HTPC zal nog minstens een jaar die e350 blijven gebruiken (J1800 Intel hoef ik niet ivm brakke drivers, en fps bug). Maar dat is niet voor het Nvidia nieuwstopic.
De TDP (wat een maximum is) is misschien "hoog", maar het gemiddeld verbruik is uiteindelijk toch laag.
Zo meet Anandtech op de Core i5 versie slechts 13W load aan de muur voor het renderen van 1080p60 H.264 media onder XBMC. Of 10W voor het streamen van een YouTube filmpje onder Windows 8.
[ Voor 6% gewijzigd door Phuncz op 20-04-2014 21:55 ]
Verwijderd
Dan heb je mij verkeerd begrepen want ik zeg dat het bijna het zelfde doet als Mantle ( CPU overhead) maar Mantle werkt op een andere manier. Ik maak er niet van dat de 2 API's het zelfde zijn en op de zelfde manier het werk doen, maar wat ze doen lijkt op elkaar als het gaat om CPU overhead.Werelds schreef op zondag 20 april 2014 @ 21:11:
[...]
Jouw stelling wellicht niet, het was wel die van Magherb82.
Zijn exacte woorden:
Zonder sli zijn er ook winsten maar dan allen bij de minimale fps zoals in battlefied 4. En bij Hitman is de winst behoorlijk groot zonder sli.Werelds schreef op zondag 20 april 2014 @ 21:11:
[...]
Nogmaals, wat Nvidia doet is leuk en zeker prettig voor ons als gamers, maar wat ze beweren is gewoon je reinste onzin en het is dan ook uitermate zonde dat er zo veel mensen met beide voeten in trappen. En het is simpelweg niet zo effectief als Mantle; op 1080p zonder SLI is er nagenoeg niets te zien en laat Mantle nu juist daar leuke resultaten boeken.
[ Voor 41% gewijzigd door Verwijderd op 21-04-2014 12:28 ]
http://www.techpowerup.co...ucts-to-launch-in-q4.html
Ik zal het beleefd houden... De laatste officiele driver van AMD is van 18 december 2013, voor alle GPU's. Er zijn wel nieuwere beta-drivers en of die de E-350 ondersteunen (al dan niet foutloos) is een vrasg die ik niet kan beantwoorden, maar se driver ondersteunt sowieso wel Brazos/Ontario als chip in verschillende SKU's.sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
Die staan nu niet echt bekend in de lange support van hun producten. Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit.
Dus, ten eerste heeft je E-350 nog exact dezelfde ondersteuning als de laatst uitgebrachte videokaarten en ten tweede zal er ongetwijfeld nog wel een nieuwe officiele driver uitkomen voor VLIWx DX11 GPU's.
Voor de rest is het wederom een typisch 'AMD ondersteunt zijn producten amper/niet' geneuzel... Het enige wat AMD niet meer doet, is het maandelijks uitbrengen van gecertificeerde drivers.
Nogmaals, nee. Nvidia's wijzigingen maken het niet mogelijk meer draw calls te verwerken zoals Mantle doet, daar loop je nog steeds tegen D3D aan. Ik zal het nog 1 keer zeggen: wat Nvidia nu met hun driver doet hadden ze ook met hun Mantle driver kunnen doen en dan nóg meer winst kunnen boeken. Nvidia fixt hier hun eigen fouten, terwijl AMD met Mantle de fouten van MS/D3D probeert te fixen.Verwijderd schreef op maandag 21 april 2014 @ 10:53:
Dan heb je mij verkeerd begrepen want ik zeg dat het bijna het zelfde doet als Mantle ( CPU overhead) maar Mantle werkt op een andere manier. Ik maak er niet van dat de 2 API's het zelfde zijn en op de zelfde manier het werk doen, maar wat ze doen lijkt op elkaar als het gaat om CPU overhead.
In beide gevallen is er minder CPU overhead. Nvidia's doel met deze driver was het verlagen van hun eigen CPU overhead in die driver. Mantle's doel is het verminderen van API overhead waarbij CPU overhead automatisch ook minder wordt, maar dat is niet de hoofdzaak. Bij Nvidia draait het om driver overhead, bij AMD om API overhead - in geen van beide gevallen is CPU overhead de hoofdzaak. Het is wel een logisch gevolg, maar niet de hoofdzaak. Daarnaast is de Mantle driver ook een stuk kleiner, waardoor je daar ook nog minder overhead hebt.
Jij probeert hier een vergelijking te trekken die gewoon niet werkt. Weer een vergelijking voor je, dit keer met een vliegtuig. Nvidia heeft het ding iets aerodynamischer gemaakt maar zit verder nog steeds vast aan de propellor motors. Afhankelijk van de situatie kan het dus best zijn dat ze iets sneller dan voorheen zijn.
AMD heeft het hele vliegtuig uit elkaar gehaald om het van nul af te ontwerpen. Vervolgens hebben ze straalmotoren gebruikt en toevallig is hun nieuwe product ook een stuk aerodynamischer net als bij Nvidia. De snelheid komt echter vooral uit die straalmotoren.
Zonder SLI zijn er nagenoeg geen winsten buiten Hitman (en daar had Nvidia gewoon iets fout zitten in hun driver, heeft niets met "CPU overhead" te maken).Zonder sli zijn er ook winsten, maar dan allen bij de minimale fps zoalsttlefied 4. En bij Hitman is de winst behoorlijk groot zonder sli.
Neem dit nu eens aan van iemand die verdorie een enkele Nvidia GPU heeft, in plaats van constant alles op je eigen situatie met je twee Titans te betrekken. BF4 op 1080p is geen steek veranderd op een 770. Niet qua maximum, niet qua gemiddelde en al helemaal niet qua minimum. Het enige dat deze driver voor mij heeft gedaan in BF4 is dat ik shader cache uit moet zetten, omdat ik anders bij het opstarten van het spel een seconde of 10 moet wachten tot hij alles laadt. Daar tussenin heb ik geen grond, textures van extreem lage resolutie, enzovoort.
Alle reviews laten dit ook zien. Met een enkele GPU zie je winsten op 2560x1440/1600 (waar je veelal helemaal niet CPU bound bent en verminderen van overhead geen nut heeft) of op resoluties van 1600x1200 of lager. Op 1080p is er gewoon geen steek veranderd, met uitzondering van Hitman.
[ Voor 5% gewijzigd door Werelds op 21-04-2014 12:46 ]
Mmh alles opnieuw ontwerpen voor 28nm doe je niet even. Volgens mij is 20nm geen schrink maar een full node? bij een shrink is het namelijk wel relatief makkelijk. Maar als het echt een ander proces is is je chip design ook anders. Als dat ze is weet nVidia dit al heel veel langer en zijn ze er al een jaar mee bezig om het om te zetten.Firedre schreef op maandag 21 april 2014 @ 11:36:
Maxwell hoeven we dit jaar nog niet te verwachten:
http://www.techpowerup.co...ucts-to-launch-in-q4.html
Ben ook benieuwd of dit dan wel maxwell chips zijn en hoeveel prestatie winst er geboekt kan worden binnen het huidige transistor en TDP budget.
Daarnaast ben ik ook erg benieuwd wat AMD gaat doen. Ook nog een nieuwe chip op 28nm uitbrengen of wachten op 20nm?
Edit:
http://videocardz.com/50299/amd-20nm-gpus-year
Wellicht hetzelfde als met de 7970. Een iets snellere versie van de R9 290X en dan pas de 20nm opvolger.
290X kan nog wel een stuk sneller zeker als je hem goed koelt. Misschien een nieuwere stepping die een lager voltage nodig heeft en dus even snel is maar zuiniger? of andersom zelfde verbruik maar sneller.
We gaan het wel zien. Wel jammer dat TSMC keer op keer zo hard faalt.
[ Voor 20% gewijzigd door Astennu op 22-04-2014 08:57 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Je gooit hier een paar dingen door elkaarAstennu schreef op dinsdag 22 april 2014 @ 08:48:
Mmh alles opnieuw ontwerpen voor 28nm doe je niet even. Volgens mij is 20nm geen schrink maar een full node? bij een shrink is het namelijk wel relatief makkelijk. Maar als het echt een ander proces is is je chip design ook anders. Als dat ze is weet nVidia dit al heel veel langer en zijn ze er al een jaar mee bezig om het om te zetten.
Een "node" is geen "shrink", dat staat los van elkaar. Wat je bedoelt zijn full en half nodes. De full nodes 65, 45, 32, 22, 16 nm. De bijbehorende half nodes zijn 55, 40, 28, 20 en 14.
Een shrink staat verder los van welke node hij uiteindelijk naar toe gaat; een die shrink wil niets meer zeggen dan een bestaand chip ontwerp op een nieuw procedé uitvoeren. Daar hoef je je chip niet per sé anders voor te ontwerpen; wel kan het zijn dat je door je layout tegen problemen op loopt met je gekozen materialen. Dat heeft echter niet met de shrink of de grootte van de node te maken, maar met het procedé.
Wel was het vroeger zo dat Nvidia en AMD hun die shrinks vaker met kleinere stappen deden. Zo hebben we tussen 150 nm en 55nm elke node en half-node wel langs zien komen. 80 nm slechts op een handvol, maar hij werd wel gebruikt. Na 55 (half-node) zijn ze meteen naar 40 (ook een half-node) gegaan; daar hoorde eigenlijk 45 tussen. En van 40 meteen naar 28; daar hoorde eigenlijk 32 tussen. De sprong naar 20 wordt nu de derde keer op rij dat we van half-node naar half-node gaan; 22 nm is eigenlijk de full node.
Het maakt verder niet uit of je van full naar half, half naar full, half naar half, full naar full gaat - een die shrink is een die shrink. Zolang je op een nieuwe procedé gaat zitten waar een kleinere chip uit rolt is het een die shrink en wat je er voor moet doen verschilt niet
Overigens denk ik dat AMD gewoon wacht. Ze hebben momenteel niets te vrezen van Nvidia qua verkopen en ik zie dat ook niet gebeuren met een grotere Maxwell op 28 nm. Ik ben er namelijk niet zo zeker van dat wat we in de 750 (Ti) hebben gezien ook op grotere schaal werkt op 28 nm. Volgens mij gaat er dan te veel lekken, waardoor die efficiëntie verloren gaat. AMD heeft het met Tahiti ook lang zat uitgehouden, ik zie niet in waarom Hawaii het niet 12-18 maanden vol kan houden.
Als Nvidia daadwerkelijk Maxwell op 28 nm gaat bouwen is dat zonde, want daar kunnen ze gewoon niet uit persen wat er op 20 nm mogelijk is. Mocht het toch gebeuren gaan we de shrink relatief snel erna zien en dat is gewoon geld weggooien, dus het lijkt me onwaarschijnlijk.
[ Voor 16% gewijzigd door Werelds op 22-04-2014 10:11 ]
Verwijderd
Mijn vergelijking wil zeggen dat het om CPU overhead gaat, ik vergelijk niet de API tegen een drivers maar juist de vergelijking waar de winsten weg komen, Mantle doet het zelfde alleen werkt dat heel anders zoals je zelf al mooi uit legt en dat wat ik bedoel, dat je dat verdraaid of niet begrijpt is een ander verhaal.Werelds schreef op maandag 21 april 2014 @ 12:41:
[...]
Jij probeert hier een vergelijking te trekken die gewoon niet werkt. Weer een vergelijking voor je, dit keer met een vliegtuig. Nvidia heeft het ding iets aerodynamischer gemaakt maar zit verder nog steeds vast aan de propellor motors. Afhankelijk van de situatie kan het dus best zijn dat ze iets sneller dan voorheen zijn.
AMD heeft het hele vliegtuig uit elkaar gehaald om het van nul af te ontwerpen. Vervolgens hebben ze straalmotoren gebruikt en toevallig is hun nieuwe product ook een stuk aerodynamischer net als bij Nvidia. De snelheid komt echter vooral uit die straalmotoren.
[...]
Zonder SLI zijn er nagenoeg geen winsten buiten Hitman (en daar had Nvidia gewoon iets fout zitten in hun driver, heeft niets met "CPU overhead" te maken).
Neem dit nu eens aan van iemand die verdorie een enkele Nvidia GPU heeft, in plaats van constant alles op je eigen situatie met je twee Titans te betrekken. BF4 op 1080p is geen steek veranderd op een 770. Niet qua maximum, niet qua gemiddelde en al helemaal niet qua minimum. Het enige dat deze driver voor mij heeft gedaan in BF4 is dat ik shader cache uit moet zetten, omdat ik anders bij het opstarten van het spel een seconde of 10 moet wachten tot hij alles laadt. Daar tussenin heb ik geen grond, textures van extreem lage resolutie, enzovoort.
ExtremeTech
Beyond mere massaging of the numbers, though, Nvidia’s behavior is also ideologically objectionable. Bear in mind that this driver update is meant to boost performance by reducing CPU bottlenecking caused by DirectX 11 — similar to the way that AMD’s Mantle, and eventually DirectX 12, will improve performance. The whole point of reducing CPU overhead is that it improves performance in situations where there is a CPU bottleneck — and in modern gaming
Dus ook op hogere resoluties kan in moderne dx11 games een cpu bottlenek zitten. Battlefield 4 heeft dat ook erg in bepaalde mappen, zelfs met een enkele kaart.
Mijn winsten met een 1 titan zijn er ook in Battlefield 4 alleen krijg je geen extra fps maar een betere minimale fps en over het algemeen minder pieken en dalen 40 vs 70 fps in mijn geval, de pieken zijn niet meer zo hoog en de minimale fps zakt niet zo ver terug. Dit merk ik erg op in Sieg of Shanghai. Dit zal denk ik dan meer optimalisaties zijn met de GK110 omdat jij een gk104 hebt en de winsten niet ziet.
Van ons beide zegt het verder vrij weinig, daar ben ik het mee eens maar dit is ook maar een voorbeeld zoals je zelf ook al zegt, ik kan ook 1 kaart uit zetten en dat heb ik ook getest
Of met 2 series kaarten uitbrengen. Maxwell op 28nm dit jaar en Maxwell op 20nm volgend jaar. Zo worden de winsten er ook weer uit gehaald of ze moeten geen van beide serie kaarten verkopen.Werelds schreef op dinsdag 22 april 2014 @ 10:06:
[...]
Als Nvidia daadwerkelijk Maxwell op 28 nm gaat bouwen is dat zonde, want daar kunnen ze gewoon niet uit persen wat er op 20 nm mogelijk is. Mocht het toch gebeuren gaan we de shrink relatief snel erna zien en dat is gewoon geld weggooien, dus het lijkt me onwaarschijnlijk.
[ Voor 20% gewijzigd door Verwijderd op 22-04-2014 11:43 ]
Dit topic is gesloten.