[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 20 ... 30 Laatste
Acties:
  • 125.426 views

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 07:26

XanderDrake

Build the future!

Noel schreef op dinsdag 01 april 2014 @ 10:14:
20nm in 2014 was sowieso een ijdele hoop. Geen verrassing dus.
Ja, sneu, maar als ik me herinner hoeveel ellende de overstap naar 28nm was, verbaast mij deze vertraging ook niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Helaas, dus misschien alleen maar maxwell 28nm gpu's dit jaar. Dit hoeft niet zo'n groot probleem te zijn gezien Maxwell goed zuinig kan zijn en daar door valt er ook weer meer prestaties uit te halen bij de zelfde wattage's van nu met Kepler. Voorbeeld is al de 750ti maxwell.

Natuurlijk was het veel mooier geweest als zo'n gpu ook nog op 20nm zit dan is het helemaal een feestje voor nvidia maar dat gaat niet door. Misschien had nvidia toch maar van TSMC af moeten stappen, werd hun ook aangeboden in 2013 om ook ergens anders hun chips te laten bakken.
http://www.theinquirer.ne...-are-knocking-on-its-door

Nvida heeft al vaker door TSMC gedonder gehad, te weinig wafers en dat soort fratsen waar door er niet genoeg gpu's gemaak kunnen worden. Dit waren verder geen yield problemen wat er al snel van gemaakt werd, maar achteraf was het toch TMSC.
http://www.techpowerup.co...-28-nm-manufacturing.html

[ Voor 12% gewijzigd door Verwijderd op 01-04-2014 11:25 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 01 april 2014 @ 11:21:
Nvida heeft al vaker door TSMC gedonder gehad, te weinig wafers en dat soort fratsen waar door er niet genoeg gpu's gemaak kunnen worden. Dit waren verder geen yield problemen wat er al snel van gemaakt werd, maar achteraf was het toch TMSC.
http://www.techpowerup.co...-28-nm-manufacturing.html
Je gaat je toch afvragen waarom Nvidia altijd gezeik heeft bij TSMC, AMD/ATI hebben er eigenlijk nooit last van. Dan zou ik als bedrijf toch gaan kijken of je je chips wel goed ontwerpt voor massa productie.

Acties:
  • 0 Henk 'm!

Verwijderd

Ook AMD heeft er problemen mee gehad, NIET om de wafers maar om andere zaken. Nadeel als het om AMD gaat dat ze weining los laten over hun problemen of ontkennen het misschien wel?
http://wccftech.com/amd-r...lack-skus-extreme-demand/

En ben het er wel mee eens waarom nvidia zo vaak gedonder heeft met TSMC maar daar kun je bijna alleen maar over speculeren ipv echt feiten maken.

Probleem bjij TSMC is vaak te weinig wafers misschien wel personeel?, je kunt niet voor iedere pc component in een keer allemaal chips gaan bakken op 20nm want ze hebben allerlei andere bedrijven die al eerder zijn met 20nm die al verkocht worden en ze zijn al bezig op 16nm.

[ Voor 110% gewijzigd door Verwijderd op 01-04-2014 11:53 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Dat heb ik niet meegekregen, ik kan me wel voorstellen dat ze minder wafers hadden. Mede door de grote vraag (litecoins etc) en omdat een grote chip minder goede yields heeft (en misschien ook omdat Nvidia voorrang heeft zoals uit je vorige bericht blijkt).
Heb je een bron waar specifiek staat dat het echt te weinig wafers zijn met de reden?

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Verwijderd schreef op dinsdag 01 april 2014 @ 11:40:
Ook AMD heeft er problemen mee gehad, NIET om de wafers maar om andere zaken. Nadeel als het om AMD gaat dat ze weining los laten over hun problemen of ontkennen het misschien wel?
http://wccftech.com/amd-r...lack-skus-extreme-demand/
Pfff, wat lul je toch steeds... Ik zie geen link tussen wat je hier over AMD zegt en de TSMC 20/28nm issues.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Het was ook maar meer een voorbeeld om te laten zien dat niet altijd nvidia maar met problemen kampt.


Als het gaat om AMD en wafers bij TSMC,
http://www.kitguru.net/co...ough-wafer-slots-at-tsmc/

Ik wil hier verder geen AMD discussie starten ook maar beantwoorde een vraag over AMD en daar zit geen bedoeling of zo achter.

[ Voor 61% gewijzigd door Verwijderd op 01-04-2014 12:48 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op dinsdag 01 april 2014 @ 11:40:
Ook AMD heeft er problemen mee gehad, NIET om de wafers maar om andere zaken. Nadeel als het om AMD gaat dat ze weining los laten over hun problemen of ontkennen het misschien wel?
http://wccftech.com/amd-r...lack-skus-extreme-demand/

En ben het er wel mee eens waarom nvidia zo vaak gedonder heeft met TSMC maar daar kun je bijna alleen maar over speculeren ipv echt feiten maken.

Probleem bjij TSMC is vaak te weinig wafers misschien wel personeel?, je kunt niet voor iedere pc component in een keer allemaal chips gaan bakken op 20nm want ze hebben allerlei andere bedrijven die al eerder zijn met 20nm die al verkocht worden en ze zijn al bezig op 16nm.
Waar zijn hier de problemen van AMD met TSMC te zien? Het enige "probleem" dat AMD heeft gehad is dat ze niet aan de vraag konden voldoen, wat alles behalve negatief is :)

Nvidia heeft productie problemen gehad die AMD niet heeft gehad; eind resultaat ontzettend waren slechte yields en dingen zoals het underfill probleem. Het is ook juist Nvidia die daar niet open over zijn geweest, het gezeik met Fermi hebben ze heel lang ontkend en dat lag toch echt bij hen en niet bij TSMC.

Acties:
  • 0 Henk 'm!

Verwijderd

TSMC 28nm probleem dit zijn helaas de enige feiten die ik kan vinden. Charlies zijn speculatie kan ook waar zijn natuurlijk.

http://www.extremetech.co...dia-threaten-to-jump-ship

Kijk anderen laten het zien van de negatieve kant als het om nvidia gaat ik laat ook een andere kant zien wat kan zijn. Dit is niet om anderen voor de schenen trappen dat is nooit mijn bedoeling maar men mag wel eens wat verder kijken toch?

[ Voor 5% gewijzigd door Verwijderd op 01-04-2014 12:13 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nogmaals, dat gaat met name om vraag en aanbod, niet om daadwerkelijke problemen met het proces. En ook bij Kepler zit er bij Nvidia simpelweg iets fout, wat in die link prachtig duidelijk wordt. 670 was volop te vinden, 680 niet; met andere woorden, Nvidia kreeg niet genoeg goede chips uit hun wafers. AMD had dat probleem niet; Tahiti was lastig te vinden, maar dat ging om zowel Pro als XT. Anders gezegd, AMD had geen yield problemen maar de vraag was gewoon te groot. Nvidia verwachtte dat TSMC meer kon leveren, zodat ze aan de vraag kon voldoen ondanks hun vele defecten.

Ik wens Nvidia dan ook veel geluk met een andere foundry te vinden die aan de vraag kan voldoen. TSMC is nu eenmaal de grootste; op Intel na. Zie je dat al voor je, Nvidia die hun GPU's in Intel's fabs bakt? ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zal er verder niet over door gaan want ik wil niemand voor zijn schenen trappen en dat gevoel heb ik wel.
Ik zie het het ook van een andere kant en daar blijf ik bij ipv wijzen met vingertjes naar 1 kant toe, of beter gezegt ik zie het van 2 kanten die waar kunnen zijn omdat er gewoon niet voldoende info is om het als feiten te kunnen brengen. Volgens mij was het ook nooit goed geweest dit dit jaren terug hoer begon met speculaties en geen feiten.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Probleem bij TSMC heeft, voorzover ik weet, niks met nVidia of AMD van doen. Ze hebben er allebei evenveel last van dat TSMC het proces nog niet onder controle heeft.

Dit soort zaken wordt ws alleen maar erger in de toekomst omdat de benodigde investeringen om naar nog weer een kleiner proces toe te gaan astronomisch zijn en sterk toenemen. Alleen de allergrootsten kunnen dit nog enigzins opbrengen. Apple, Samsung, Intel.

Wel interessant artikel hierover: http://techsoda.com/no-20nm-graphics-amd-nvidia/

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 08:16

dion_b

Moderator Harde Waren

say Baah

Modbreak:Dit is geen AMD vs nVidia topic.

Nu allemaal kappen met offtopic geneuzel erover en gewoon weer doorgaan over de nVidia GPU's waar dit topic voor bedoeld is.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

Verwijderd

Er is helemaal niets aan de hand Dion en dat heb ik ook gemeld ik stuurde jou alleen maar een pm omdat ik bang ben weg te moeten (dat gevoel heb ik continu omdat je mij ook raar benaderd voor mijn gevoel) want ik heb het gevoel dat ik de hele tijd fout zit, maar ik krijg berichten da dat niet het geval is.
Verder is dit niet oftopic geneuzel het is een discussie niet meer en niet minder waar we allemaal van kunnen leren.
Modbreak:Commentaar op moderatie niet in-topic aub :(

Dit topic is wel degelijk volkomen offtopic aan het gaan de afgelopen 25 posts ofzo. Dat is niet alleen jouw schuld, maar je draagt er wel aan bij. Daarom: nu on-topic blijven, ook niet verder neuzelen over moderatie in het topic :o

[ Voor 55% gewijzigd door dion_b op 01-04-2014 13:26 ]


Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
nVidia's 'Wonder Driver' 337.50 komt morgen uit. Alle kaarten vanaf de 500 serie zouden er van moeten profiteren.

http://wccftech.com/nvidi...eforce-cards-performance/

Ben benieuwd!

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Naar ik begreep hebben ze alleen wat DirectX features geïmplementeerd. Ik zie niet in waarom het ineens een wonder driver moet heten.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ik snap iets niet... als je naar het plaatje hier kijkt : http://nl.hardware.info/n...led-resources-komt-morgen
en de tekst die erbij hoort leest :
Dit betekent dat wanneer bijvoorbeeld een texture uit 16 tegels of pixels bestaat, er normaliter altijd ook kleinere versies worden opgeslagen met 4 tegels en 1 tegel. Wanneer niet het volledige detail nodig is, bijvoorbeeld omdat de texture op grote afstand staat, kan dan de versie met minder pixels snel getoond worden. Als de kleinere versies niet beschikbaar waren in het geheugen, moeten deze kleinere versies eerst opnieuw berekend worden. Voordat deze texture echter gebruikt kan worden moet eerst alle tegels (tiles) worden verstuurd, voor 16 pixels is dit dus 16+4+1 = 21 pixels. Hier komen tiled-resources om de hoek zetten, want slechts de helft van het aantal pixels is in dit geval al voldoende waarna de rest van de pixels vrij eenvoudig berekend kan worden.
Dit is toch gewoon mipmapping dat al jaaaaren lang bestaat :?
Zoiets : http://en.wikipedia.org/wiki/File:MipMap_Example_STS101.jpg

Dan verstuur je toch alleen wat je nodig hebt en hoef je helemaal niks nieuws te berekenen ?!

* nero355 snapt het niet helemaal... Kan iemand dit goed uitleggen ?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dat is juist het punt dat HWI probeert te maken.

Bij MIP mapping moet élke versie van de afbeelding gestuurd worden. Beter gezegd, alle versies samen worden als 1 enkele afbeelding opgeslagen en moet ook in z'n geheel gelezen/geschreven worden. Dus als jij een 2048x2048 texture hebt met een minimum van 16x16 heb je in totaal (2048^2)+(1024^2)+(512^2)+(256^2)+(128^2)+(64^2)+(32^2)+(16^2) = 5592320 pixels. Gaan we nu even uit van 32bpp is dat 4 bytes per pixel, of wel 5592320 * 4 = 22369280 bytes ofwel iets meer dan 21 MB aan data dat in je geheugen moet blijven zitten.

Bij tiled resources blijven alleen de delen in het geheugen die je nodig hebt. Met andere woorden, bij een grote texture wil je waarschijnlijk de grote versie en misschien de 128x128 versie; dan blijven ook alleen die versies in het geheugen.

Wat het betekent is dat we gigantische textures kunnen hebben, zonder daarbij gigantische hoeveelheden VRAM nodig te hebben.

Overigens is dit wat MegaTexture is en wat Tech 4/4.5 dus in software doet. Het zit dan ook al veel langer in OpenGL voor AMD (AMD_sparse_texture) en AMD heeft het ook bijna 2.5 jaar geleden al in hun GPU's ingebouwd, zij noemden het alleen Partially Resident Textures: http://www.anandtech.com/...d-radeon-hd-7970-review/6 - Overigens doet AMD het wel in hardware en niet in software; AMD's implementatie is dus sneller.


En als laatste een video met een demo: http://channel9.msdn.com/Events/Build/2013/4-063

Spring naar 17:30 ;)


Disclaimer: alle cijfertjes zijn afkomstig van mijn duim met behulp van wat zuigwerk en dienen alleen als eenvoudig voorbeeld


Edit: overigens blundert HWI daar wel gigantisch door te zeggen dat TW zo'n winsten krijgt dankzij Tiled Resources. Dat is onzin, want het spel moet die API gebruiken, dat kan Nvidia er niet zomaar in forceren. Nee, de winsten in Rome 2 worden geboekt door wat "optimalisaties" die gegarandeerd niet helemaal kuis zijn :P

[ Voor 13% gewijzigd door Werelds op 07-04-2014 09:42 ]


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Heb het hier eerder gevraagd, maar heb nog geen definitief antwoord gevonden... is dit alleen van toepassing op Win 8.1 zoals sommigen suggereren? Of kan ik hier als Windows 7 (64-bit) gebruiker ook van genieten?

Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
yinx84 schreef op maandag 07 april 2014 @ 10:13:
Heb het hier eerder gevraagd, maar heb nog geen definitief antwoord gevonden... is dit alleen van toepassing op Win 8.1 zoals sommigen suggereren? Of kan ik hier als Windows 7 (64-bit) gebruiker ook van genieten?
Zover ik weet maakt nVidia nu gebruik van Tiled Resources. Dit zit in DirectX 11.2.
DirectX 11.2 zit echter niet in Windows 7 of Windows 8.

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 08:59

MazeWing

The plot thickens...

Inmiddels zijn de drivers te downloaden: http://www.guru3d.com/fil...337_50_beta_download.html

De eerste resultaten die ik her en der lees zeer zeer positief. Toch bij veel games een mooie prestatiewinst van zo'n 10%

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Ben momenteel aan het testen met star swarm, skyrim en metro last light.
Ik zal de resultaten straks wel even posten

Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Er wordt geen woord gerept op de Windowsversie.. ik ga er vanuit dat Windows 7 dus ook dezelfde improvements heeft.

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Het lijkt een beetje mantle achtig te werken, als je CPU bottlenecked helpt het wel anders eigenlijk niet veel. Ik klok mijn CPU(i5-4670k)even flink terug om een CPU bottleneck te forceren

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
MazeWing schreef op maandag 07 april 2014 @ 13:00:
Inmiddels zijn de drivers te downloaden: http://www.guru3d.com/fil...337_50_beta_download.html

De eerste resultaten die ik her en der lees zeer zeer positief. Toch bij veel games een mooie prestatiewinst van zo'n 10%
Ik zou ze allemaal voorlopig met een vrachtwagen zout nemen.

Er zit op de 3DCenter forums ook een grapjurk die 25% verbetering claimt te krijgen op een 3930K@3.8 + 780 Ti op Medium in BF4.

Op de locatie van zijn screenshot krijg ik met de "oude" driver even veel FPS als hij met de oude driver. Ware het niet dat ik een 770 en geen 780 Ti heb 8)7

Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
Ik merk ook totaal geen verbetering. Alleen de games die worden genoemd bij de release notes hebben inderdaad een boost gekregen. Daarvan speel ik er echter maar 1 (Metro Last Light) en die is momenteel niet geinstalleerd. Er worden wel mooie winsten geboekt met Hitman Absolution.

EDIT: Zie net dat ik Sleeping Dogs en Tomb Raider ook heb, maar ook die zijn niet geinstalleerd. 8)7

[ Voor 15% gewijzigd door Tom. C op 07-04-2014 16:03 ]

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Metro LL gaf bij mij geen totaal geen verbetering.

Nu met mijn CPU op 2,0GHz wel een verbetering overal, je hebt er dus eigenlijk alleen echt iets aan met een trage CPU i.c.m. een sneller GPU

Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
!mark schreef op maandag 07 april 2014 @ 15:58:
Metro LL gaf bij mij geen totaal geen verbetering.

Nu met mijn CPU op 2,0GHz wel een verbetering overal, je hebt er dus eigenlijk alleen echt iets aan met een trage CPU i.c.m. een sneller GPU
Klopt, ik denk dat vooral gebruikers van SLI het een en ander gaan merken.

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Tom. C schreef op maandag 07 april 2014 @ 15:44:
Ik merk ook totaal geen verbetering. Alleen de games die worden genoemd bij de release notes hebben inderdaad een boost gekregen. Daarvan speel ik er echter maar 1 (Metro Last Light) en die is momenteel niet geinstalleerd. Er worden wel mooie winsten geboekt met Hitman Absolution.

EDIT: Zie net dat ik Sleeping Dogs en Tomb Raider ook heb, maar ook die zijn niet geinstalleerd. 8)7
Hitman Absolution is nog wel lekker, dat vind ik nog wel leuk om op drie schermen te spelen op een enkele 660 Ti, dus daar kan ik wel wat extra performance gebruiken :P
Tomb Raider ga ik ook nog spelen. Ben benieuwd, de installatie is nu bezig.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Heb vanmiddag het een ander getest met de nieuwe driver:
Levert wel wat prestatiewinst op maar niet echt veel:

AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.
Afbeeldingslocatie: http://i.imgur.com/ED9a5nK.png

Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd

En nog even getest met een "langzamere" CPU:
Afbeeldingslocatie: http://i.imgur.com/wiX2qYO.png

Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.

Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.

Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
!mark schreef op maandag 07 april 2014 @ 19:38:
Heb vanmiddag het een ander getest met de nieuwe driver:
Levert wel wat prestatiewinst op maar niet echt veel:

AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.
[afbeelding]

Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd

En nog even getest met een "langzamere" CPU:
[afbeelding]

Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.

Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.
Mooi overzicht! Star Swarm heeft een mooie boost gekregen zeg.

Als je trouwens het grafische gedeelte van de MP van BF4 met de SP vergelijkt, valt gelijk op dat de MP een uitgeklede versie is. Veel minder details. Dat verklaart de framerates misschien. Heb het zelf nog niet getest.

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Werelds schreef op maandag 07 april 2014 @ 09:30:
Bij MIP mapping moet élke versie van de afbeelding gestuurd worden. Beter gezegd, alle versies samen worden als 1 enkele afbeelding opgeslagen en moet ook in z'n geheel gelezen/geschreven worden.

Bij tiled resources blijven alleen de delen in het geheugen die je nodig hebt. Met andere woorden, bij een grote texture wil je waarschijnlijk de grote versie en misschien de 128x128 versie; dan blijven ook alleen die versies in het geheugen.

Wat het betekent is dat we gigantische textures kunnen hebben, zonder daarbij gigantische hoeveelheden VRAM nodig te hebben.
Ik dacht dus dat dit bij MIPMAPS al lang werd gedaan buiten de GPU om en dan alleen de texture die ook echt nodig is werd ingeladen in het VRAM... blijkbaar niet :X Best slecht eigenlijk :/

Had ik geld mee kunnen verdienen als patent of zo :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
!mark schreef op maandag 07 april 2014 @ 19:38:
Heb vanmiddag het een ander getest met de nieuwe driver:
Levert wel wat prestatiewinst op maar niet echt veel:

AC4 mag je als ongetest beschouwen, had meer met de brakke optimalisatie(console port)te maken.
[afbeelding]

Zeker bij skyrim had ik wel meer verwacht aangezien Nvidia hier meer claimde.
Maar dit kan door de mods hebben die ik heb geinstalleerd

En nog even getest met een "langzamere" CPU:
[afbeelding]

Ik moet er wel bijzeggen dat de FPS stabieler is, wat eerst bijv. 40-60 was is nu 50-60 geworden, dus de minimum FPS is wel meer verbeterd dan het lijkt.

Ook lijkt het bij BF4 in (64p)multiplayer met 25-40% verbeterd te zijn, dit is niet meegenomen omdat MP onbetrouwbaar is. Ironisch genoeg haal ik op 64P MP Meer FPS dan in singleplayer.
Wat voor OS heb je als ik vragen mag?

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Windows 8.1 64bit

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
nero355 schreef op maandag 07 april 2014 @ 19:53:
[...]

Ik dacht dus dat dit bij MIPMAPS al lang werd gedaan buiten de GPU om en dan alleen de texture die ook echt nodig is werd ingeladen in het VRAM... blijkbaar niet :X Best slecht eigenlijk :/

Had ik geld mee kunnen verdienen als patent of zo :+
Haha, het lijkt inderdaad ook logisch, maar je moet onthouden dat mipmapping al een behoorlijk oude technologie is. Toentertijd was bandbreedte een stuk kostbaarder dan nu; je wilde het spul dus niet on-demand laden.

Daarnaast is er met tiled resources ook wel iets meer mogelijk dan alleen het mipmapping voorbeeld. So kun je bijvoorbeeld slechts een deel van een texture laden puur omdat het object dat je er mee gaat behangen niet groot genoeg is voor de hele texture. Dat soort gekke dingen zijn allemaal mogelijk :)

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
Iemand met Win7 x64 al die moeite genomen om te kijken of er ook voor de "gewone" direct x 11 nog wat winst is geboekt? (Lijkt me sterk dat ze uitsluitend tiled resources hebben aangepakt)

Ga zelf nog even niet kijken want heb eindelijk OBS werkend met NVENC, elke keer als ik de nvidia driver update, voor OBS zo ver is, herkent hij NVENC niet meer.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
sdk1985 schreef op dinsdag 08 april 2014 @ 14:48:
Iemand met Win7 x64 al die moeite genomen om te kijken of er ook voor de "gewone" direct x 11 nog wat winst is geboekt? (Lijkt me sterk dat ze uitsluitend tiled resources hebben aangepakt)

Ga zelf nog even niet kijken want heb eindelijk OBS werkend met NVENC, elke keer als ik de nvidia driver update, voor OBS zo ver is, herkent hij NVENC niet meer.
Dit zou ik ook heel graag willen weten, maar plaatjes van benchmarkresultaten (die eerder ook in deze thread gepost zijn) duiden ook op verbeteringen in Win7. Scroll maar eens terug en kijk rechts onderin de hoek bij die plaatjes.

Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Ben benieuwd wat het effect van de Wonder drivers heeft op Arma3, een brak geoptimaliseerd spel.

Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • Tom. C
  • Registratie: Maart 2010
  • Laatst online: 17-09 13:57
evilpin0 schreef op woensdag 09 april 2014 @ 11:05:
Ben benieuwd wat het effect van de Wonder drivers heeft op Arma3, een brak geoptimaliseerd spel.

Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.
Arma 3 draait helaas niet beter of slechter.

Op het forum van Guru3d wordt er voor elke nieuwe driver een topic gemaakt waar mensen hun ervaringen posten. Hier zitten vast en zeker ook mensen tussen met Windows 7.

http://forums.guru3d.com/showthread.php?t=388074

9800X3D | X870e Nova | Corsair Dominator 32GB 6000mhz | TUF RTX 3080TI | Corsair 6500X | MSI MP341CQPX OLED | Simagic Evo Pro | ClubSport Pedals V3 | Megane Renault Sport RS 250


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

Is het nu een goed moment om een Nvidia 770 GTX voor circa €270,- aan te schaffen, of kan ik beter twee maandjes wachten op de Nvidia 870 GTX? Weet iemand welke nieuwigheid de Nvidia 8xx series gaat meebrengen?

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
iApp schreef op woensdag 09 april 2014 @ 15:33:
Is het nu een goed moment om een Nvidia 770 GTX voor circa €270,- aan te schaffen, of kan ik beter twee maandjes wachten op de Nvidia 870 GTX? Weet iemand welke nieuwigheid de Nvidia 8xx series gaat meebrengen?
Ik zit met hetzelfde "probleem", zal ik een 780 kopen of nog eventjes wachten tot de nieuwe gen...

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
evilpin0 schreef op woensdag 09 april 2014 @ 11:05:
Ben benieuwd wat het effect van de Wonder drivers heeft op Arma3, een brak geoptimaliseerd spel.

Intressante drivers, als nvidia dit eerder had aangekondigt had het zeker mijn keuze kunnen beinvloeden.
http://forums.bistudio.co...vidia-GeForce-337-50-Beta

op een lege map lijkt het wel te helpen

bij een lomp gevecht trekt de ai nog steeds de cpu vol, dus dan zal hij nauwelijks beter draaien.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 16-09 16:34
De 8XX series zullen naar verluid waarschijnlijk pas in 2015 komen door problemen met de die shrink. Dus als je niet tot het volgend jaar kan wachten, zou ik nu een 7XX serie kaart kopen.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

En is het verstandiger om de 2GB uitvoering te kopen, of de 4GB? Ik wil futureproof zijn met 2560x1440 resolutie.:)

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
4GB heeft weinig zin, geheugenbandbreedte blijft laag, daarnaast is een GTX 770 op dit moment erg duur.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

De 760 GTX is 'maar' €200 euro, is dat een betere deal?

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • Kwiebus89
  • Registratie: November 2011
  • Laatst online: 06-08 00:38
iApp schreef op woensdag 09 april 2014 @ 19:42:
De 760 GTX is 'maar' €200 euro, is dat een betere deal?
offtopic// Dan zou ik eerder een R9 280X halen voor €230...//

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
iApp schreef op woensdag 09 april 2014 @ 19:42:
De 760 GTX is 'maar' €200 euro, is dat een betere deal?
Een GTX 760 is een perfecte kaart voor 1920x1080. Future proof willen zijn met een 3dkaart is gekken werk;). Elke 1.5-2 jaar zijn die dingen weer 40% sneller, en dat wordt dus ook gebruikt in de games.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

yasin89 schreef op woensdag 09 april 2014 @ 20:47:
[...]

offtopic// Dan zou ik eerder een R9 280X halen voor €230...//
Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores. :) Dan nog de vraag of het de €70,- euro extra waard is t.a.v. de 760 GTX met 'maar' 20% minder performance.

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 16-09 16:34
iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]


Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores. :) Dan nog de vraag of het de €70,- euro extra waard is t.a.v. de 760 GTX met 'maar' 20% minder performance.
Ik heb net een tweedehands GTX 680 Asus gekocht voor €180,- met een DirectCUII cooler, dat ding is echt superstil, zelfs onder het gamen. Het is dan wel een drie slot kaart, maar je hoort hem echt helemaal niet, erg prettig, helemaal vergeleken met mijn F16 XFX cooler die ik had op mijn vorige GPU.
Ik ben sowieso meer een tweedehands GPU koper geworden sinds mijn 6850 kaart. De zogenaamde net aan midrange kaarten zijn het eigenlijk niet waard als je de prestaties vergelijkt met een generatie lager en de prijzen daarvan op de tweedehandsmarkt. Voor €180 heb ik nu een kaart die net even onder de 770 presteert en net zo duur is als de net aan kaarten, maar je krijgt er een veel betere kaart voor terug.

Ik ben weer naar Nvidia gegaan omdat je daarmee ook 3D kan gamen met een anaglyph bril en er redelijke kits zijn voor een shutter bril. Ook de drivers bevallen me beter bij Nvidia. AMD heeft ook prima kaarten, maar waar mijn wensen liggen vind ik Nvidia net even prettiger werken, helemaal nu Nvidia ook minder verbruikt dan AMD kaarten.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]


Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler)
Zo goed zijn ze allemaal helemaal niet. Maar dit is echt geen nieuws en het is ook geen nieuws dat jij een nieuwe videokaart zoekt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • loekf2
  • Registratie: Februari 2002
  • Laatst online: 17-09 07:35
Meer mensen dit probleem gehad ?

Na het installeren van Windows 8.1 Update 1 (x84) werkt de 337.50 driver (soms ?) niet meer. Device manager geeft aan dat "device stopped working" en de resolutie is ineens 1024 x 768. Herinstalleren van de driver geeft alleen een zwart scherm.

De WHQL van paar weken terug (335.23) werkt ok.

Ja, ik het weet het ... beta is beta, maar toch opvallend.

(heb een 660Ti)

iMac 24" M3 | Mac mini M4 | iPhone 16 Pro 256GB | iPad Pro M4 11" 256GB 5G | AW Series 10 | Sony KD-55XE9305 (Ziggo CI+) | ATV 4K | Denon AVC-X3700H | Switch 2 | PS5 Pro/PSVR2 | XSX | Netatmo | Hue | UC Remote 2 | HA | FRITZ!Box 7590AX | XS4ALL glasvezel


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Heb je x86 of x64?
Je schrijftnamelink x84 :P

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
256bit bus???

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
Hoe betrouwbaar is dat tyden.cz? Vergeleken met de 750Ti heeft die kaart nog geen 3x de memory bandbreedte maar wel 5x de hoeveelheid cuda cores.

Nou is de 750 Ti wel iets hoger geklokt, maar als je dat verrekent heb je nog steeds een factor 1.6 verschil, mogen ze wel een flinke cache op die kaarten zetten.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik heb geen idee hoe betrouwbaar Tyden is. Techpowerup is imho iha wel betrouwbaar.

Die 256b bus vond ik ook apart, zeker ook aangezien mem speed niet significant hoger is (kan volgensmij ook niet heel veel hoger met GDDR5) maar aangezien dit niet de "grootste' maxwell zou worden is het misschien wel verklaarbaar. :?

[ Voor 20% gewijzigd door Help!!!! op 10-04-2014 13:13 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
OBR is vooral een erg vervelende fanboy.

Maar één ding is zeker, 20nm is nog ver weg, dus als er geen high-end Maxwell op 28nm komt duurt het nog heel lang voor wel hem gaan zien.

Specs kloppen dus normaal gesproken ook van geen kant. Als het een 20nm kaart wordt dan kunnen wel nog wel een hele tijd wachten en zo ver vooruit kloppen de specificaties toch nooit en als het een 28nm kaart wordt dan kloppende specs ook niet aangezien er 20nm staat. Dus hoe je het ook bekijkt de specificaties kunnen alleen maar niet kloppen. :p

[ Voor 85% gewijzigd door -The_Mask- op 10-04-2014 15:01 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
iApp schreef op woensdag 09 april 2014 @ 21:55:
[...]


Hmm dat wordt moeilijk... een 770 GTX of een R9 280x, zijn beiden even duur (ik wil perse MSI vanwege hun goede koeler) en bieden soortgelijke performance. Ondanks dat denk ik dat de Nvidia een betere keuze is voor video editing vanwege de hoeveelheid Cuda cores. :) Dan nog de vraag of het de €70,- euro extra waard is t.a.v. de 760 GTX met 'maar' 20% minder performance.
Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7103/55840.png
Voor bf3 op 1080p is het overkill....

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7103/55839.png
Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@ Help & The_Mask:

De aantallen zijn ook heel onlogisch. Slechts 40 ROPs op die 3200 SPs? En er even van uitgaande dat we inderdaad naar GM104 kijken en we dus tegen de 300mm^2 aan zitten, zit daar ook een behoorlijke verdichting van transistors in, meer dan ik zou verwachten.

Allemaal dikke duim werk :)

Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

sdk1985 schreef op donderdag 10 april 2014 @ 15:03:
[...]

Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:
[afbeelding]
Voor bf3 op 1080p is het overkill....

[afbeelding]
Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).
Dan is de Nvidia 770 GTX idd een betere optie! Nu nog de keuze tussen het 2 GB en 4 GB model, aangezien 2560 x 1440 nog aardig wat geheugen voor textures wil gebruiken...

[ Voor 4% gewijzigd door iApp op 10-04-2014 17:16 ]

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op donderdag 10 april 2014 @ 15:03:
[...]

Hangt natuurliijk af van de games die je speelt en de framerate die jij wenst:
[afbeelding]
Voor bf3 op 1080p is het overkill....

[afbeelding]
Voor bf3 op 1440p is 44 te weinig en 54 nog net te doen... (imo).
Dat komt vast uit een hele oude review, aangezien een R9 280X het nu iig veel beter doet met BF3, gelijk als een GTX 770 op full HD. Maar again dit is geen nieuws. :/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
Volgens mij was iApp zo slim om de AMD/Nvidia discussiete voorkomen door te stellen dat hij de meerwaarde van CUDA zag voor zijn gebruik (overigens vindt ik zelf vooral de x264 hardware encoder het beste selling point, maar ik doe dan ook weleens streamen en encoden).

Ps Anandtech heeft de 280 ook getest; 70 vs 84 en 46 vs 53 in het voordeel van Nvidia.
http://images.anandtech.com/graphs/graph7400/58679.png
http://images.anandtech.com/graphs/graph7400/58678.png


Maar zoals je zelf al aangeeft worden benchmark tegenwoordig steeds meer moment opnames... Zie ook de info over de wonderdriver 1 pagina eerder :P.



Ik kon de Geforce Experience overigens updaten:
http://www.geforce.com/wh...es/geforce-experience-2-0
Today, we are releasing GeForce Experience 2.0, a major update that introduces ShadowPlay desktop capture, advanced Twitch streaming controls, ShadowPlay for notebooks, and SHIELD GameStream support for notebooks. This expansive update enables the capture of any game in Windows, gives streamers complete control over their feeds, enables fullscreen gameplay capture on notebooks, and enables GeForce GTX notebooks to stream gameplay to NVIDIA SHIELD, just like desktops.
Beste nieuws is dat alt-tab gaan nu je recording pauzeert in plaats van beëindigd...
These capabilities also extend to Twitch streaming, enabling uninterrupted League of Legends broadcasts, and broadcasts of any game run in windowed mode. To enable desktop capture for local recordings and Twitch broadcasts, update to GeForce Experience 2.0, install the new GeForce 337.50 beta drivers, and ensure Windows Aero mode is enabled. Desktop capture is disabled by default; to enable the feature, go to Preferences -> ShadowPlay, and check "Allow desktop capture".
Zal binnenkort eens kijken of de Nvidia shield streaming (via de Android emulatie app) beter werkt dan tijdens 1.8. Met Steam in-home streaming kon ik al gamen op mijn e-350, als android straks echt lekker werkt is het helemaal mooi :+ .

[ Voor 21% gewijzigd door sdk1985 op 10-04-2014 18:11 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Hoop dat shadowplay binnenkort 1440p gaat ondersteunen :P

[ Voor 4% gewijzigd door !mark op 10-04-2014 21:32 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Even een crosspost uit het AMD topic omdat we inderdaad in het verkeerde topic zaten.
Verwijderd schreef op maandag 14 april 2014 @ 17:36:
Ik ben niet zo naïef om te denken dat de boost clocks zijn verhoogd of dat het allemaal sli profiel updates zijn. Je probeert wel dingen te brengen die helemaal niet aan de orde zijn zonder enig onderzoek er naar te doen en schreeuwt het van de daken af alsof nvidia de foute is. Ik merk zelf heel veel prestatie winsten op in Battlefield MP en in skyrim waar geen andere sli profielen voor worden gebruikt en dan de rest van de games nog om niet te vergeten zoals Thief en Crysis 3.
Nogmaals, geen enkele site laat ook maar enige vooruitgang zien in een van die games in situaties buiten SLI. Sterker nog, in de meeste gevallen valt het zelfs met SLI vies tegen, zoals Crysis 3.

Wat ik nu al meerdere malen heb gezegd is dat het deels door nieuwe SLI profielen komt (Rome 2 zat er gewoonweg niet in, daar kun je moeilijk over doen wat je wil, maar het staat verdorie in de release notes van de driver), anderzijds door een bottleneck met betrekking tot SLI in hun driver. Als je wilt verzamel ik de reviews wel allemaal voor je. Anand, [H], Guru3D en kleinere sites als Blackholetec laten allemaal hetzelfde zien. In SLI zie je in veel gevallen vooruitgang; maar zelfs dan niet in alle gevallen. Met enkele GPU's is het verschil zo klein dat je bijna kunt spreken van een geval binnen de foutmarge, behalve in Hitman, Bioshock en Metro. Die 3 games gaan weldegelijk flink vooruit. Jouw voorbeeld van Crysis 3 gaat bijvoorbeeld alleen op met 1600x1200 of lager; op 1080p is het verschil al slechts 2% (1-2 FPS).

Het gaat simpelweg niet, zoals Nvidia beweert, om een of andere magische truuk waarmee ze onder DX11 in z'n geheel meer uit je kaart kunnen halen. Als dat zo was, dan zou er voor enkele kaarten ook iets te zien zijn en dat is gewoon niet het geval. Daar kun je je zo beledigd door voelen als je wil, maar dat is gewoon een feit. Alle sites die de driver hebben bekeken laten dat zien en ik ken ook niemand met een enkele kaart die wél iets uit die driver heeft gekregen. Ikzelf ook niet.

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 08:59

MazeWing

The plot thickens...

De benchmarks zijn allemaal average FPS, terwijl veel gebruikers aangeven dat vooral hun minimum framerate omhoog is gegaan (ten koste van hoge uitschieters, waardoor het average weer vergelijkbaar is). Op veel sites lees ik dat gebruikers tevreden zijn met de nieuwe (constantere) prestaties.

En nVidia geeft ook aan dat de grootste prestatieverbeteringen met SLI te behalen zijn. Het is toch juist mooi dat ze dat doen. SLI wordt zo steeds beter en beter bruikbaar. Zeker gezien de lage frametimes vergeleken met AMD...

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De frametimes zijn bij de nieuwe generatie Radeon R9-290 en de R9-295X2 geen probleem meer:
http://www.guru3d.com/art...n_r9_295x2_review,30.html

De discussie begon in het andere topic voornamelijk omdat er werd geclaimed dat Nvidia met de 337.50 driver doet wat Mantle doet, wat totaal niet klopt. Hiermee bedoelde men niet "beter" of "slechter" maar waar de verschillen zitten bij de resultaten van beide.

Acties:
  • 0 Henk 'm!

Verwijderd

Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
Astennu schreef op dinsdag 15 april 2014 @ 09:15:
[...]


Ach die mensen heb je in het nVidia topic net zo goed.
nVidia zal vast dingen verbeterd hebben. Maar het viel mij wel op dat de verschillen op 1080P en hoger maar 1-3% waren voor de 780 TI. En dat de clockspeeds voor boost modes hoger waren (bron HardOCP). Tja dat verklaart de snelheid winst in dat geval wel. Ik heb er niets op tegen hoor. Betere prestaties voor de eindgebruiker is altijd goed. Maar clockspeeds verhogen zou AMD eventueel ook nog kunnen doen. Doe 290X kaarten kunnen ook makkelijk 1050 MHz draaien.
Bij veel anderen zijn de clocks niet verhoogt met de TI. Word er niet bedoeld dat de clock langer, sneller en stabieler op de maximale clock speed draaien dat verwacht ik namelijk eerder omdat bij niemand anders met de TI de clockspeeds zijn verhoogd.

Het zijn verder vooral de minimale fps die stukken beter zijn in meerdere games. Maximale fps zegt niet zo veel maar de minimale fps juist wel, dankzij het cpu overhead gedoe.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
Nee, dat doet het dus niet. Je hebt echt een compleet verkeerd idee van wat Mantle is en doet.

In Direct3D zit een gigantische overhead, doordat de API geschikt moet zijn voor alle GPU's en alles dus heel abstract moet zijn. Het gevolg is dat er intern heel veel "nutteloze" (quotes omdat ze niet nutteloos zijn vanuit het oogpunt van D3D zelf) calls zitten, puur zodat het altijd werkt. Waar D3D vervolgens bijvoorbeeld 15 calls naar de driver nodig heeft (en de driver zelf waarschijnlijk ook 20 naar de GPU toe) zit Mantle veel dichter op de GPU. De API is veel directer gericht op renderen. Het grote verschil is dat je met Mantle zélf moet doen wat D3D in veel gevallen voor je doet.

Met andere woorden, waar je in D3D bijvoorbeeld D3D->doSomething() doet en D3D vervolgens 15 draw calls nodig heeft om uit te vogelen hoe dat precies moet, doe je in Mantle die draw calls zélf. Nu klinkt dat als meer werk, maar bij heel veel 3D bewerkingen zijn van die 15 calls bijvoorbeeld slechts 3 nodig voor jouw specifieke situatie.

Dit kan Nvidia gewoon onmogelijk veranderen. Voor de zoveelste keer, de bottlenecks waar developers tegen aan lopen (en dus de bottlenecks die Mantle wil vermijden en die devs op de consoles niet hebben) zitten in D3D, niet in de driver.

Ja, Nvidia heeft wat overhead verminderd. Maar het is níet dezelfde overhead waar men het over heeft met Mantle. Die zit op een veel hoger niveau. De overhead die Nvidia heeft verminderd is overhead die ze zelf hebben veroorzaakt en dat is een overhead waar een developer vooralsnog schijt aan heeft. Een developer werkt met D3D, niet met drivers. Developers lopen nu tegen bottlenecks met D3D aan, niet met drivers. Driver bottlenecks gaan ze juist pas tegen komen als ze met Mantle of straks DX12 werken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.


[...]


Bij veel anderen zijn de clocks niet verhoogt met de TI. Word er niet bedoeld dat de clock langer, sneller en stabieler op de maximale clock speed draaien dat verwacht ik namelijk eerder omdat bij niemand anders met de TI de clockspeeds zijn verhoogd.

Het zijn verder vooral de minimale fps die stukken beter zijn in meerdere games. Maximale fps zegt niet zo veel maar de minimale fps juist wel, dankzij het cpu overhead gedoe.
Kijk maar bij HardOCP (R9 295X2 review) daar zie je toch duidelijk dat de Max Boost clocks hoger liggen dan voorheen. We hebben het niet over de base clocks.

Trouwens niet handig om een quote uit een ander topic hier te gebruiken. Nu zag ik hem toevallig maar anders had ik niet kunnen reageren :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 15 april 2014 @ 15:32:
[...]


Kijk maar bij HardOCP (R9 295X2 review) daar zie je toch duidelijk dat de Max Boost clocks hoger liggen dan voorheen. We hebben het niet over de base clocks.

Trouwens niet handig om een quote uit een ander topic hier te gebruiken. Nu zag ik hem toevallig maar anders had ik niet kunnen reageren :)
Ja, ik zie het maar dat is Kepler boost, die is meestal hoger dan de opgegeven boost clocks in gpu-z ;)
Het zelfde heb ik ook met mijn 2 titans maar dat is niet driver afhankelijk want de boost clocks blijft het zelfde zo is kaart 1 876 mhz boost in gpu-z maar in werkelijkheid is dat een stuk hoger. En de andere kaart heeft een wat mindere chip en die boost clock ligt weer wat lager.

De boost clocks hangt af van de ASIC, heb je een goede chip dan is de boost clock automatisch hoger en dit is niet nieuw of via een driver geforceerd.

Dat het niet op valt vind ik maar raar, dan hebben ze voorheen een kaart gebruikt met een mindere chip die dus een lagere boost clock heeft.

[ Voor 6% gewijzigd door Verwijderd op 15-04-2014 16:01 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik neem aan dat ze dit wel met dezelfde kaarten getest hebben. Dat soort mensen horen te weten dat het per chip / kaart anders is en dat temps ook een rol spelen.

Er van uitgaand dat ze dat dus weten is het raar dat die boostclocks met andere drivers ineens hoger uitvallen. Imo kun je dat soort dingen prima met drivers bij sturen. Ligt aan de implementatie van nVidia of het kan of niet. Maar ik zie niet waarom het niet zou kunnen.

[ Voor 22% gewijzigd door Astennu op 16-04-2014 08:26 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ik neem zelf aan van niet want bij de iedereen die ik ken met een gtx780 ti vertellen dat het onzin is, ook word er niet over gepraat bij andere reviews.

Ik weet niet of het verder mogelijk is om ook de clocks te verhogen via drivers, ik denk het niet want de clocks worden via de BIOS geregeld. Het zal misschien kunnen maar dan moet in de driver zelf een BIOS flash zitten die dan een andere bios op de videokaart zet met een aangepaste boost clock.

Ik heb die artikel nog doorgelezen. Ze hebben het nergens over verhoogde boost clocks. Wat ik wel zie in één tabel is dat er real boost clock bij staat maar dat is dus die kepler boost wat ik een post boven jou al vertelde.

[ Voor 20% gewijzigd door Verwijderd op 16-04-2014 11:54 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Met afterburner kun je toch ook je clocks aanpassen. Die past ook je bios niet aan.
Boost clocks zijn gewoon speed steps die aangeroepen worden. Kan ook extern aangestuurd worden als het moet.

Als dat die Kepler boost is prima zo veel verstand heb ik niet van nVidia's marketing termen. Waar het mij om ging is dat die is met de nieuwe drivers hoger is dan voorheen en dat zou dan ook een extra hoge FPS verklaren.

[ Voor 13% gewijzigd door Astennu op 16-04-2014 14:48 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Leuke test, zo zie je ook goed dat er minder winst is bij lagere resoluties. Op 2560x1440 zijn de wisten groter. En met een laag geclockte cpu zijn de winsten nog groter.

Deze winsten haal ik ook.
http://www.hardwarecanuck...r-performance-review.html

Er is ook een hotfix driver uit voor del schermen.
http://nvidia.custhelp.com/app/answers/detail/a_id/3491

[ Voor 3% gewijzigd door Verwijderd op 18-04-2014 10:12 ]


Acties:
  • 0 Henk 'm!

  • Phuuz
  • Registratie: April 2009
  • Laatst online: 09-09 21:41
ASUS RoG Striker GTX 760
You may recognize the name. Does it tickle an old memory? Yes, pine for that Striker II motherboard again as the ROG’s new Striker graphics card range launches; the binding factor between them both being the Nvidia heart. Thankfully, though, we’ve dropped the blue and copper livery for a much more ROG red-n-black, with modern innovations like the CoolTech fan and custom ROG-ified DirectCU II cooler hardware, on top of a custom engineered PCB with binned GPUs and 8-phase DIGI+ VRM with Super Alloy Power hardware that’s primed for overclocking.

The LED backlit logo on the side varies in three gradients to represent real-time GPU load, and its 4GB double-memory size is perfect for ultra-high resolutions like WQHD, 4K or multiple monitor setups.
Vertragings tactiek omdat maxwell verder weg is dan we denken of is dit om van de resterende stock af te komen? :+ Jammer dat er geen GTX 770 versie hiervan is..

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
Werelds schreef op dinsdag 15 april 2014 @ 12:46:
[...]

Nee, dat doet het dus niet. Je hebt echt een compleet verkeerd idee van wat Mantle is en doet.
Over
Verwijderd schreef op dinsdag 15 april 2014 @ 10:51:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overhead ;).

Overigens geniet de aanpak van Nvidia duidelijk de voorkeur, een hardware afhankelijke api is een erg slecht idee.

Los van de bekende nadelen (3dfx glide, remember that?) moet je ook rekening houden met het driver beleid van AMD... Die staan nu niet echt bekend in de lange support van hun producten. Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit |:( .

Ik denk dat we AMD heel erg dankbaar mogen zijn dat ze het Mantle concept hebben uitgewerkt, en zo druk hebben uitgeoefend om DirectX aan te pakken. Nu gewoon weer iedereen dezelfde API aub... Daarnaast aub ook alle Direct X updaten voor Windows 7 aub :+ .

[ Voor 12% gewijzigd door sdk1985 op 19-04-2014 00:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
[...]

Over

[...]

AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overhead ;).
Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.

Ik kan voor de grap anders wel een benchmark op mijn pc draaien, je ziet dat Nvidia meer fps in de Star Swarm demo heeft gekregen met hun highend kaart (kan ook zijn omdat ze nog nooit voor die demo hebben geoptimaliseerd maar dat terzijde). Morgen zal ik het op mijn setup draaien met Mantle icm een Q6600 en een 290, ik weet haast 100% zeker dat ik meer fps zal halen en misschien wel het dubbele.
Setup is ook wel de ultieme combinatie om het te testen, een vreselijk outdated cpu met een snelle gpu.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
AMD zegt zelf letterlijk "Enables 9x more draw calls per second than other APIs by reducing CPU overhead". In algemene zin probeert Mantle performance te boosten door het verlagen van de cpu overhead (aldus AMD). Nvidia probeert nu performance te boost via.. rara, het verlagen van de cpu overhead ;).
Het valt echter op, dat op de GPU gelimiteerde benchmarks (2560x1440 en hoger) de winsten hier voornamelijk zijn en op de CPU gelimiteerde benchmarks (1920x1080 en lager) er veel minder of vaak verwaarloosbaar (<2%) winst te behalen valt. Het lijkt dus dat niet de CPU overhead hebben gereduceerd maar algemeen hogere performance op de GPU hebben gerealiseerd. Wat logisch is, aangezien het fundamentele "probleem" bij DX11 zit en niet de Nvidia of AMD drivers.
Overigens geniet de aanpak van Nvidia duidelijk de voorkeur, een hardware afhankelijke api is een erg slecht idee.
Mantle is niet hardware-afhankelijk, dat denk je omdat AMD het heeft ontwikkeld. Mantle is door iedereen te gebruiken en AMD zou ermee gebaat zijn dat Nvidia het zou gebruiken. Maar Nvidia is gekend om steeds volledig voor zijn oplossingen te gaan.
Los van de bekende nadelen (3dfx glide, remember that?) moet je ook rekening houden met het driver beleid van AMD... Die staan nu niet echt bekend in de lange support van hun producten.
3dfx Glide stamt uit een heel andere tijd die niet meer vergelijkbaar is. Tegenwoordig moet men veel rekening houden met makkelijke conversie naar consoles.

AMD heeft inderdaad de "support" niet meer voor de oudere GPU's in zijn recentere drivers zitten, vermoedelijk om te focussen op de GCN structuur. Echter is er gewoon de Legacy driver van eind 2013 die tot en met de HD 5000-series ondersteund (5 jaar oud). Het is dan ook niet zo dat Nvidia nog iets doet met oude GPU's in zijn drivers.
Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit |:( .
De E350 is een low-end CPU met IGP van eind 2010. De Atom N330 die ik kocht rond de release van de barebone waar hij opzit was ook al "abandoned" omdat de IGP gewoon te oud was. Oude, goedkope producten hebben dat nu meestal, zeker als er niets meer te verbeteren valt.
Ik denk dat we AMD heel erg dankbaar mogen zijn dat ze het Mantle concept hebben uitgewerkt, en zo druk hebben uitgeoefend om DirectX aan te pakken. Nu gewoon weer iedereen dezelfde API aub... Daarnaast aub ook alle Direct X updaten voor Windows 7 aub :+ .
Het is inderdaad goed dat Microsoft nu wakker wordt maar daar zie je ook weer het probleem aan software-dependent API's: je hangt vast aan de provider van de software. Microsoft had geen zin om DX nog te willen ontwikkelen dus dit stond stil: Nvidia en AMD (en Intel ?) moesten het maar gaan oplossen met meer ruwe prestaties en maar zoveel mogelijk rond de beperkingen bouwen.

Mantle is niet letterlijk hardware- of software-dependent, maar zolang het in handen van AMD is, kunnen zij uiteindelijk ermee doen wat ze willen. In principe zou men beter overwegen om het platform-onafhankelijke OpenGL te ondersteunen, hierdoor zullen veel meer OS'en er gebruik van kunnen maken (mits drivers). Want met DX zien we nu ook dat we nog steeds afhankelijk zijn van iemand.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sp3ci3s8472 schreef op zaterdag 19 april 2014 @ 02:11:
Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.
Dit dus. Gelukkig snapt iemand het :/

De overhead die Nvidia vermindert met deze driver is overhead waar ze ook zelf verantwoordelijk voor zijn. De overhead vanuit D3D is gewoon nog steeds onverminderd aanwezig. Overigens heeft AMD al enkele jaren geleden een groot deel van hun CPU overhead verminderd. Dat was ten tijde van Cayman (5870). Daarna zijn ze echter weer wat afgezakt, waardoor Nvidia nu iets efficiënter met DX11 is.

Ik heb echter het gevoel dat we tegen een muur staan te praten..

[ Voor 4% gewijzigd door Werelds op 19-04-2014 11:48 ]


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Interessant stukje over maxwell: http://wccftech.com/nvidi...-wild-kepler-gk210-works/

2H 2014 en nog steeds op 28nm geproduceerd. Viel wel te verwachten eigenlijk aangezien TSMC's 20nm nog niet klaar is voor gebruik in complexe gpu's.
Vraag me wel af of die 256-bit bus geen bottleneck gaat worden op hogere resoluties. Nvidia heeft blijkbaar wat aangepast in maxwell zodat er efficienter met het vram wordt gewerkt, maar of dat genoeg zal zijn valt nog te bezien imo.

[ Voor 32% gewijzigd door ColinZ op 19-04-2014 13:48 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17-09 07:38

Tomas Hochstenbach

Redacteur componenten
AMD heeft in de Q1-call officieel bevestigd dat er dit jaar geen 20nm-GPU's uitkomen, een tijdje terug was al in het nieuws dat Nvidia-partners dat zeiden. Moet wel raar lopen als een van de twee het wel nog voor 2015 voor elkaar krijgt. Ja, misschien een paperlaunch in december ;)

Acties:
  • 0 Henk 'm!

Verwijderd

ColinZ schreef op zaterdag 19 april 2014 @ 13:40:
Interessant stukje over maxwell: http://wccftech.com/nvidi...-wild-kepler-gk210-works/

2H 2014 en nog steeds op 28nm geproduceerd. Viel wel te verwachten eigenlijk aangezien TSMC's 20nm nog niet klaar is voor gebruik in complexe gpu's.
Vraag me wel af of die 256-bit bus geen bottleneck gaat worden op hogere resoluties. Nvidia heeft blijkbaar wat aangepast in maxwell zodat er efficienter met het vram wordt gewerkt, maar of dat genoeg zal zijn valt nog te bezien imo.
Ik denk niet dat die 256bit bus een bottlenek gaat vormen want Maxwell gaat er totaal anders mee om.
Dit heeft zo zijn voordelen zoals goedkoper een kaart maken. Het is noog wel afwachten wat het doet maar dat zit vast goed anders zet Nvidia er ook geen 256bit bus op. :P

Driver 337
En over de drivers van nvidia ik weet zelf natuurlijk ook wel dat het niets met DX11 te maken heeft, ik zeg ook nergens dat het er wel mee te maken heeft. Er zijn ook andere functies bij gekomen zoals dat de laad tijden in games minder worden en dat is goed te merken met BF4.

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Maxwell heeft veel meer L2 cache wat de geheugen bottleneck potentieel kan wegnemen, de vraag is alleen hoe houdt die 256 bit bus zich op hogere resoluties

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

!mark schreef op zaterdag 19 april 2014 @ 16:24:
Maxwell heeft veel meer L2 cache wat de geheugen bottleneck potentieel kan wegnemen, de vraag is alleen hoe houdt die 256 bit bus zich op hogere resoluties
Dan nog kan je in die cache waarschijnlijk geen textures kwijt en daar is het ook niet voor bedoelt :P. Ik denk dat het vooral voor compute dingen handig is of dat er een stukje shader code in wordt geladen wat vaak wordt gebruikt.
Maar correct me if im wrong zeg maar :p.

Dat merkte je vroeger ook bij bepaalde dingen zoals superpi dat als het in de cache van de cpu paste het een factor 2 sneller kon zijn. Dat was eerder ook de grote reden dat intel processoren zo snel in die dingen waren, grote cache.
Edit:
Ook met spellen als de mainloop in de cache kon dan was het een stuk sneller.

[ Voor 5% gewijzigd door Sp3ci3s8472 op 20-04-2014 00:12 ]


Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 07:11
ff een vraagje, momenteel heb ik de pricewatch: MSI Radeon R9 280X GAMING 3GB. (deze kan ik voor 200 verkopen)
Voor 150 meer kan ik pricewatch: Asus GTX780-DC2OC-3GD5 kopen.

350 euro, kost deze nieuw .... is dit het waard?
op andere sites lees ik juist weer dat ATI beter is voor gamen. (en dan vooral de r9 290x)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

TomasH schreef op zaterdag 19 april 2014 @ 14:12:
AMD heeft in de Q1-call officieel bevestigd dat er dit jaar geen 20nm-GPU's uitkomen, een tijdje terug was al in het nieuws dat Nvidia-partners dat zeiden. Moet wel raar lopen als een van de twee het wel nog voor 2015 voor elkaar krijgt. Ja, misschien een paperlaunch in december ;)
Eerlijk gezegd verwondert me dit niet dat beide fabrikanten geen nieuwe producten uitbrengen. Er is het één en ander gebeurd in de de GPU wereld in korte tijd (bv. coin mining) en het ziet ernaar uit dat men (Microsoft en AMD in de voorgrond) zich wil focussen op het efficienter maken van de software lagen, wat in mijn ogen een goede zet is: je hebt niets aan de beste technologie als driver en API issues je prestaties tegenhouden.

We komen dan wel van een tijd waar er jaarlijks nieuwe lineups aan GPU's werden geintroduceerd die de vorige generatie van zijn sokkel bliezen, nog niet zo lang geleden allemaal. Op zich vind ik dit niet erg: men is minder "verplicht" te upgraden, zo kunnen mensen met een Core i-reeks van de tweede generatie nog steeds met alles mee, misschien blijft die GTX 780Ti en R9 290X nu langer zijn geld waard ?

Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Aggressor schreef op zondag 20 april 2014 @ 07:32:
ff een vraagje, momenteel heb ik de pricewatch: MSI Radeon R9 280X GAMING 3GB. (deze kan ik voor 200 verkopen)
Voor 150 meer kan ik pricewatch: Asus GTX780-DC2OC-3GD5 kopen.

350 euro, kost deze nieuw .... is dit het waard?
op andere sites lees ik juist weer dat ATI beter is voor gamen. (en dan vooral de r9 290x)
Ik zou ook wel eens onderzoeken welke services je krijgt. Mijn ervaring met de driver support door AMD is minder dan geweldig. Nu ben ik een Linux gebruiker, dus krijg ik een extra kort stokje, maar ik heb uit het Windows-kamp ook wel eens geklaag gehoord, onder andere van mensen die een nieuwe laptop kochten waarvan na nauwelijks enige tijd AMD de GPU tot legacy benoemde, en iemand die Skyrim op de Intel IGP mocht spelen omdat zijn AMD GPU niet eens herkend wilde worden. Mijn ervaring met Nvidia is dat het gewoon werkt, niets meer, niets minder.

Ik wil hiermee niet meteen AMD compleet afraden, want dan krijg ik boze mensen op mijn dak, maar neem alsjeblieft dat soort dingen wel mee in je overweging. Hardware is meer dan alleen hardware. Support is ook een belangrijk aspect.

Overigens zitten we hiermee wel een beetje offtopic. Hoort niet echt thuis in een nieuwsdiscussie.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik zou zeggen hou je geld, het is niet een gigantische upgrade.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17-09 19:07
Sp3ci3s8472 schreef op zaterdag 19 april 2014 @ 02:11:
[...]


Dat is niet het punt wat Werelds probeert te maken. Nvidia verlaagd inderdaad misschien de cpu overhead, maar doet dat in hun driver en niet in direct x.
Het is dus niet hetzelfde als Mantle en ze zullen ook nooit dezelfde grote getallen aan draw calls kunnen maken zonder een grote performance impact. Zodra er DX12 is dan zal dit waarschijnlijk gaan veranderen maar voor die tijd niet.

Ik kan voor de grap anders wel een benchmark op mijn pc draaien, je ziet dat Nvidia meer fps in de Star Swarm demo heeft gekregen met hun highend kaart (kan ook zijn omdat ze nog nooit voor die demo hebben geoptimaliseerd maar dat terzijde). Morgen zal ik het op mijn setup draaien met Mantle icm een Q6600 en een 290, ik weet haast 100% zeker dat ik meer fps zal halen en misschien wel het dubbele.
Setup is ook wel de ultieme combinatie om het te testen, een vreselijk outdated cpu met een snelle gpu.
De originele stelling hield niet in dat Mantle hetzelfde was als de Nvidia wonderdriver... Er werd alleen opgemerkt dat beide gebruik maken van het verlagen van de cpu load om prestatie verbetering te bewerkstelligen. Juist dat dit niet op dezelfde manier werd opgelost bleek al uit de originele stelling |:( . Hele verhaal waarom Mantle anders is was volstrekt overbodig, en verandert niets aan de juistheid van de stelling ;). Iedereen die wil weten hoe/wat Matle doet kan gewoon op Anandtech de uitgebreide review bekijken.

Overigens lijkt de wonderdriver een bijproduct van Maxwell te zijn:
Nvidia heeft ook een groter deel van de scheduling van de hardware naar de software verplaatst. Dat heeft een iets hogere cpu-belasting tot gevolg, maar volgens Nvidia is dat een klein offer voor de energiebesparing die Maxwell met zich meebrengt.
reviews: Nvidia GTX 750 Ti: de snelste onder de 75 watt

Zal wel een soort cpu/driver analyse hebben plaatsgevonden (net als dat bleek dat NVidia al jaren intern rekening met frametimes hield, en AMD toe gaf daar nooit naar te hebben gekeken)..

*offtopic*
De E350 is een low-end CPU met IGP van eind 2010
Low-power (16W) lijkt me een beter beschijving :+ .

Bordje wat ik had kwam pas in de pricewatch 4 maart 2011. Ik heb het ding waarschijnlijk rond maart 2012 gekocht (Aldus de tweakers review op mijn profiel). De chipset drivers vallen ook onder Catalyst dus komt er op neer dat post 2013 er gewoon niks meer gebeurd. Dat is jammer want de driver updates hebben eigenlijk elke keer behoorlijk wat verbeterd.

Tot op heden trouwens geen goede opvolger kunnen ontdekken. Dus mijn HTPC zal nog minstens een jaar die e350 blijven gebruiken (J1800 Intel hoef ik niet ivm brakke drivers, en fps bug). Maar dat is niet voor het Nvidia nieuwstopic :P .

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sdk1985 schreef op zondag 20 april 2014 @ 20:42:
De originele stelling hield niet in dat Mantle hetzelfde was als de Nvidia wonderdriver... Er werd alleen opgemerkt dat beide gebruik maken van het verlagen van de cpu load om prestatie verbetering te bewerkstelligen. Juist dat dit niet op dezelfde manier werd opgelost bleek al uit de originele stelling |:( . Hele verhaal waarom Mantle anders is was volstrekt overbodig, en verandert niets aan de juistheid van de stelling ;). Iedereen die wil weten hoe/wat Matle doet kan gewoon op Anandtech de uitgebreide review bekijken.
Jouw stelling wellicht niet, het was wel die van Magherb82.

Zijn exacte woorden:
Het doet ook bijna wat Mantle doet via cpu overhead alleen werkt Mantle op een andere manier want het is een andere aparte api.
Het doet níet hetzelfde als Mantle. Mantle zit op dezelfde plek als Direct3D. En onder Mantle zit nog steeds een driver, waar ook nog steeds overhead in zit. Om maar even schematisch weer te geven waar dit alles plaats vindt:
code:
1
2
3
4
5
6
7
   D3D
    |
Interface
    |          Mantle
  Driver       Driver
    |             |
   GPU           GPU


Met Mantle heb je sowieso al de interop laag tussen D3D en de driver niet. Daarnaast moet ik eigenlijk Mantle op gelijk niveau met de GPU zetten om het verschil in principe achter de API weer te geven. Onthoud dat er met Mantle nog steeds gewoon een driver is. Wat je in Mantle doet zit veel dichter op wat je wilt dat de GPU doet, de driver vormt hier de interface naar de GPU toe. In D3D is de API veel abstracter en geeft hij niet noodzakelijkerwijs weer wat je wilt wat de GPU doet of zelfs wat je naar de driver wilt sturen.

Om ook dat maar even uit te leggen, auto vergelijking zoals we hier liever niet zien (:P): in D3D zegt je code "rijd naar locatie X, 2km hier vandaan". D3D zal dan gas geven, koppeling indrukken en schakelen wanneer nodig, maar volgt gewoon rijkswegen omdat dat nu eenmaal de gangbare weg is. Met Mantle moet je die handelingen zelf uitvoeren, maar heb je ook de keuze om binnendoor te rijden omdat dat veel sneller is. Die keuze heb je in D3D simpelweg niet en daar kan zowel AMD als Nvidia geen donder aan veranderen. In beide gevallen zal de API aan de driver vragen wat voor versnellingsbak er in zit, zodat hij weet of het überhaupt nodig is om de koppeling in te drukken of zelfs te schakelen. In beide gevallen is het ook de driver die bepaalt wat er precies gebeurt als je het gaspedaal in drukt; voor de ene auto is dat immers een lekker ouderwets stukje mechaniek, terwijl in een andere auto dit volledig elektrisch gebeurt.

De overhead waar Nvidia aan heeft gewerkt met deze driver zit gewoon op een compleet ander niveau dan waar Mantle opereert - ik kan het zelfs nog leuker maken door te zeggen dat de overhead die ze nu weg halen, even goed in hun Mantle driver had gezeten als ze er 1 hadden willen maken. Dat betekent echter ook dat als ze er 1 hadden willen maken, de winst via Mantle nog veel groter was geweest.

Nogmaals, wat Nvidia doet is leuk en zeker prettig voor ons als gamers, maar wat ze beweren is gewoon je reinste onzin en het is dan ook uitermate zonde dat er zo veel mensen met beide voeten in trappen. En het is simpelweg niet zo effectief als Mantle; op 1080p zonder SLI is er nagenoeg niets te zien en laat Mantle nu juist daar leuke resultaten boeken.


Disclaimer: bovenstaand schema is je reinste onzin, want de manier waarop D3D werkt is eigenlijk nog veel ingewikkelder. Er zitten meerdere interfaces tussen D3D en de daadwerkelijke GPU driver en die interfaces communiceren ook onderling met elkaar. Dit was puur ter illustratie van wat er zich op hoog niveau afspeelt.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

sdk1985 schreef op zondag 20 april 2014 @ 20:42:
Low-power (16W) lijkt me een beter beschijving :+ .

...

Tot op heden trouwens geen goede opvolger kunnen ontdekken. Dus mijn HTPC zal nog minstens een jaar die e350 blijven gebruiken (J1800 Intel hoef ik niet ivm brakke drivers, en fps bug). Maar dat is niet voor het Nvidia nieuwstopic :P .
De E350 blijft een low-end oplossing aangezien het naar dat segment geprijsd was, evenals de Intel Atom. Low-power die niet low-end is, is eerder iets zoals de U-reeks CPU's van Intel. Maar als je een low-power oplossing zoekt, kijk dan zeker naar dit: pricewatch: Intel Next Unit of Computing (V3) Core i3-4010U en pricewatch: Intel Next Unit of Computing (V3) Core i5-4250U

De TDP (wat een maximum is) is misschien "hoog", maar het gemiddeld verbruik is uiteindelijk toch laag.
Zo meet Anandtech op de Core i5 versie slechts 13W load aan de muur voor het renderen van 1080p60 H.264 media onder XBMC. Of 10W voor het streamen van een YouTube filmpje onder Windows 8.

[ Voor 6% gewijzigd door Phuncz op 20-04-2014 21:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 20 april 2014 @ 21:11:
[...]

Jouw stelling wellicht niet, het was wel die van Magherb82.

Zijn exacte woorden:
Dan heb je mij verkeerd begrepen want ik zeg dat het bijna het zelfde doet als Mantle ( CPU overhead) maar Mantle werkt op een andere manier. Ik maak er niet van dat de 2 API's het zelfde zijn en op de zelfde manier het werk doen, maar wat ze doen lijkt op elkaar als het gaat om CPU overhead.
Werelds schreef op zondag 20 april 2014 @ 21:11:
[...]


Nogmaals, wat Nvidia doet is leuk en zeker prettig voor ons als gamers, maar wat ze beweren is gewoon je reinste onzin en het is dan ook uitermate zonde dat er zo veel mensen met beide voeten in trappen. En het is simpelweg niet zo effectief als Mantle; op 1080p zonder SLI is er nagenoeg niets te zien en laat Mantle nu juist daar leuke resultaten boeken.
Zonder sli zijn er ook winsten maar dan allen bij de minimale fps zoals in battlefied 4. En bij Hitman is de winst behoorlijk groot zonder sli.

[ Voor 41% gewijzigd door Verwijderd op 21-04-2014 12:28 ]


Acties:
  • 0 Henk 'm!

  • Firedre
  • Registratie: Maart 2004
  • Laatst online: 06:05
Maxwell hoeven we dit jaar nog niet te verwachten:

http://www.techpowerup.co...ucts-to-launch-in-q4.html

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
sdk1985 schreef op zaterdag 19 april 2014 @ 00:31:
Die staan nu niet echt bekend in de lange support van hun producten. Als er over 2 jaar de GCN architectuur er uit ligt, wat gebeurd er dan met Mantle? De nieuwste driver voor mijn E350 stamt uit 12/18/2013... Geen nieuwe drivers meer, terwijl de garantie er nog op zit |:( .
Ik zal het beleefd houden... De laatste officiele driver van AMD is van 18 december 2013, voor alle GPU's. Er zijn wel nieuwere beta-drivers en of die de E-350 ondersteunen (al dan niet foutloos) is een vrasg die ik niet kan beantwoorden, maar se driver ondersteunt sowieso wel Brazos/Ontario als chip in verschillende SKU's.

Dus, ten eerste heeft je E-350 nog exact dezelfde ondersteuning als de laatst uitgebrachte videokaarten en ten tweede zal er ongetwijfeld nog wel een nieuwe officiele driver uitkomen voor VLIWx DX11 GPU's.

Voor de rest is het wederom een typisch 'AMD ondersteunt zijn producten amper/niet' geneuzel... Het enige wat AMD niet meer doet, is het maandelijks uitbrengen van gecertificeerde drivers.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 21 april 2014 @ 10:53:
Dan heb je mij verkeerd begrepen want ik zeg dat het bijna het zelfde doet als Mantle ( CPU overhead) maar Mantle werkt op een andere manier. Ik maak er niet van dat de 2 API's het zelfde zijn en op de zelfde manier het werk doen, maar wat ze doen lijkt op elkaar als het gaat om CPU overhead.
Nogmaals, nee. Nvidia's wijzigingen maken het niet mogelijk meer draw calls te verwerken zoals Mantle doet, daar loop je nog steeds tegen D3D aan. Ik zal het nog 1 keer zeggen: wat Nvidia nu met hun driver doet hadden ze ook met hun Mantle driver kunnen doen en dan nóg meer winst kunnen boeken. Nvidia fixt hier hun eigen fouten, terwijl AMD met Mantle de fouten van MS/D3D probeert te fixen.

In beide gevallen is er minder CPU overhead. Nvidia's doel met deze driver was het verlagen van hun eigen CPU overhead in die driver. Mantle's doel is het verminderen van API overhead waarbij CPU overhead automatisch ook minder wordt, maar dat is niet de hoofdzaak. Bij Nvidia draait het om driver overhead, bij AMD om API overhead - in geen van beide gevallen is CPU overhead de hoofdzaak. Het is wel een logisch gevolg, maar niet de hoofdzaak. Daarnaast is de Mantle driver ook een stuk kleiner, waardoor je daar ook nog minder overhead hebt.

Jij probeert hier een vergelijking te trekken die gewoon niet werkt. Weer een vergelijking voor je, dit keer met een vliegtuig. Nvidia heeft het ding iets aerodynamischer gemaakt maar zit verder nog steeds vast aan de propellor motors. Afhankelijk van de situatie kan het dus best zijn dat ze iets sneller dan voorheen zijn.

AMD heeft het hele vliegtuig uit elkaar gehaald om het van nul af te ontwerpen. Vervolgens hebben ze straalmotoren gebruikt en toevallig is hun nieuwe product ook een stuk aerodynamischer net als bij Nvidia. De snelheid komt echter vooral uit die straalmotoren.
Zonder sli zijn er ook winsten, maar dan allen bij de minimale fps zoalsttlefied 4. En bij Hitman is de winst behoorlijk groot zonder sli.
Zonder SLI zijn er nagenoeg geen winsten buiten Hitman (en daar had Nvidia gewoon iets fout zitten in hun driver, heeft niets met "CPU overhead" te maken).

Neem dit nu eens aan van iemand die verdorie een enkele Nvidia GPU heeft, in plaats van constant alles op je eigen situatie met je twee Titans te betrekken. BF4 op 1080p is geen steek veranderd op een 770. Niet qua maximum, niet qua gemiddelde en al helemaal niet qua minimum. Het enige dat deze driver voor mij heeft gedaan in BF4 is dat ik shader cache uit moet zetten, omdat ik anders bij het opstarten van het spel een seconde of 10 moet wachten tot hij alles laadt. Daar tussenin heb ik geen grond, textures van extreem lage resolutie, enzovoort.

Alle reviews laten dit ook zien. Met een enkele GPU zie je winsten op 2560x1440/1600 (waar je veelal helemaal niet CPU bound bent en verminderen van overhead geen nut heeft) of op resoluties van 1600x1200 of lager. Op 1080p is er gewoon geen steek veranderd, met uitzondering van Hitman.

[ Voor 5% gewijzigd door Werelds op 21-04-2014 12:46 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mmh alles opnieuw ontwerpen voor 28nm doe je niet even. Volgens mij is 20nm geen schrink maar een full node? bij een shrink is het namelijk wel relatief makkelijk. Maar als het echt een ander proces is is je chip design ook anders. Als dat ze is weet nVidia dit al heel veel langer en zijn ze er al een jaar mee bezig om het om te zetten.

Ben ook benieuwd of dit dan wel maxwell chips zijn en hoeveel prestatie winst er geboekt kan worden binnen het huidige transistor en TDP budget.

Daarnaast ben ik ook erg benieuwd wat AMD gaat doen. Ook nog een nieuwe chip op 28nm uitbrengen of wachten op 20nm?

Edit:

http://videocardz.com/50299/amd-20nm-gpus-year

Wellicht hetzelfde als met de 7970. Een iets snellere versie van de R9 290X en dan pas de 20nm opvolger.
290X kan nog wel een stuk sneller zeker als je hem goed koelt. Misschien een nieuwere stepping die een lager voltage nodig heeft en dus even snel is maar zuiniger? of andersom zelfde verbruik maar sneller.

We gaan het wel zien. Wel jammer dat TSMC keer op keer zo hard faalt.

[ Voor 20% gewijzigd door Astennu op 22-04-2014 08:57 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Astennu schreef op dinsdag 22 april 2014 @ 08:48:
Mmh alles opnieuw ontwerpen voor 28nm doe je niet even. Volgens mij is 20nm geen schrink maar een full node? bij een shrink is het namelijk wel relatief makkelijk. Maar als het echt een ander proces is is je chip design ook anders. Als dat ze is weet nVidia dit al heel veel langer en zijn ze er al een jaar mee bezig om het om te zetten.
Je gooit hier een paar dingen door elkaar :)

Een "node" is geen "shrink", dat staat los van elkaar. Wat je bedoelt zijn full en half nodes. De full nodes 65, 45, 32, 22, 16 nm. De bijbehorende half nodes zijn 55, 40, 28, 20 en 14.

Een shrink staat verder los van welke node hij uiteindelijk naar toe gaat; een die shrink wil niets meer zeggen dan een bestaand chip ontwerp op een nieuw procedé uitvoeren. Daar hoef je je chip niet per sé anders voor te ontwerpen; wel kan het zijn dat je door je layout tegen problemen op loopt met je gekozen materialen. Dat heeft echter niet met de shrink of de grootte van de node te maken, maar met het procedé.

Wel was het vroeger zo dat Nvidia en AMD hun die shrinks vaker met kleinere stappen deden. Zo hebben we tussen 150 nm en 55nm elke node en half-node wel langs zien komen. 80 nm slechts op een handvol, maar hij werd wel gebruikt. Na 55 (half-node) zijn ze meteen naar 40 (ook een half-node) gegaan; daar hoorde eigenlijk 45 tussen. En van 40 meteen naar 28; daar hoorde eigenlijk 32 tussen. De sprong naar 20 wordt nu de derde keer op rij dat we van half-node naar half-node gaan; 22 nm is eigenlijk de full node.

Het maakt verder niet uit of je van full naar half, half naar full, half naar half, full naar full gaat - een die shrink is een die shrink. Zolang je op een nieuwe procedé gaat zitten waar een kleinere chip uit rolt is het een die shrink en wat je er voor moet doen verschilt niet ;)


Overigens denk ik dat AMD gewoon wacht. Ze hebben momenteel niets te vrezen van Nvidia qua verkopen en ik zie dat ook niet gebeuren met een grotere Maxwell op 28 nm. Ik ben er namelijk niet zo zeker van dat wat we in de 750 (Ti) hebben gezien ook op grotere schaal werkt op 28 nm. Volgens mij gaat er dan te veel lekken, waardoor die efficiëntie verloren gaat. AMD heeft het met Tahiti ook lang zat uitgehouden, ik zie niet in waarom Hawaii het niet 12-18 maanden vol kan houden.

Als Nvidia daadwerkelijk Maxwell op 28 nm gaat bouwen is dat zonde, want daar kunnen ze gewoon niet uit persen wat er op 20 nm mogelijk is. Mocht het toch gebeuren gaan we de shrink relatief snel erna zien en dat is gewoon geld weggooien, dus het lijkt me onwaarschijnlijk.

[ Voor 16% gewijzigd door Werelds op 22-04-2014 10:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 21 april 2014 @ 12:41:
[...]

Jij probeert hier een vergelijking te trekken die gewoon niet werkt. Weer een vergelijking voor je, dit keer met een vliegtuig. Nvidia heeft het ding iets aerodynamischer gemaakt maar zit verder nog steeds vast aan de propellor motors. Afhankelijk van de situatie kan het dus best zijn dat ze iets sneller dan voorheen zijn.

AMD heeft het hele vliegtuig uit elkaar gehaald om het van nul af te ontwerpen. Vervolgens hebben ze straalmotoren gebruikt en toevallig is hun nieuwe product ook een stuk aerodynamischer net als bij Nvidia. De snelheid komt echter vooral uit die straalmotoren.


[...]

Zonder SLI zijn er nagenoeg geen winsten buiten Hitman (en daar had Nvidia gewoon iets fout zitten in hun driver, heeft niets met "CPU overhead" te maken).

Neem dit nu eens aan van iemand die verdorie een enkele Nvidia GPU heeft, in plaats van constant alles op je eigen situatie met je twee Titans te betrekken. BF4 op 1080p is geen steek veranderd op een 770. Niet qua maximum, niet qua gemiddelde en al helemaal niet qua minimum. Het enige dat deze driver voor mij heeft gedaan in BF4 is dat ik shader cache uit moet zetten, omdat ik anders bij het opstarten van het spel een seconde of 10 moet wachten tot hij alles laadt. Daar tussenin heb ik geen grond, textures van extreem lage resolutie, enzovoort.
Mijn vergelijking wil zeggen dat het om CPU overhead gaat, ik vergelijk niet de API tegen een drivers maar juist de vergelijking waar de winsten weg komen, Mantle doet het zelfde alleen werkt dat heel anders zoals je zelf al mooi uit legt en dat wat ik bedoel, dat je dat verdraaid of niet begrijpt is een ander verhaal.

ExtremeTech
Beyond mere massaging of the numbers, though, Nvidia’s behavior is also ideologically objectionable. Bear in mind that this driver update is meant to boost performance by reducing CPU bottlenecking caused by DirectX 11 — similar to the way that AMD’s Mantle, and eventually DirectX 12, will improve performance. The whole point of reducing CPU overhead is that it improves performance in situations where there is a CPU bottleneck — and in modern gaming

Dus ook op hogere resoluties kan in moderne dx11 games een cpu bottlenek zitten. Battlefield 4 heeft dat ook erg in bepaalde mappen, zelfs met een enkele kaart.

Mijn winsten met een 1 titan zijn er ook in Battlefield 4 alleen krijg je geen extra fps maar een betere minimale fps en over het algemeen minder pieken en dalen 40 vs 70 fps in mijn geval, de pieken zijn niet meer zo hoog en de minimale fps zakt niet zo ver terug. Dit merk ik erg op in Sieg of Shanghai. Dit zal denk ik dan meer optimalisaties zijn met de GK110 omdat jij een gk104 hebt en de winsten niet ziet.
Van ons beide zegt het verder vrij weinig, daar ben ik het mee eens maar dit is ook maar een voorbeeld zoals je zelf ook al zegt, ik kan ook 1 kaart uit zetten en dat heb ik ook getest ;)
Werelds schreef op dinsdag 22 april 2014 @ 10:06:
[...]


Als Nvidia daadwerkelijk Maxwell op 28 nm gaat bouwen is dat zonde, want daar kunnen ze gewoon niet uit persen wat er op 20 nm mogelijk is. Mocht het toch gebeuren gaan we de shrink relatief snel erna zien en dat is gewoon geld weggooien, dus het lijkt me onwaarschijnlijk.
Of met 2 series kaarten uitbrengen. Maxwell op 28nm dit jaar en Maxwell op 20nm volgend jaar. Zo worden de winsten er ook weer uit gehaald of ze moeten geen van beide serie kaarten verkopen.

[ Voor 20% gewijzigd door Verwijderd op 22-04-2014 11:43 ]

Pagina: 1 ... 20 ... 30 Laatste

Dit topic is gesloten.