[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 19 ... 30 Laatste
Acties:
  • 125.427 views

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op zondag 23 februari 2014 @ 13:33:
Leuk hoe zo'n conclusie nu al getrokken wordt m.b.t. de grote Maxwell, alsof AMD niet ook naar 20nm gaat en ongetwijfeld ook wat vernieuwingen klaar heeft staan :p
Met alle respect er is in heel de recente AMD R9 serie maar een kaart die een beetje interessant is wat betreft performance per watt, en dat is een rebrand (270x). Performance per watt graphhttp://www.techpowerup.co...SUS/GTX_750_Ti_OC/26.html.
Ik heb dan ook niet echt de illusie dat AMD dit jaar nog komt met een ook maar enigzins interessante kaart op dat gebied (lees; die Nvidia op dat gebied het vuur aan de schenen legt i.p.v. de elektirsche minikacheltjes die de high-end van AMD op dit moment helaas is). Voor mijn ITX game-rig is performance per watt nu eenmaal belangrijk en hoewel de 750ti onvoldoende upgrade is vanaf een 6850 ( en in de toekomst upgrade naar 1440p) beloofd het wel een serieuze innovatie op het voor mij belangrijkste aspect.

Mantle en trueaudio etc is allemaal leuk en aardig maar nog echte niche en zolang AMD kaarten gaan throttelen in mijn systeem is het gewoon een no go.

Ik zit dan ook echt te wachten op een 870 met een 3xx brede geheugenbus en >=3gb VRAM zodat ook een deftig gemodde skyrim op 1440p soepel loopt. (een 770 heeft voor mij genoeg power maar te gebrekkige geheugen bandbreedte/hoeveelheid en het TDP zit tegen de max die mijn node 304 soepel aankan; lees onder de 80'C blijft)t.

[ Voor 31% gewijzigd door eL_Jay op 24-02-2014 12:22 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Performance per watt is voor 90% van de gamers ook niet zo heel belangrijk.
Zo heel veel uren draait de kaart niet voluit dat het echt een elektriciteitsrekening probleem wordt.
Daarnaast moet je in de zomer gewoon buiten zitten met vlees op de BBQ en een biertje (en/of een voetbal) en in de winter is een extra kacheltje wel lekker (dan bespaar je zelfs op je gasrekening, al is gas stoken natuurlijk nog goedkoper dan elektrisch).

Voor ITX kan het van belang zijn, maar dan heb je het puur over geluid/fanspeed (en daar hecht ik persoonlijk ook niet veel waarde aan, maar kan me voorstellen dat sommigen daar wel wat om geven).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Zit er niet ook een relatie tussen performance per watt en performance per mm ?

Uiteindelijk heb je een budget qua watt waar ook bepaalde grenzen aan zitten. (Op de desktop 350w ofzoiets ?) Dus hoe meer p/w hoe beter en dus toch ook best belangrijk voor de gamer.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op maandag 24 februari 2014 @ 12:06:
Met alle respect er is in heel de recente AMD R9 serie maar een kaart die een beetje interessant is wat betreft performance per watt, en dat is een rebrand (270x). Performance per watt graphhttp://www.techpowerup.co...SUS/GTX_750_Ti_OC/26.html.
Ik heb dan ook niet echt de illusie dat AMD dit jaar nog komt met een ook maar enigzins interessante kaart op dat gebied (lees; die Nvidia op dat gebied het vuur aan de schenen legt i.p.v. de elektirsche minikacheltjes die de high-end van AMD op dit moment helaas is).
Dus omdat AMD voor het eerst in jaren eens niet mijlen ver voor ligt qua performance per Watt, schrijf je ze meteen af? We mogen wel stellen dat het juist AMD is geweest die in de 6 jaar voorafgaand aan de huidige generatie het lekker deed op dat gebied. Daarnaast mogen we ook stellen dat het juist AMD is die goed met nieuwe nodes om kan gaan.

De enige reden dat Hawaii zo relatief veel stroom verbruikt is omdat het simpelweg een opgeblazen chip is. Het enige doel was om Nvidia bij te benen op het hoogste niveau en dat is ze gelukt met relatief weinig meer stroomverbruik; bij lange na niet zo veel als nvidia nog geen 5 jaar geleden nodig had in verhouding. En dan is de chip nog steeds een stuk kleiner; als ze daadwerkelijk voor Nvidia's die waren gegaan hadden ze genoeg ruimte gehad voor een betere indeling.

Ik twijfel er eerlijk gezegd meer aan dat Nvidia een succesvolle chip uit 20nm geperst krijgt dan dat AMD dat doet. De transities naar 65, 55 en vooral 40 waren verre van vlekkeloos; en ook 28 ging niet helemaal lekker, aangezien ze de eerste revisie van Kepler hebben overgeslagen.

Begrijp me niet verkeerd, wat Nvidia hier nog even klaarspeelt zo op de valreep van het 28nm procedé vind ik niks anders dan uitermate indrukwekkend. Ik weet echter ook dat er een nieuwe node aan komt en dat ze daar nou niet bepaald experts in zijn geweest de afgelopen jaren.

Ik zou AMD nog even niet afschrijven.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
eL_Jay schreef op maandag 24 februari 2014 @ 12:06:
[...]
Ik heb dan ook niet echt de illusie dat AMD dit jaar nog komt met een ook maar enigzins interessante kaart op dat gebied (lees; die Nvidia op dat gebied het vuur aan de schenen
Waarom niet? 20nm wordt einde van het jaar wel verwacht en dat zal een grote verbetering zijn. Qua architectuur zullen ze ook nog wel wat winnen en als ze eerder met 20nm zijn als nVidia dan kan AMD prima weer de even de betere performance/watt hebben.
mitsumark schreef op maandag 24 februari 2014 @ 12:42:
Performance per watt is voor 90% van de gamers ook niet zo heel belangrijk.
Niet direct maar performance/watt bepaald wel wat de max performance van een kaart kan zijn. Meer als 300W voor single GPU videokaart wordt gewoon teveel. Dus met een betere performance per watt haal je ook meer performance bij je snelste kaart.
Help!!!! schreef op maandag 24 februari 2014 @ 13:06:
^
Zit er niet ook een relatie tussen performance per watt en performance per mm ?
Je kunt ervoor kiezen om een grote die met meer streamprocessors te nemen op een lage kloksnelheid en spanning goed voor de performance per watt maar slecht voor de performance per mm en dus ook slechter voor de winst, grotere die kost immers meer. Daarom wordt er door AMD en nVidia tegenwoordig ook vaak gekozen voor een redelijk hoge kloksnelheid van zo'n 1GHz. Dan kun je meer performance per mm halen, ook al is dit minder voor de performance per watt. Maar performance per watt kun je zelf natuurlijk ook nog wat beïnvloeden met overklok en onderklok en veranderen van de spanning.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

R0SSI schreef op maandag 24 februari 2014 @ 12:03:
Miners gebruiken toch alleen AMD, of heb ik het nu weer mis?
Je had het goed als er geen Maxwell chip was, zins maxwell kan het het Minen ook met nvidia kaarten. Zelf heb IK niets met dat hele Minen gebeuren vind het zonde van mijn videokaarten en dat beetje nep geld wat je in kunt ruilen voor echt geld of mee betalen in een winkel is voor mij niets waard, heb er ook een hekel aan trouwens omdat door de Miners de videokaarten duurder worden en door het verbruik valt er niet genoeg mee te verdienen als je niet wilt beleggen met Coins. Het was leuk geweest als ze niet hoeft te kopen maar juist veel Coins gratis kunt minen met je videokaarten.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op maandag 24 februari 2014 @ 13:46:
[...]

Dus omdat AMD voor het eerst in jaren eens niet mijlen ver voor ligt qua performance per Watt, schrijf je ze meteen af? We mogen wel stellen dat het juist AMD is geweest die in de 6 jaar voorafgaand aan de huidige generatie het lekker deed op dat gebied. Daarnaast mogen we ook stellen dat het juist AMD is die goed met nieuwe nodes om kan gaan.

Ik zou AMD nog even niet afschrijven.
-The_Mask- schreef op maandag 24 februari 2014 @ 13:49:
[...]

Waarom niet? 20nm wordt einde van het jaar wel verwacht en dat zal een grote verbetering zijn. Qua architectuur zullen ze ook nog wel wat winnen en als ze eerder met 20nm zijn als nVidia dan kan AMD prima weer de even de betere performance/watt hebben.
AMD is een richting in geslagen waarbij ze performance per watt gewoon totaal onbelangrijk lijken te vinden.
Vergelijk de 750ti (28nm) met de 260x (28nm) en je snapt hopelijk wat ik bedoel.
Hetzelfde geld voor de high-end vanaf 770/280x, nvidia weet met gehandicapte (geheugenbus) chips gelijke of betere prestaties neer te zetten met een lager verbruik.

AMD keuze is brute power en een bruut verbruik, Nvidia lijkt meer te kiezen voor geoptimaliseerde power (minder raw performance(synthetisch) maar gelijke of betere fps/frametimes(real-life-gaming) met een eveneens geoptimaliseerd verbruik.
Ik schrijf AMD nog niet af, ik schrijf ze enkel af op het voor mij relevante "discipline".

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
Verwijderd schreef op maandag 24 februari 2014 @ 15:16:
[...]

Je had het goed als er geen Maxwell chip was, zins maxwell kan het het Minen ook met nvidia kaarten. Zelf heb IK niets met dat hele Minen gebeuren vind het zonde van mijn videokaarten en dat beetje nep geld wat je in kunt ruilen voor echt geld of mee betalen in een winkel is voor mij niets waard, heb er ook een hekel aan trouwens omdat door de Miners de videokaarten duurder worden en door het verbruik valt er niet genoeg mee te verdienen als je niet wilt beleggen met Coins. Het was leuk geweest als ze niet hoeft te kopen maar juist veel Coins gratis kunt minen met je videokaarten.
Nooeeesss!!! Straks kunnen we helemaal geen videokaarten meer krijgen. :'(

gelukkig hebben de 750 kaarten geen externe 6 pin power, houdt het misschien een beetje binnen de perken.

Aan de andere kant, als de mining performance / watt flink beter is dan bij amd worden die misschien op de 2ehandsmarkt gedumpt.

[ Voor 7% gewijzigd door haarbal op 25-02-2014 12:53 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
eL_Jay schreef op dinsdag 25 februari 2014 @ 10:48:
[...]


[...]

AMD is een richting in geslagen waarbij ze performance per watt gewoon totaal onbelangrijk lijken te vinden.
Wat een onzin, Maxwell is een net nieuwe generatie en pas de eerste sinds jaren met een echt betere performance per watt tegenover AMD. AMD was sinds vorige maand nog altijd vergelijkbaar en enkele jaren ervoor beter.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
is de hoofdreden voor de performance/watt gat niet het feit dat AMD nu veel meer gpgpu dingen heeft toegevoegd aan zijn chips?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Op dit moment is AMD heeft AMD idd veel GPGPU power en dat kost idd ruimte.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op dinsdag 25 februari 2014 @ 10:48:
AMD is een richting in geslagen waarbij ze performance per watt gewoon totaal onbelangrijk lijken te vinden.
Dat is slechts één enkele generatie en in die generatie is het nog steeds met Nvidia vergelijkbaar zoals The_Mask ook zegt.

Daar zijn twee mogelijke verklaringen voor. Optie nummer 1 is dat ze geen tijd meer wilden steken in het verbeteren van hun spul op 28nm - het gevolg is dat ze hun bestaande technologie op een grotere die toepasten. Aangezien die technologie juist al jaren op kleine dies is gericht, pakt dat relatief negatief uit. De andere optie is dat ze hier niet toe in staat waren. Maar juist AMD is daar logischerwijs wel toe in staat, aangezien juist zij het daar al zo lang zo goed op doen. Waarschijnlijk had AMD er op dat gebied beter aan gedaan om juist iets minder op elkaar gepakt te werken en voor een (nog) iets grotere die te gaan. Ik vermoed dat Hawaii gewoon een deel van de efficiëntie kwijt is doordat alles te krap op elkaar zit.

Ik snap jouw denkwijze volledig, ik denk alleen dat je iets te vroeg conclusies trekt. Het is namelijk ook maar de vraag hoe Nvidia's technologie uit pakt op een grotere die. Vergeet niet dat de transistor density omhoog is gegaan; dat betekent dat ze met een grotere die tegen AMD's "probleem" met Hawaii aan lopen. Een deel van de gewonnen efficiëntie gaat hierdoor dus gegarandeerd verloren :)

[ Voor 9% gewijzigd door Werelds op 25-02-2014 13:51 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
-The_Mask- schreef op dinsdag 25 februari 2014 @ 13:06:
[...]

Wat een onzin, Maxwell is een net nieuwe generatie en pas de eerste sinds jaren met een echt betere performance per watt tegenover AMD. AMD was sinds vorige maand nog altijd vergelijkbaar en enkele jaren ervoor beter.
R9 is ook net een nieuwe generatie (al dan niet halve rebrand) Vorige maand was de high-end toch echt niet vergelijkbaar wat betreft performance per watt (qua powerdraw: 280x>770, 290>780, 290x>780ti)
Afbeeldingslocatie: http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/perfwatt.gif
Het midrange segment is meer stuivertje wisselen maar daar is nu ook een significante verandering in gekomen. Daarnaast zie ik AMD gewoon niet zo'n belachelijke hoge performance(per watt) gain realiseren, zoals Nvidia nu met maxwell realiseerd.

AMD richt lijkt zich meer te richten op allround powerhouses( kijkende naar hun meest recente kacheltje de 290/x, die zelfs stock throttlen bij reference design) (goed voor alles(gaming, GPGPU etc), top rauwe performance, maar ook hoger verbuik), waar Nvidia zich meer op efficiente gaming lijkt te richten (gehandicapte bus, gpgpu, lagere rauwe performance, maar lager verbruik met nauwelijks game-concessies). Gaming is het enige wat ik mijn game-rig doe en dus wil ik een zo efficient mogelijke GAMING gpu (fps per watt). Deze kan AMD op 28nm gewoon niet leveren in het high-end segment.
(de 270x is zeer interessant, maar underpowered,de 770 is door de geheugenbus te gehandicapt en de 280x is te heet voor een ITX ,beide partijen kunnen me momenteel niet leveren wat ik zoek >200 watt met 1440p performance)

Lang verhaal kort :performance per watt lijkt lager op het prioriteiten lijstje van AMD dan van Nvidia te staan

[ Voor 5% gewijzigd door eL_Jay op 25-02-2014 15:07 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
eL_Jay schreef op dinsdag 25 februari 2014 @ 14:23:
[...]

R9 is ook net een nieuwe generatie (al dan niet halve rebrand) Vorige maand was de high-end toch echt niet vergelijkbaar wat betreft performance per watt (qua powerdraw: 280x>770, 290>780, 290x>780ti)
[afbeelding]
Het midrange segment is meer stuivertje wisselen maar daar is nu ook een significante verandering in gekomen. Daarnaast zie ik AMD gewoon niet zo'n belachelijke hoge performance(per watt) gain realiseren, zoals Nvidia nu met maxwell realiseerd.

AMD richt lijkt zich meer te richten op allround powerhouses( kijkende naar hun meest recente kacheltje de 290/x, die zelfs stock throttlen bij reference design) (goed voor alles(gaming, GPGPU etc), top rauwe performance, maar ook hoger verbuik), waar Nvidia zich meer op efficiente gaming lijkt te richten (gehandicapte bus, gpgpu, lagere rauwe performance, maar lager verbruik met nauwelijks game-concessies). Gaming is het enige wat ik mijn game-rig doe en dus wil ik een zo efficient mogelijke GAMING gpu (fps per watt). Deze kan AMD op 28nm gewoon niet leveren in het high-end segment.
(de 270x is zeer interessant, maar underpowered,de 770 is door de geheugenbus te gehandicapt en de 280x is te heet voor een ITX ,beide partijen kunnen me momenteel niet leveren wat ik zoek >200 watt met 1440p performance)

Lang verhaal kort :performance per watt lijkt lager op het prioriteiten lijstje van AMD dan van Nvidia te staan
Heb je wel de berichten van The Mask en Werelds gelezen?


Waarom zie je niet gebeuren dat AMD zo'n belachelijke hoge performance (per watt) gain kan realiseren, zoals Nvidia nu met Maxwell heeft gerealiseerd?

Bij de GTX480 (Fermi) was de Performance per Watt ook niet bepaald erg goed (understatement): GTX480 Performance per Watt
Als ik me niet vergis heeft nVidia dit lage performance/watt probleem bij de GTX480 toch ook relatief snel opgelost

En daarnaast heeft AMD juist de naam en faam om effectieve en efficiënte GPU's te produceren.
nVidia was juist diegene die jarenlang enkel op rauwe power GPU's te vertrouwen.

De tijd zal het leren. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op dinsdag 25 februari 2014 @ 14:23:
AMD richt lijkt zich meer te richten op allround powerhouses( kijkende naar hun meest recente kacheltje de 290/x, die zelfs stock throttlen bij reference design) (goed voor alles(gaming, GPGPU etc), top rauwe performance, maar ook hoger verbuik), waar Nvidia zich meer op efficiente gaming lijkt te richten (gehandicapte bus, gpgpu, lagere rauwe performance, maar lager verbruik met nauwelijks game-concessies). Gaming is het enige wat ik mijn game-rig doe en dus wil ik een zo efficient mogelijke GAMING gpu (fps per watt). Deze kan AMD op 28nm gewoon niet leveren in het high-end segment.
(de 270x is zeer interessant, maar underpowered,de 770 is door de geheugenbus te gehandicapt en de 280x is te heet voor een ITX ,beide partijen kunnen me momenteel niet leveren wat ik zoek >200 watt met 1440p performance)

Lang verhaal kort :performance per watt lijkt lager op het prioriteiten lijstje van AMD dan van Nvidia te staan
Je baseert je hele mening nog steeds op deze enkele generatie, waar ik al een verklaring voor heb gegeven. Het is erg onwaarschijnlijk dat Hawaii het teken is dat ze een andere weg inslaan - het is een tijdelijk zijspoor voordat ze weer terug naar hun sweet spot strategie gaan. Voor zover wij weten is het gewoon een lapmiddel om de soms bijna twee keer zo grote Nvidia dies bij te benen.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Indy91 schreef op dinsdag 25 februari 2014 @ 15:25:
[...]

Heb je wel de berichten van The Mask en Werelds gelezen?


Waarom zie je niet gebeuren dat AMD zo'n belachelijke hoge performance (per watt) gain kan realiseren, zoals Nvidia nu met Maxwell heeft gerealiseerd?

Bij de GTX480 (Fermi) was de Performance per Watt ook niet bepaald erg goed (understatement): GTX480 Performance per Watt
Als ik me niet vergis heeft nVidia dit lage performance/watt probleem bij de GTX480 toch ook relatief snel opgelost

En daarnaast heeft AMD juist de naam en faam om effectieve en efficiënte GPU's te produceren.
nVidia was juist diegene die jarenlang enkel op rauwe power GPU's te vertrouwen.

De tijd zal het leren. ;)
Ja, en dat is precies de reden. Nvidia heeft vanaf thermi een geweldige improvement laten zijn wat betreft performance per watt over de gehele lijn.(en communiceert dit ook al even lang naar buiten toe) AMD lijkt juist precies andersom te gaan (6xxx en 7xxx waren best zuinig en de r9 alles behalve, behalve de 7xxx rebrand (270x))

Nvidia heeft aangegeven om hard op efficientie in te zetten (de 750ti zet deze woorden kracht bij, maar ook de courante high-end kepler's) AMD niet, zij geven juist aan hard in te zetten op GPGPU (waar de 280x en hoger dan ook geweldig in zijn), maar laat nu net heel die GPGPU voor mij ir.elephant zijn. Ik wil gewoon maximale fps bij minimale frametimes en een zo laag mogelijk verbruik.

Ik hoop oprecht dat AMD met een pareltje van een GPU (zoals de 7870/270x/gtx770 waren) komt op het gebied van performance per watt in het high-end segment (>180 watt), maar als ik de trend van AMD probeer te analyseren is de beweging van AMD precies de omgekeerde dan die van Nvidia.
Hopelijk is de huidige serie een lapmiddel en blaast de volgende generatie de maxwell's uit het water zoals maxwell dat nu doet. Maar eerst zien en dan geloven.
offtopic:
De 750ti is voor mij de eerste GPU die een echte WOW factor heeft(ik kreeg kippenvel en zat met open mond zo :o te lezen (zit pas sinds eind 2010 in de scene ;) )


En wat betreft je opmerking AMD=efficientie en Nvidia=rauwe power. Je vergeet hierbij de dynamiek van de markt, want hoewel dat vroeger zo was is dat nu aantoonbaar anders (om nog maar van frame-time-gate te zwijgen :+ )

Edit: En met hun nieuwste 280 non X lijkt AMD al helemaal de weg kwijt te zijn t.o.v. de bejaarde 7950 8)7 .

[ Voor 11% gewijzigd door eL_Jay op 06-03-2014 11:29 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op woensdag 26 februari 2014 @ 17:20:
Ja, en dat is precies de reden. Nvidia heeft vanaf thermi een geweldige improvement laten zijn wat betreft performance per watt over de gehele lijn.(en communiceert dit ook al even lang naar buiten toe)
Uh, nee. Fermi -beide revisies- was juist nóg een stap terug. Het is pas vanaf Kepler dat ze AMD weer bijbenen. Dat is pas 2 jaar en realistisch gezien 1 generatie.
Ik hoop oprecht dat AMD met een pareltje van een GPU (zoals de 7870/270x/gtx770 waren)
Heh? Jij noemt GK104 (680/770) een pareltje van een GPU, maar negeert Tahiti (7970/280X) die gewoon binnen 10W van GK104 zit met dezelfde performance? Ja, dat is net een paar Watt meer, maar daar krijg je dus inderdaad wel een flink stuk meer GPGPU kracht voor terug - wat weldegelijk van belang is voor games, omdat er steeds meer dingen komen die via OpenCL of DirectCompute draaien.

Afbeeldingslocatie: http://tpucdn.com/reviews/AMD/R9_290X/images/power_peak.gif
komt op het gebied van performance per watt in het high-end segment (>180 watt), maar als ik de trend van AMD probeer te analyseren is de beweging van AMD precies de omgekeerde dan die van Nvidia.
Nogmaals, je kunt niet van een trend spreken als het om één enkele chip gaat.
offtopic:
De 750ti is voor mij de eerste GPU die een echte WOW factor heeft(ik kreeg kippenvel en zat met open mond zo :o te lezen (zit pas sinds eind 2010 in de scene ;) )
Dat verklaart het :)

Ik zou voor de gein eens even naar de geschiedenis kijken. AMD zit al jaren met relatief kleine chips (tussen de 300 en 400 vierkante millimeter), omdat dat blijkbaar in verhouding het meest winstgevend is - dit wordt hun "Sweet Spot" strategie genoemd. Vanaf GT200 (GTX 280) zit Nvidia op reusachtige chips van boven de 500 vierkante millimeter die evenredig veel stroom vreten en dat vervolgens uit schijten in de vorm van hitte. GK104 was de eerste chip in jaren die niet zo afgrijselijk inefficiënt was, maar daar kwamen ze nog steeds slechts op gelijke hoogte met AMD mee. Dat was 2 jaar geleden en sindsdien is er geen donder veranderd - tot GM107 uiteraard. Maar zoals gezegd, moeten we eerst zien hoe dat ding werkt als hij 3-5 keer zo groot wordt op een kleiner procedé.

Wel heeft AMD Hawaii uitgebracht, een chip die buiten hun Sweet Spot strategie valt. Pas als ze nu nog een chip maken die boven de 400 vierkante millimeter uit gaat mag je aan een trend beginnen te denken. Dit is echt gewoon pas de eerste keer sinds ergens tussen 2006-2008 dat AMD een stapje achteruit doet en Nvidia vooruit op dit gebied. Voor beide is dit nieuw :)

Lees eens een review van de GTX 480 en kijk naar het idiote verschil tussen die chip en de 5870. Wat mij betreft nog steeds Nvidia's op één na slechtste product ooit, de slechtste was de FX-Stofzuiger serie ;)

[ Voor 5% gewijzigd door Werelds op 26-02-2014 20:19 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je kan bij het verbruik beter average nemen, piek verbruik kun je afkappen, average is gemiddeld over een langere tijd.

Afbeeldingslocatie: http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_average.gif

[ Voor 3% gewijzigd door -The_Mask- op 26-02-2014 20:28 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
-The_Mask- schreef op woensdag 26 februari 2014 @ 20:28:
Je kan bij het verbruik beter average nemen, piek verbruik kun je afkappen, average is gemiddeld over een langere tijd.
Jawel, maar piek is het maximale dat ze er bij een game uit krijgen. Dat kan best een paar minuten volgehouden worden als het even druk is. Maximum is wel nutteloos, dat is Furmark en daar knijpt Nvidia hun kaarten nog steeds.

Verwijderd

Ook AMD kaarten worden in furmark genepen tenminste dat is wel wat ik vaker zie en hoor omdat de kaarten zo maar in eens erg terug klokken ondanks dat de terug klok warmte limit nog niet is gehaald.
Furmark vind ik maar een waardeloos programma het maakt soms zelfs goede kaarten kapot en is onrealistisch vergeleken met hoe een pc gebruikt word.

Nvidia heeft goed gedaan om zijn kaarten te knijpen want ik eenk dat ze dat puur doem om de veiligheid en want anderen er van zeggen is ook maar hun mening wat natuurlijk ook goed is.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Werelds schreef op donderdag 27 februari 2014 @ 10:50:
[...]

Jawel, maar piek is het maximale dat ze er bij een game uit krijgen. Dat kan best een paar minuten volgehouden worden als het even druk is. Maximum is wel nutteloos, dat is Furmark en daar knijpt Nvidia hun kaarten nog steeds.
Kan een paar minuten zijn, maar kan ook minder als een seconde zijn. Daarom heb je veel meer aan average dat is het gemiddelde tijdens een game over een lange tijd. Met een powerlimiter kun je namelijk de piek afkappen waardoor je een vertekend beeld krijgt. Je betaald ook niet voor het piekverbruik, maar het continue verbruik.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

Wat is persoonlijk van het verbruik vind doet er niet toe voor jullie maar het zal mij echt een zorg zijn dat kaart 1 600mm2 is en een verbruik van 300 wat heeft en even snel is als kaart 2 van 300mm2 die 150 watt verbruikt. Als de getallen veel hoger worden word het voor mij pas interessant om ook naar het verbruik te kijken en ik denk dat dit nog altijd zo gld voor de gemiddelde aankoper van videokaarten.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@ The_Mask: mja, daar denken we dus iets anders over. Ik vind juist de gaming piek wel boeiend omdat dat een indicatie kan zijn voor throttling.

@ Lupp: AMD knijpt niet echt; ze begrenzen, maar knijpen is anders. Bij Nvidia gaan de clocks omlaag, voltages omlaag, dat soort dingen. Doen ze zodra ze Furmark of Kombustor detecteren; bij AMD loopt de chip even goed tegen een muur aan, maar dat is een reactie op de daadwerkelijke omstandigheden, niet op de aanwezigheid van een stukje software. Is van allebei goed dat ze het doen, maar het maakt de gegevens die je er van krijgt nog waardelozer dan voorheen :)


Wat je laatste opmerking betreft denk ik dat je er iets te eenvoudig over denkt. Als voorbeeld neem ik GK110 vs. Hawaii. Hawaii trekt die 235W hierboven met een chip van 438mm^2. Nvidia trekt 230W met een chip van 561mm^2. Dat betekent dat AMD 0,54 W/mm^2 moet koelen, Nvidia slechts 0,41 W/mm^2. Dat heeft een gigantisch effect op wat voor koeling je nodig hebt.

Verbruik en die-size in eerste instantie niet eens daadwerkelijk om het verbruikt, maar om wat de chip moet afvoeren qua hitte.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
Amd en nvidia doen toch ongeveer hetzelde met die turbo / gpu boost grappen? Dat nvidia ook nog in de driver knijpt met furmark is wat mij betreft niet zo relevant, houdt de fermi kaarten heel zullen we maar denken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op donderdag 27 februari 2014 @ 14:07:
@ The_Mask: mja, daar denken we dus iets anders over. Ik vind juist de gaming piek wel boeiend omdat dat een indicatie kan zijn voor throttling.

@ Lupp: AMD knijpt niet echt; ze begrenzen, maar knijpen is anders. Bij Nvidia gaan de clocks omlaag, voltages omlaag, dat soort dingen. Doen ze zodra ze Furmark of Kombustor detecteren.
Ik heb dit net even bekeken met furmark maar mijn gtx780 blijkt op max boost lopen en de voltage blijft op 1.162v alleen de TDP gaat niet tot de max. Was dit niet aleen het geval met gtx480 en gtx580?
Wijn kaart begint wel langzaam terug te klokken wanneer ik de 80 graden aan tik want dan klokt de boost wat terug maar de kaart blijft nog boven de opgegeven specs draaien met de klok snelheid.


Nvidia Power Efficency Through the Ages – From the 6600GT to the Maxwell 750 ti

Read more: http://wccftech.com/nvidi...ell-750-ti/#ixzz2unbm091E

[ Voor 75% gewijzigd door Verwijderd op 02-03-2014 11:33 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zondag 02 maart 2014 @ 11:16:
[...]
Nvidia Power Efficency Through the Ages – From the 6600GT to the Maxwell 750 ti

Read more: http://wccftech.com/nvidi...ell-750-ti/#ixzz2unbm091E
Wel jammer dat ze alleen de low-midend kaarten testen, het zou leuk zijn als ze hetzelfde doen met de highend kaarten.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Er zijn nog geen maxwel high-end kaarten.
(de 8800gt was overigens wel redelijk high-end)

[ Voor 37% gewijzigd door mitsumark op 04-03-2014 17:01 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

mitsumark schreef op dinsdag 04 maart 2014 @ 17:00:
Er zijn nog geen maxwel high-end kaarten.
(de 8800gt was overigens wel redelijk high-end)
Inderdaad redelijk highend, de echte highend was destijds de 8800 Ultra. Het zijn dus in principe nog steeds midend kaarten.

De zwaardere kaarten zoals de 8800 Ultra, GTX280 en GTX480 ontbreken. Terwijl ik denk dat in die gevalen de trend een tijd redelijke negatief was, nu is dit gelukkig wel beter met de kaarten van deze generatie.

Acties:
  • 0 Henk 'm!

Verwijderd

Het is altijd al slecht geweest met high end kaarten omdat de vraag naar snelheid hoger is dan de vraag naar een lager verbruik. Wat wel zo is dat de high end kaarten ook beter zijn geworden qua performance per WATT maar ik denk niet dat het verschil zo groot is als bij alleen maar mid end kaarten maar nog altijd wel een positief beeld is te zien.

De 8800gt kwam na de 8800 gtx/ultra maar is nog wel de snelste kaart van de g92 wat weer een andere serie is.

GeForce 7900 GTX 84 WATT
GeForce 8800 GTX 145 WATT
GeForce 9800 GTX 140 WATT
GeForce GTX 280 236 WATT
GeForce GTX 480 260 WATT
GeForce GTX 580 280 WATT
GeForce GTX 680 195 WATT
GeForce GTX 780 250 WATT

De gtx 480 verbruikte wel minder dan de gtx580 maar de perfomance per wat is beter van de gtx580.

[ Voor 78% gewijzigd door Verwijderd op 05-03-2014 09:36 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 05 maart 2014 @ 09:06:
Het is altijd al slecht geweest met high end kaarten omdat de vraag naar snelheid hoger is dan de vraag naar een lager verbruik. Wat wel zo is dat de high end kaarten ook beter zijn geworden qua performance per WATT maar ik denk niet dat het verschil zo groot is als bij alleen maar mid end kaarten maar nog altijd wel een positief beeld is te zien.

De 8800gt kwam na de 8800 gtx/ultra maar is nog wel de snelste kaart van de g92 wat weer een andere serie is.

GeForce 7900 GTX 84 WATT
GeForce 8800 GTX 145 WATT
GeForce 9800 GTX 140 WATT
GeForce GTX 280 236 WATT
GeForce GTX 480 260 WATT
GeForce GTX 580 280 WATT
GeForce GTX 680 195 WATT
GeForce GTX 780 250 WATT

De gtx 480 verbruikte wel minder dan de gtx580 maar de perfomance per wat is beter van de gtx580.
Je hebt daarin gelijk, bij de highend kaarten is de performance/watt meestal minder goed (en minder interessant). Mensen willen de snelste kaart :p.

Helaas kloppen de TDP's die de fabrikanten opgeven niet, de GTX 480 gebruikte echt meer dan 260 watt en de performance/watt van de GTX 580 was beter, dit is in reviews terug te zien.
Wat wel leuk is uit dat lijstje is dat je ziet dat Nvidia ineens de max TDP van highend kaarten zo omhoog gooit van 140 Watt naar 236 Watt.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/perfwatt.gif
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/power_maximum.gif
Zo zie je ook gelijk dat je tegenwoordig niet meer kan testen met bijv furmark omdat fabrikanten het afknijpen :P. De GTX 480 gebruikt hier 320 Watt, dat komt voor mijn gevoel te dicht in de buurt van een HD4870x2 die een generatie ouder is (en een dual gpu kaart).

Acties:
  • 0 Henk 'm!

Verwijderd

mitsumark schreef op dinsdag 04 maart 2014 @ 17:00:
Er zijn nog geen maxwel high-end kaarten.
Enig idee wanneer die nou komen...? Ik wil een nieuwe PC kopen/samenstellen en heb gewacht tot nu (maart) omdat dan de nieuwe nVidia kaarten zouden komen, maar er blijken nog geen high end kaarten te zijn. Ja, the Titan Black maar ik wil eigenlijk een highend Maxwell en ook iets goedkoper, als het kan. ;) Moet ik nu dus alsnog weer een paar maand wachten?

Zo langzamerhand wil ik toch wel heel graag m'n i5 2500K + GTX580 vervangen!

Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia new WHQL driver release 345.23.
http://www.nvidia.co.uk/Download/index.aspx?lang=en-uk

Acties:
  • 0 Henk 'm!

Verwijderd

Dikke aanrader die driver hier boven, gemiste kans als je hem niet wil gebruiken voor gaming.

Ander nieuws:
EOL Windows driver support for legacy products
http://nvidia.custhelp.com/app/answers/detail/a_id/3473

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 15 maart 2014 @ 12:45:
Dikke aanrader die driver hier boven, gemiste kans als je hem niet wil gebruiken voor gaming.
Hoezo...? Hangt toch af van de games die je speelt...?

Acties:
  • 0 Henk 'm!

Verwijderd

Niet echt, maar over het algemeen zijn nieuwere drivers stabieler voor de meeste games.
Drivers van nu zijn het beste voor bf4 onder win 64bit en dan heb ik het nog maar over 1 game. De vele nieuwere games hebben bvb performance winsten en betere sli schaling.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ik snap deze mededeling niet helemaal :

De 340 driver is de laatste die bijvoorbeeld de 310M zal ondersteunen en de nieuwere drivers helemaal niet meer of :

- Wordt de kaart ondersteund, maar niet meer voor geoptimaliseerd. (Dit lijkt me logisch)
- Wordt de kaart niet ondersteund, niet geoptimaliseerd, maar wordt er wel een Legacy driver met een langzamere interval released voor eventuele bugs/nieuwe games of operating systems ?? (Dit zou ook nog wel logisch zijn)
- Wordt er totaal niks meer gedaan en kan je het beste een nieuwe kaart kopen die wel wordt ondersteund door de laatste driver. (Dit zou echt bagger zijn!)

Dus... wat is het nou :? :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • dabelg
  • Registratie: Juli 2005
  • Laatst online: 26-06 09:18
340 is laatste driver voor die modellen

enkel bugs worden eruit gehaald. maar er komen geen drivers meer erna -> moet je nieuwere kaart kopen

vind dit eigenlijk wel goed. soms moet je gewoon vooruit gaan je kan niet blijven legacy ondersteunen. je neemt rommel mee.

Mijn iRacing profiel / YouTube / Twitch.TV


Acties:
  • 0 Henk 'm!

Verwijderd

Ik lees her en der dat de nieuwe high-end kaarten pas eind van het jaar gaan komen, mss pas in Q1 2015…! Jammer… Ik heb zitten wachten met het kopen van een nieuwe PC op nieuwe GPU's maar ik denk dat ik het nu dan toch maar met de kaarten van nu moet doen. Dus de GTX780 (Ti) of mss zelfs de dure Titan Black. Alhoewel, mss stap ik zelfs wel over op AMD (er komt een versie van RX9 290 met 8 GB RAM: ook interessant.) Ik zie het niet zo zitten om nóg een jaar te wachten met upgraden...

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Verwijderd schreef op dinsdag 18 maart 2014 @ 13:54:
Ik lees her en der dat de nieuwe high-end kaarten pas eind van het jaar gaan komen, mss pas in Q1 2015…! Jammer… Ik heb zitten wachten met het kopen van een nieuwe PC op nieuwe GPU's maar ik denk dat ik het nu dan toch maar met de kaarten van nu moet doen. Dus de GTX780 (Ti) of mss zelfs de dure Titan Black. Alhoewel, mss stap ik zelfs wel over op AMD (er komt een versie van RX9 290 met 8 GB RAM: ook interessant.) Ik zie het niet zo zitten om nóg een jaar te wachten met upgraden...
Ik zit in het zelfde schuitje, ik twijfel nog ;(

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 07:26

XanderDrake

Build the future!

Verwijderd schreef op dinsdag 18 maart 2014 @ 13:54:
Ik lees her en der dat de nieuwe high-end kaarten pas eind van het jaar gaan komen, mss pas in Q1 2015…! Jammer… Ik heb zitten wachten met het kopen van een nieuwe PC op nieuwe GPU's maar ik denk dat ik het nu dan toch maar met de kaarten van nu moet doen. Dus de GTX780 (Ti) of mss zelfs de dure Titan Black. Alhoewel, mss stap ik zelfs wel over op AMD (er komt een versie van RX9 290 met 8 GB RAM: ook interessant.) Ik zie het niet zo zitten om nóg een jaar te wachten met upgraden...
Mijn advies, koop een R9 290(x) van al die figuren die nu hun Litecoin mining rigs te koop zetten. Je kan er wel een goed prijsje voor krijgen denk ik :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
XanderDrake schreef op dinsdag 18 maart 2014 @ 14:13:
[...]

Mijn advies, koop een R9 290(x) van al die figuren die nu hun Litecoin mining rigs te koop zetten. Je kan er wel een goed prijsje voor krijgen denk ik :)
nVidia nieuwsdiscussie :/ ..
Maar je hebt wel gelijk natuurlijk, hoewel je wel weer kans hebt op minder goede kaarten omdat ze de heletijd 24/7 hebben lopen draaien :X

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou het vooral van games af laten hangen omdat de kaarten niet zo veel verschillen qua prestaties, maar met wat nu nu kunt kopen kun je iedere game zonder problemen afspelen of het nu een 290x is of een gtx780 ti

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 18 maart 2014 @ 14:22:
Ik zou het vooral van games af laten hangen omdat de kaarten niet zo veel verschillen qua prestaties, maar met wat nu nu kunt kopen kun je iedere game zonder problemen afspelen of het nu een 290x is of een gtx780 ti
Klopt, maar als ik wat nieuws koop, koop ik graag iets wat ook NIEUW is en voor mijn gevoel is de GTX780 alweer oud… ;) Daarom heb ik ook zitten wachten met het kopen van een nieuwe PC. Zoals het er nu voorstaat, had ik alles net zo goed een paar maand geleden kunnen kopen en dan voelt het toch een beetje alsof ik oude meuk koop. ;) Maar goed, op zich zijn de topkaarten van nu natuurlijk gewoon nog top. ;)

Ik wilde vooral iets echt nieuws omdat ik veel Prepar3D speel en die sim is gemaakt voor 'toekomstige GPU's'. Wat dat betreft ga ik toch ook eens serieus kijken naar die nieuwe Titan die meer RAM heeft of de aangekondigde R9 290 met 8 GB RAM. (P3D heeft baat bij meer RAM op de GPU.) Alhoewel… als ik een Titan serieus overweeg, kan ik ook twee GTX780's overwegen: P3D ondersteund nog geen SLI maar dat gaat wel komen. Maar ja, dan zit ik dus alsnog met 'maar' 3 GB RAM op de kaart.

Keuzes, keuzes, keuzes… ;)

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
780 sli :> :9~ ^)

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 10:10

MazeWing

The plot thickens...

Verwijderd schreef op dinsdag 18 maart 2014 @ 14:45:
[...]

Klopt, maar als ik wat nieuws koop, koop ik graag iets wat ook NIEUW is en voor mijn gevoel is de GTX780 alweer oud… ;) Daarom heb ik ook zitten wachten met het kopen van een nieuwe PC. Zoals het er nu voorstaat, had ik alles net zo goed een paar maand geleden kunnen kopen en dan voelt het toch een beetje alsof ik oude meuk koop. ;) Maar goed, op zich zijn de topkaarten van nu natuurlijk gewoon nog top. ;)

Ik wilde vooral iets echt nieuws omdat ik veel Prepar3D speel en die sim is gemaakt voor 'toekomstige GPU's'. Wat dat betreft ga ik toch ook eens serieus kijken naar die nieuwe Titan die meer RAM heeft of de aangekondigde R9 290 met 8 GB RAM. (P3D heeft baat bij meer RAM op de GPU.) Alhoewel… als ik een Titan serieus overweeg, kan ik ook twee GTX780's overwegen: P3D ondersteund nog geen SLI maar dat gaat wel komen. Maar ja, dan zit ik dus alsnog met 'maar' 3 GB RAM op de kaart.

Keuzes, keuzes, keuzes… ;)
Als Prepar3D net zo brak is met AMD kaarten als FS, zou ik in iedergeval geen AMD kaart nemen.
Daarbij betwijfel ik of je de volledige 6gb die op de titan zitten nodig gaat hebben met Prepar3D. Tenzij je echt op extreem hoge resoluties of met meerdere schermen in de weer bent, zou 3gb voldoende moeten zijn.

Ik zou in eerste aanleg voor een goede GTX780 (non Ti) gaan en deze overclocken naar Ti snelheden. Later zou je dan eventueel voor een 2e GTX780 kunnen gaan. Ik ben zelf voor het eerste de tweede hands richting op gegaan en ben uiterst tevreden met mijn Asus GTX780 DirectCU II die op dit moment sneller loopt dan een reference 780ti :9

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 18 maart 2014 @ 14:45:
[...]

Klopt, maar als ik wat nieuws koop, koop ik graag iets wat ook NIEUW is en voor mijn gevoel is de GTX780 alweer oud… ;) Daarom heb ik ook zitten wachten met het kopen van een nieuwe PC. Zoals het er nu voorstaat, had ik alles net zo goed een paar maand geleden kunnen kopen en dan voelt het toch een beetje alsof ik oude meuk koop. ;) Maar goed, op zich zijn de topkaarten van nu natuurlijk gewoon nog top. ;)

Ik wilde vooral iets echt nieuws omdat ik veel Prepar3D speel en die sim is gemaakt voor 'toekomstige GPU's'. Wat dat betreft ga ik toch ook eens serieus kijken naar die nieuwe Titan die meer RAM heeft of de aangekondigde R9 290 met 8 GB RAM. (P3D heeft baat bij meer RAM op de GPU.) Alhoewel… als ik een Titan serieus overweeg, kan ik ook twee GTX780's overwegen: P3D ondersteund nog geen SLI maar dat gaat wel komen. Maar ja, dan zit ik dus alsnog met 'maar' 3 GB RAM op de kaart.

Keuzes, keuzes, keuzes… ;)
Ik ken die twijfels. Ik koop altijd 1 of 2 kaarten als ze net uit zijn alleen heb je dan weer het nadeel de hoofd prijs te betalen. 1 keer hoefde dat niet bij de high end kaarten en dat was met de hd5870 daar heb ik toen 320 euro per stuk voor betaald en helaas was dat ook maar 1 keer.

Acties:
  • 0 Henk 'm!

Verwijderd

Goed nieuws voor de Fermi, Kepler en Maxwell gebruikers want de toekomstige dx12 word door al deze kaarten ondersteund volgens Nvidia.
http://nl.hardware.info/n...ft-kondigt-directx-12-aan

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Eventjes wachten op de GTC 2014, hopen dat ze dan wat vertellen over de volgende high end Maxwell kaarten!

Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 17-09 05:24
Verwijderd schreef op vrijdag 21 maart 2014 @ 09:22:
Goed nieuws voor de Fermi, Kepler en Maxwell gebruikers want de toekomstige dx12 word door al deze kaarten ondersteund volgens Nvidia.
http://nl.hardware.info/n...ft-kondigt-directx-12-aan
DX12 zal geen revolutie geven,het is aan de huidige consoles gebonden en die liepen al achter toen ze uitkwamen vergeleken met een medium spec pc en aangezien de levensduur van consoles 5 a 6 jaar is gaat dx geen potten breken voorlopig.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat kun je nog helemaal niet weten zonder glazen bol. Wat er gezegd word is dat het vergelijkbaar is met Mantle, dan zie ik het ook als een revolutie voor low end pc gamers zoals ook met Mantle ook het geval is.\
Alles wat je leest bewijst het tegen deel van wat jij speculeert.

[ Voor 13% gewijzigd door Verwijderd op 21-03-2014 10:17 ]


Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 17-09 05:24
Verwijderd schreef op vrijdag 21 maart 2014 @ 10:16:
Dat kun je nog helemaal niet weten zonder glazen bol. Wat er gezegd word is dat het vergelijkbaar is met Mantle, dan zie ik het ook als een revolutie voor low end pc gamers zoals ook met Mantle ook het geval is.\
Alles wat je leest bewijst het tegen deel van wat jij speculeert.
Geen glazen bol voor nodig ,de specs van de consoles kan je overal online vinden en de ontwikkeling van pc hardware staat niet stil in tegenstelling tot de huidige consoles en daar valt nu de meeste winst te halen voor Sony en Microsoft.

[ Voor 14% gewijzigd door MaXeRs op 21-03-2014 10:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Je mist het hele punt wat DX12 gaat doen of kan doen (is nog afwachten om niet vooruit op de feiten te lopen) zoals Mantle, heeft niets te maken met hardware in de consoles ;)

[ Voor 27% gewijzigd door Verwijderd op 21-03-2014 10:22 ]


Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 17-09 05:24
Verwijderd schreef op vrijdag 21 maart 2014 @ 10:21:
Je mist het hele punt wat DX12 gaat doen of kan doen (is nog afwachten om niet vooruit op de feiten te lopen) zoals Mantle, heeft niets te maken met hardware in de consoles ;)
Mantle is handig voor consoles ,low/med spec pc onderdelen voor de tijd duur van 5 a 6 jaar dat kan je door mantel rekken,daarom zie je volgens mij ook marginale winst bij pc eigenaren en zij kunnen hier makkelijk overeen stappen door "iets" meer uit te geven aan hardware.

Acties:
  • 0 Henk 'm!

Verwijderd

Precies en dat is ook de bedoeling van DX12 . Kun je ook prima uit de nieuws berichten halen her en der en na wat MS gisteren heeft onthult.

[ Voor 4% gewijzigd door Verwijderd op 21-03-2014 10:41 ]


Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 17-09 05:24
Verwijderd schreef op vrijdag 21 maart 2014 @ 10:40:
Precies en dat is ook de bedoeling van DX12 . Kun je ook prima uit de nieuws berichten halen her en der en na wat MS gisteren heeft onthult.
Dan lijkt het me meer een evolutie dan een revolutie.

Acties:
  • 0 Henk 'm!

  • dabelg
  • Registratie: Juli 2005
  • Laatst online: 26-06 09:18
het leuke aan DX12 is dat het 1 maand developen kost voor een engine van xbox one naar pc te halen. zonder overhead. wat toch duidelijk een dikke + is voor de PC gamers die geen crapy ports meer gaan krijgen (maar ja afwachten of MS de praatjes kan waarmaken, maar demo forza zag er goed uit)

Mijn iRacing profiel / YouTube / Twitch.TV


Acties:
  • 0 Henk 'm!

Verwijderd

Hier een leuk artikel over DX12 van Guru3d.
http://www.guru3d.com/new...provement_for_gaming.html

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=6291

We hoeven ook geen nieuwe kaarten te kopen.

En dit komt door AMD dus we mogen daar AMD wel dankbaar voor zijn. Ze hebben Microsoft een flinke duw in de goede richting gegeven alleen duurt het nog best lang heb verwacht eind dit jaar of begin volgend jaar.

[ Voor 61% gewijzigd door Verwijderd op 21-03-2014 17:15 ]


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 11:34
Heb je er nou ook win 8(.1)voor nodig?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik verwacht zelf Win 9 maar ja hoop natuurlijk ook vanaf Win 7 minimaal omdat Win 7 nog een prima OS is.

Acties:
  • 0 Henk 'm!

  • maus3142
  • Registratie: December 2012
  • Laatst online: 16-09 17:17
Ik heb een vraagje ,ik ben in het bezit van een Amd r290 nu had ik begin (eind december)veel bsod met bf4 ik moet zeggen het gaat eingenlijk nu wel goed,ik heb er een aftermarkt koeler op gezet betere drivers andere voeding.Maar zo nu en dan eens per week weer bsod.
Ik weet dat dit een Nvida topic is daarom vraag ik het hier ligt het aan amd of is het Bf4.

Dank jullie

Acties:
  • 0 Henk 'm!

Verwijderd

NVIDIA Talks DX12, DX11 Efficiency Improvements
http://www.pcper.com/revi...1-Efficiency-Improvements

Afbeeldingslocatie: http://cdn.pcper.com/files/imagecache/article_max_width/review/2014-03-22/15.jpg

Afbeeldingslocatie: http://i.imgur.com/gHLFllx.jpg

Afbeeldingslocatie: http://cdn.pcper.com/files/review/2014-03-22/10.jpg

Dan verwijs ik je toch maar ver hier naar toe.
Astennu schreef op donderdag 20 maart 2014 @ 14:37:
[...]


Mits DX12 wel zo ver gaat als Mantle. En het is de vraag wanneer DX12 beschikbaar wordt. Kan allemaal nog lang duren. Dus eerst maar eens afwachten wat DX12.0 gaat worden.

[ Voor 78% gewijzigd door Verwijderd op 23-03-2014 14:10 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Vervolgens kunnen we nog wachten op DX12 games. Het is trouwens niet geheel onlogisch dat nVidia op dergelijke wijzen DX12 t.o.v. Mantle promoot. Ze hebben zelf namelijk helemaal niks, maar dan ook echt niks dat in de buurt kan komen van Mantle (een gelijksoortige oplossing die vervolgens ook nog eens de competitie met Mantle aan moet kunnen). Het enige wat ze hebben is DX12 en daar zetten ze dan ook op in.

Enfin, ik ben benieuwd hoe ze dit op Steam OS c.q. Linux gaan aanpakken. AMD is voor zover ik heb begrepen van plan Mantle ook op Linux, en dus Steam OS, werkende te krijgen. Daar heeft nVidia dan geen DX12 waarop het kan "terugvallen" om te concurreren met Mantle.

Hoe staat OpenGL t.o.v. Mantle en DirectX?

[ Voor 27% gewijzigd door madmaxnl op 23-03-2014 17:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk dat OGL verbeterd word en dat het daar dan bij blijft omdat OGL al lang word gebruikt voor Linux en nvidia zal dan OGL wel als excuus gebruiken om daar (Linux) ook op te kunnen blijven draaien.

Ook word beweerd dat OGL sneller is dan D3D en dat het ook tegen Mantle wil/gaan opnemen, dat laatste werd gezegd toen Mantle uit kwam.

Mantle is eigenlijk niet nodig gezien Valve's OGL het zelfde kan doen. en ik verwacht dat Valve en Nvidia daar samen hard aan werken zoals je hier kunt lezen.
http://www.reddit.com/r/l...and_ogl_9x_draw_calls_is/

[ Voor 67% gewijzigd door Verwijderd op 23-03-2014 19:20 ]


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Vandaag begint de GTC 2014. Lets hope!

http://www.gputechconf.com/page/home.html

[ Voor 37% gewijzigd door Ferluci92 op 24-03-2014 08:35 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17-09 12:47
madmaxnl schreef op zondag 23 maart 2014 @ 17:54:
Vervolgens kunnen we nog wachten op DX12 games. Het is trouwens niet geheel onlogisch dat nVidia op dergelijke wijzen DX12 t.o.v. Mantle promoot. Ze hebben zelf namelijk helemaal niks, maar dan ook echt niks dat in de buurt kan komen van Mantle (een gelijksoortige oplossing die vervolgens ook nog eens de competitie met Mantle aan moet kunnen). Het enige wat ze hebben is DX12 en daar zetten ze dan ook op in.
Net als goede Mantle support, want dat gaat weer zoals altijd bij AMD traag, trager traagst. Ik waardeer echt dat ze een dergelijke stap durven te maken, maar zoals het er nu naar uitziet is het vooral in het leven geroepen om de overhead van de cpu minder te maken en dat komt toevallig goed uit met hun zwakkere cpu afdeling. Als DX deze overhead weet te verbeteren is Mantle gelijk rijp voor het museum. Persoonlijk lijkt me de strategische keuze van nvidia correct en terecht.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Logisch dat nVidia DX12 zo presenteert. Het is het enige dat ze hebben tegen Mantle. Ook is het logisch dat Microsoft DX12 zo presenteert als ze het presenteren.

Zoals ik al zei: "Microsoft gaat nu heus niet zeggen dat ze met DX12 nog altijd een lompe API op de markt brengen omdat er een gebrek aan beter is. Ergo ze presenteren DX12 zoals ze het nu presenteren. Namelijk het eind resultaat zoals zij het hopen te behalen en waarmee ze Mantle dus overbodig hopen te maken.

DX12 is een eerst zien en dan geloven gevalletje. Zeker voor developers. Die gaan nu heus niet Mantle meteen opzij zetten omdat DX12 over twee jaar ook beschikbaar is. Integendeel, ze gaan door of beginnen met Mantle voor het geval DX12 niet is wat het belooft te gaan zijn.

Stel je voor over twee jaar is DX12 er en dan valt het heel erg tegen. Je concurrerende engines hebben dan geen of gebrekkige Mantle support (gebrekkig m.b.t. performance verbeteringen t.o.v. DX) en jouw engine heeft die support wel.
"

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
Verwijderd schreef op zondag 23 maart 2014 @ 13:47:
NVIDIA Talks DX12, DX11 Efficiency Improvements
Die thief chart is echt verschrikkelijk.

resultaten varieren van 52 tot 58 fps.... en dan zulke balken. 8)7

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
"March 25th, 9:00 AM

It's time again for NVIDIA CEO Jen-Hsun Huang to open the annual GPU Tech Conference with a 2-hour keynote. The show's on from 9:00am to 10:50am.


- Preview of the new 20nm high-end Maxwell GPU architecture (GM10x/GeForce 8xx) with unified virtual memory.
- Amazing real-time graphics demos (as always).
- More DirectX 12 goodness.
- OpenGL goodness.
- Demos of the to-be-released CPU-optimized GeForce driver: http://www.pcper.com/revi...1-Efficiency-Improvements
- GameWorks demos.
- Exciting announcements.

Live Stream

http://www.twitch.tv/nvidia "
edit: linkje

[ Voor 4% gewijzigd door Ferluci92 op 25-03-2014 11:14 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 07:26

XanderDrake

Build the future!

Ferluci92 schreef op dinsdag 25 maart 2014 @ 10:43:
"March 25th, 9:00 AM

It's time again for NVIDIA CEO Jen-Hsun Huang to open the annual GPU Tech Conference with a 2-hour keynote. The show's on from 9:00am to 10:50am.


- Preview of the new 20nm high-end Maxwell GPU architecture (GM10x/GeForce 8xx) with unified virtual memory.
- Amazing real-time graphics demos (as always).
- More DirectX 12 goodness.
- OpenGL goodness.
- Demos of the to-be-released CPU-optimized GeForce driver: http://www.pcper.com/reviews/Graphic...y-Improvements
- GameWorks demos.
- Exciting announcements.

Live Stream

http://www.twitch.tv/nvidia "
Link werkt op die manier niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Ik had gisteren eigenlijk al die performance drivers verwacht omdat drivers van nvidia normaal op maandag uitkomen maar goed even afwachten nog.

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
XanderDrake schreef op dinsdag 25 maart 2014 @ 11:05:
[...]

Link werkt op die manier niet.
edited :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Die GTX TITAN Z is een beest van een kaart.

Als ze dat koel en stil weten te houden, bravo!
Natuurlijk erg leuk voor een zeer selecte groep. Maar ik had liever iets gehoord over een GTX 860/870. Beter te betalen en door de nieuwe architectuur hopelijk zuiniger.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Aangezien de TITAN BE een MSRP had van $999 snap ik de prijs van de TITAN Z echter niet helemaal...

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 11:34
Jeroenneman schreef op dinsdag 25 maart 2014 @ 23:10:
Die GTX TITAN Z is een beest van een kaart.
Zeker alleen is de prijs van 3000 er ook naar

Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

In mijn droomwereld heb ik een paar van die Titan Z kaarten in SLI. Het zal echter wel bij dromen blijven, voorlopig moet ik in werkelijkheid genoegen nemen met een GTX770. Op zich ook geen verkeerd ding.

Acties:
  • 0 Henk 'm!

Verwijderd

Mij lijkt NVLINK interessant alleen vraag ik me nog wel af of het ook bij gamen een meerwaarde heeft. Voor dikke reken machines heeft het wel nut.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Het zou voor games boeiend kunnen zijn, maar we zullen het niet als vervanging van PCI-e gaan zien. Nvidia heeft het met IBM ontwikkeld, als het voor de desktop bedoeld was hadden ze Intel en AMD er ook bij moeten betrekken.

Het zou eventueel wel als vervanging voor de PCI-brug tussen twee GPU's kunnen komen, maar dan zit je weer met het synchronisatie probleem waar de CPU bij betrokken moet worden.

Acties:
  • 0 Henk 'm!

Verwijderd

Jammer, ik had dan liever dat Intel zo iets als NVLINK had ontworpen voor op de moederborden.
Dit is wat ik nog er over vind.

From the Nvidia press release:

"NVIDIA today announced that it plans to integrate a high-speed interconnect, called NVIDIA® NVLink™, into its future GPUs"

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Amanoo schreef op woensdag 26 maart 2014 @ 02:18:
In mijn droomwereld heb ik een paar van die Titan Z kaarten in SLI. Het zal echter wel bij dromen blijven, voorlopig moet ik in werkelijkheid genoegen nemen met een GTX770. Op zich ook geen verkeerd ding.
In mijn droomwereld heb ik een 780(ti) performance met een peak power envelope (en prijs) van een 770 of minder. Kan niet wachten op high-end maxwell.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 07:26

XanderDrake

Build the future!

eL_Jay schreef op donderdag 27 maart 2014 @ 10:23:
[...]

In mijn droomwereld heb ik een 780(ti) performance met een peak power envelope (en prijs) van een 770 of minder. Kan niet wachten op high-end maxwell.
Dat lijkt me een vrij goed realiseerbare droom :) Ik wou dat ik zulke dromen had

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia: GeForce-driver in april wordt sneller dan Mantle.
Is al eerder gepost maar de release van de drivers nog niet.
http://nl.hardware.info/n...-wordt-sneller-dan-mantle

Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Op dit moment is dat nog niet zo bijzonder. De enige Mantle implementaties die ik tot nu toe heb gezien staan nog behoorlijk in de kinderschoenen. Helaas voor mij heb ik er niets aan. Ze gaan bezig met een DirectX feature implementeren (wat AMD ook gewoon kan en zeer waarschijnlijk ook zal doen). Windows gebruik ik met name in een VM om Emperor: Rise of the Middle Kingdom op te spelen, dus ik heb vrij weinig met DirectX te maken..

Acties:
  • 0 Henk 'm!

Verwijderd

Het gaat er om dat Nvidia goed bezig is met zijn drivers en dat er altijd meer performance uit te halen valt en dat is iets waar veel mensen wel wat aan kunnen hebben. dx12 komt inderdaad, maar iser nog niet, maar dat wil dan niet zeggen dat Nvidia niets meer aan zijn huidige drivers moet doen om de performance in games te verbeteren. Tot dat dx12 er is hebben veel mensen zeker wat aan de performance winsten, het is goed voor Nvidia zelf en voor de Nvidia gebruikers.

Acties:
  • 0 Henk 'm!

  • Firedre
  • Registratie: Maart 2004
  • Laatst online: 06:05
Hier is de bron:

http://wccftech.com/nvidi...-benchmark/#ixzz2ww6yLqVI

De datum van dat artikel is van voor de GPU Technology Conference...

Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Zou dit ook naar Windows 7 komen? Ik zie in de wccftech bron wel Win7 staan op het eerste plaatje...

Acties:
  • 0 Henk 'm!

Verwijderd

Ik verwacht die driver in beta vorm vandaag, en natuurlijk ook voor windows7.
Verder hoop ik dat nvidia de performance in bf4 wat weet op te krikken want de fps schommelt veel te veel altijd, ik weet dat het aan de engine ligt maar misschien kan nvidia er nog wat aan veranderen op driver niveau,

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
XanderDrake schreef op donderdag 27 maart 2014 @ 11:06:
[...]

Dat lijkt me een vrij goed realiseerbare droom :) Ik wou dat ik zulke dromen had
Op GPU gebied met een release in uiterlijk Q3 2014 ;)
Helaas mis ik in heel de NVidia presentatie de (high-end) maxwell (via ananand)

offtopic:
Mijn echte droom is een einde aan de nederlandse parlementaire democratie ==>zakenkabinet achtige constructie

Acties:
  • 0 Henk 'm!

Verwijderd

Zoals ik jaren terug al eens zij nvidia begint stil te worden of is al stil als het gaat om videokaarten.

[ Voor 16% gewijzigd door Verwijderd op 31-03-2014 16:08 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ehh... okee, dank je wel voor deze nuttige aanvulling? :S

Acties:
  • 0 Henk 'm!

Verwijderd

Kan best nuttig zijn. Eerder lees je namelijk al bijna een jaar van tevoren waar nvidia mee kwam, toen zij ik al eens 'nvidia laat steeds minder los' (was niet waar) maar uiteindelijk zie je toch dat nvidia steeds minder vrij geeft Dit hoort wel een beetje bij nieuws en discussie toch? Zo zie je maar weet dat je intuïtie gelijk kan hebben maar daar moet je dan wel speculatie bij zetten want het is nog geen feit op dat moment.

Edit

En ik denk dat dit vooral te maken heeft met Nvidia zijn eigen fouten zoals een videokaart met houtschroeven laten zien omdat ze niets hebben. Maar ook met speculaties die Charlie in elkaar denkt en daar feiten van gaat maken. Dit is allemaal slecht voor een bedrijf, dus beter zijn ze stil.

[ Voor 27% gewijzigd door Verwijderd op 31-03-2014 12:51 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Verwijderd schreef op maandag 31 maart 2014 @ 12:43:
Kan best nuttig zijn. Eerder lees je namelijk al bijna een jaar van tevoren waar nvidia mee kwam, toen zij ik al eens 'nvidia laat steeds minder los' (was niet waar) maar uiteindelijk zie je toch dat nvidia steeds minder vrij geeft Dit hoort wel een beetje bij nieuws en discussie toch? Zo zie je maar weet dat je intuïtie gelijk kan hebben maar daar moet je dan wel speculatie bij zetten want het is nog geen feit op dat moment.

Edit

En ik denk dat dit vooral te maken heeft met Nvidia zijn eigen fouten zoals een videokaart met houtschroeven laten zien omdat ze niets hebben. Maar ook met speculaties die Charlie in elkaar denkt en daar feiten van gaat maken. Dit is allemaal slecht voor een bedrijf, dus beter zijn ze stil.
Heeft volgens mij voornamelijk te maken met het feit dat ze de verkoop van de huidige line-up niet willen schaden (als nvidia aankondigd dat over 3 maanden performance per watt x met bang/buck y te krijgen is dan schaadt dit de huidige verkoop omdat nog meer mensen hun aannkoop uitstellen)

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 31 maart 2014 @ 12:32:
Zoals ik jaren terug al eens zij nvidia begint stil te worden of is al stil.
_/-\o_ :D >:) :P :9 :o :*) 8) .... |:(
Verwijderd schreef op maandag 31 maart 2014 @ 12:43:
Kan best nuttig zijn. Eerder lees je namelijk al bijna een jaar van tevoren waar nvidia mee kwam, toen zij ik al eens 'nvidia laat steeds minder los' (was niet waar) maar uiteindelijk zie je toch dat nvidia steeds minder vrij geeft Dit hoort wel een beetje bij nieuws en discussie toch? Zo zie je maar weet dat je intuïtie gelijk kan hebben maar daar moet je dan wel speculatie bij zetten want het is nog geen feit op dat moment.

Edit

En ik denk dat dit vooral te maken heeft met Nvidia zijn eigen fouten zoals een videokaart met houtschroeven laten zien omdat ze niets hebben. Maar ook met speculaties die Charlie in elkaar denkt en daar feiten van gaat maken. Dit is allemaal slecht voor een bedrijf, dus beter zijn ze stil.
Dat is nu juiste het probleem, nVidia probeert zo veel nieuws de wereld in te jagen dat we door de bomen het bos niet meer zien... En dat is waarschijnlijk ook de bedoeling:
  • Geen opvolger van Tegra 4i
  • Geen geintergreerde LTE modem in komende high-end SoC's
  • Geen Parker SoC (project denver), volgens nVidia verplaats om uit te komen na Erista...
  • Geen Einstein
  • Geen Volta (mogelijk ook verplaatst of hernoemd naar Pascal)
  • Huidige kaarten zullen geen DX12 ondersteunen ook Maxwell niet, alleen de DX12 API, wat echt iets ander is! Toch krijgen ze het voor elkaar dat het in het nieuws komt dat de huidige generatie kaarten DX12 gaat ondersteunen :+
  • Ze presenteren stacked memory bijna alsof ze het zelf hebben gemaakt, maar het is gewoon een standaard die iedereen zal gaan gebruiken.
  • Ze presenteren DX 11.2 functionaliteit waar ze 20% prestatie winst mee halen beter als Mantle waar in dezelfde situatie 40% prestatie winst mee wordt gehaald.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Toettoetdaan schreef op maandag 31 maart 2014 @ 15:29:
[...]

_/-\o_ :D >:) :P :9 :o :*) 8) .... |:(


[...]

Dat is nu juiste het probleem, nVidia probeert zo veel nieuws de wereld in te jagen dat we door de bomen het bos niet meer zien... En dat is waarschijnlijk ook de bedoeling:
  • Geen opvolger van Tegra 4i
  • Geen geintergreerde LTE modem in komende high-end SoC's
  • Geen Parker SoC (project denver), volgens nVidia verplaats om uit te komen na Erista...
  • Geen Einstein
  • Geen Volta (mogelijk ook verplaatst of hernoemd naar Pascal)
  • Huidige kaarten zullen geen DX12 ondersteunen ook Maxwell niet, alleen de DX12 API, wat echt iets ander is! Toch krijgen ze het voor elkaar dat het in het nieuws komt dat de huidige generatie kaarten DX12 gaat ondersteunen :+
  • Ze presenteren stacked memory bijna alsof ze het zelf hebben gemaakt, maar het is gewoon een standaard die iedereen zal gaan gebruiken.
  • Ze presenteren DX 11.2 functionaliteit waar ze 20% prestatie winst mee halen beter als Mantle waar in dezelfde situatie 40% prestatie winst mee wordt gehaald.
Helaas als je niet beter weet dan is het nieuws wat ze geven heel goed nieuws. Je zou haast gaan geloven dat de concurenten niks doen :+.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik doelde op alleen grafische kaarten voor desktop pc's. Nieuwe architectuur met high end kaarten.
Om maar een voorbeeld te noemen gtx580 en de gtx680, normaal waren de geruchten een jaar voor een release en nu krijg je pas echt inzich vlak voor een launch en dan kloppen de nieuwtjes vaak ook gelijk.

Heb je trouwens een bron dat de dx11 kaarten van nu geen volwaardige dx12 kunnen ondersteunen op de API na, en met neme de redenen waarom het niet kan?

Het enige wat nvidia zegt is dat de kaarten backward compatible zijn en dat de kaarten het gaan ondersteunen. Je weet meer dan nvidia wat mogelijk is met dx12?

[ Voor 106% gewijzigd door Verwijderd op 31-03-2014 15:52 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 31 maart 2014 @ 15:42:
Heb je trouwens een bron dat de dx11 kaarten van nu geen volwaardige dx12 kunnen ondersteunen op de API na, en met neme de redenen waarom het niet kan?

Het enige wat nvidia zegt is dat de kaarten backward compatible zijn en dat de kaarten het gaan ondersteunen. Je weet meer dan nvidia wat mogelijk is met dx12?
Simpel, DX12 vereist hardware specifieke functionaliteit: http://fudzilla.com/home/...ardware-specific-features

En let op he, nVidia zegt niet dat ze DX12 ondersteunen, ze zeggen of de 'DX12 API' of 'DX12' als het bericht over de DX12 API gaat, op die manier liegen ze dus nooit, maar nemen anderen het wel verkeerd over.
(Overigens doet AMD dit erg fout, die zeggen in hun pers statement gewoon DX12 voor alle GCN kaarten)

Acties:
  • 0 Henk 'm!

Verwijderd

Jammer, zijn we weer nieuwe kaarten nodig voor extra features. Ze brengen het ook zo leuk (not) zoals je zegt. Echter is het ook maar de vraag wanneer die extra features gebruikt gaan worden in software. Verder zie ik ook nog wel nut in enkel de API want daar mee kunnen ze wel cpu overhead verminderen wat leid tot performance winsten met de huidige dx11 kaarten, dat is wel weer mooi meegenomen dankzij de dx12 api

Acties:
  • 0 Henk 'm!

  • Firedre
  • Registratie: Maart 2004
  • Laatst online: 06:05

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Inderdaad las het gister bij de buren. Is wel om te huilen :(

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
20nm in 2014 was sowieso een ijdele hoop. Geen verrassing dus.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus

Pagina: 1 ... 19 ... 30 Laatste

Dit topic is gesloten.