[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 7 Laatste
Acties:
  • 31.812 views

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Helixes schreef op donderdag 07 juli 2011 @ 11:55:
Hm.

2,5x DP zegt mij vooral dat Kepler nog minder een gaming-focused chip wordt dan dat Tesla/Fermi is. Uiteraard is het leuk om de grootste stoeptegel nVidia silicium in je computer te hebben liggen. En het zal ook best zo zijn dat nVidia wederom ATi naar de kroon steekt voor zover het performance betreft in single-chip high-end GPU....

Maar ik denk dat je ook voor een hoop onnodige en/of ongebruikt silicium gaat betalen...
Tja als APU's echt populair worden ga je er wel wat aan hebben uiteindelijk.

Je moet denken dat je 2 jaar, zo niet meer, met zoon kaart doet, over 2 jaar is GPGPU alweer een stuk meer geïntegreerd.

Acties:
  • 0 Henk 'm!

Anoniem: 251563

Hier nog wat fud:

http://www.fudzilla.com/g...k-28nm-chips-are-finished

Het klinkt haast alsof ze niet eens meer nieuwe steppings nodig hebben. Nu is het mij nog onduidelijker waarom nVidia maanden later dan AMD zou zijn. Misschien heeft het toch iets met de betrouwbaarheid van bronnen te maken...

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
"Some" kan ook een gpu met 10 shaders zijn natuurlijk, mobile chips zijn vaak ook nog eens rebrands en hebben dus alleen een die-shrink nodig.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 251563 schreef op donderdag 07 juli 2011 @ 13:50:
Hier nog wat fud:

http://www.fudzilla.com/g...k-28nm-chips-are-finished

Het klinkt haast alsof ze niet eens meer nieuwe steppings nodig hebben. Nu is het mij nog onduidelijker waarom nVidia maanden later dan AMD zou zijn. Misschien heeft het toch iets met de betrouwbaarheid van bronnen te maken...
Het gaat hier om notebook chip's mogelijk hebben ze dat dus gebruikt om te 'oefenen'.

Gezien de GTX580m net gelanceerd is zulle deze notebook chip's geen high-end zijn.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 20:06
Toettoetdaan schreef op donderdag 07 juli 2011 @ 12:01:
[...]

Tja als APU's echt populair worden ga je er wel wat aan hebben uiteindelijk.

Je moet denken dat je 2 jaar, zo niet meer, met zoon kaart doet, over 2 jaar is GPGPU alweer een stuk meer geïntegreerd.
Dat is natuurlijk wel iets was voornamelijk nVidia ons al een tijdje voorhoudt. Ze moeten nog gelijk gaan krijgen.

In de tussentijd zie ik meer toepassing voor DP in GPGPU render farms en professionele grafische oplossingen (lees: Quadro FX kaarten). Daar waar nVidia traditioneel een groot deel van hun omzet vandaan halen, en dan vooral bij gebrek aan serieuze concurrentie. En dat is natuurlijk prima!

... maar dat is niet iets wat ik, als PC enthausiast ooit zal gebruiken.

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Toettoetdaan schreef op donderdag 07 juli 2011 @ 11:02:
Maar de 2.5x DP performance zegt toch ergens dat de chip groter is geworden,
2.5x DP/Watt! Er is nog niks gezegd over daadwerkelijke Kepler performance
Anoniem: 251563 schreef op woensdag 06 juli 2011 @ 14:52:
Betreft HPC etc., er zijn weldegelijk features die goed zijn voor HPC maar niet zo zeer voor gaming. Denk aan ECC, GPGPU vriendelijke caches met compatibiliteit met C, het runnen van meerdere kernels, uberhaupt DP FP. Ook dit alles kost transistors & energie, wat men ook had kunnen investeren in extra shaders e.d., of eventueel hogere kloks.
ECC gebeurt wss gewoon in software, niet in HW.
De rest is waar, maar de vraag is hoeveel transistoren het kost. Het zijn allemaal kleinere details vergeleken met de functionaliteit die de caches, de schedulers, etc uit zichzelf al nodig hebben. Ik denk dat het allemaal wel meevalt, misschien met uitzondering van DP, maar dat is iets dat de concurrent net zo hard doet.

[ Voor 60% gewijzigd door Snoitkever op 07-07-2011 18:33 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Toettoetdaan schreef op donderdag 07 juli 2011 @ 14:30:
Het gaat hier om notebook chip's mogelijk hebben ze dat dus gebruikt om te 'oefenen'.
Oefenen ook, maar nVidia wil vooral geen dedicated mGPU marktaandeel inleveren. Dit is wel gebeurt toen AMD 40nm chips had en nVidia een hele tijd niet. Alle OEM contracten waren zelfs toen nVidia 40nm chips beschikbaar stelde al ingevuld. Verbruik/performance/prijs zijn gewoon te belangrijk in het notebook segment. Een beter productie procedé resulteert per definitie in een betere verbruik/performance/prijs.

Naast dit gegeven is het natuurlijk niet gek om met kleinere chips een nieuw productie procedé in te rushen.

[ Voor 8% gewijzigd door madmaxnl op 07-07-2011 20:51 ]


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Snoitkever schreef op donderdag 07 juli 2011 @ 18:29:
[...]

2.5x DP/Watt! Er is nog niks gezegd over daadwerkelijke Kepler performance


[...]

ECC gebeurt wss gewoon in software, niet in HW.
De rest is waar, maar de vraag is hoeveel transistoren het kost. Het zijn allemaal kleinere details vergeleken met de functionaliteit die de caches, de schedulers, etc uit zichzelf al nodig hebben. Ik denk dat het allemaal wel meevalt, misschien met uitzondering van DP, maar dat is iets dat de concurrent net zo hard doet.
Ik vermoed (ik ben zelf geen chip engineer o.i.d.) dat het allemaal veel meer dan een checklist aan features is. Als een GPU een GPGPU insteek gaat hebben, dan is van meet af de filosofie achter de architectuur anders dan als het om gaming zou gaan. Natuurlijk zijn er nog shaders en cache, maar voor hoeveel latency gaan we bijvoorbeeld? Hoe zit het met de eisen read & writes naar caches? Zijn caches write through of niet? Hoe zit het met scheduling? Is de L2 shared of niet? Hoe zeer gaan we rekening houden met dependencies?

Dus niet allen "wat wel en wat niet" maar ook "in welke mate". Als het bij Fermi vanaf het begin alleen om gaming ging, denk ik dat de architectuur er heel anders uit zou zien, juist ook buiten de features om.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 19:22

Edmin

Crew Council

get on my horse!

The sources believe that the delay is due to unsatisfactory yield rates of Taiwan Semiconductor Manufacturing Company's (TSMC) 28nm process
Dit begint een herhaling van zetten te worden...

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
28nm productie procedé blijkbaar toch niet helemaal proper. Zoals ik al zei, nu maar hopen dat ik het toch fout heb.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Als AMD nu ook goed opschiet / geen problemen krijgt dan kunnen beide bedrijven op ongeveer hetzelfde moment komen met hun nieuwe 28nm gpu-kaarten (ik las uit The Mask's artikel dat Nvidia op dit moment alsnog waarschijnlijk eerder uitkomt met 28nm). Ik hou wel van keuze.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Max Hunt schreef op zaterdag 09 juli 2011 @ 01:54:
(ik las uit The Mask's artikel dat Nvidia op dit moment alsnog waarschijnlijk eerder uitkomt met 28nm). Ik hou wel van keuze.
(Dat gaat waarschijnlijk niet gebeuren.) Ik hou van goeden keuzes.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik ga ver van uit dat AMD eerder komt omdat ze een kleinere chip zullen hebben dan Nvidia en dat is gewoon altijd een voordeel bij een die shrink.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

In het nieuws:
http://fudzilla.com/graph...0-boards-for-%E2%82%AC200

In een notendop:
This sounds like a rather good deal, since the old GTX 480 is on a par with GTX 570 and HD 6970 cards in terms of performance, but it’s about 20 percent cheaper. What’s more, Zotac will sell you an overclocked 756MHz version with custom cooling for just over €210.
Ik ben alvast opzoek voor een videokaart voor Battlefield 3. De volgende generatie laat nog op zich wachten tot eind dit jaar en nog later voordat er concurrentie plaats gaat vinden. Das dus te laat want ik ga BF3 pre-orderen (eind oktober komt ie uit).

Ik woon dus nu in Berlin en er zit hier een webshop die een Zotac GTX 480 AMP! edition verkoopt voor weinig. 212€ om exact te zijn. Ik denk er aan om die te nemen. Hij is sneller dan de GTX 570 en HD 6970 1gb, en met de zware cooler is hij vrij koel, Andere spookverhalen over de GF100 gelden waarschijnlijk niet voor deze AMP! edition. Op Newegg zijn er 51 reviews waarvan slechts 1 slecht, dus de kaart slijt niet zo hard blijkbaar. Alleen energie verbruik, kan je weinig aan doen.

Bega ik nu een fout of is dit geen slechte deal?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
XanderDrake schreef op dinsdag 12 juli 2011 @ 00:08:
In het nieuws:
http://fudzilla.com/graph...0-boards-for-%E2%82%AC200

In een notendop:

[...]


Ik ben alvast opzoek voor een videokaart voor Battlefield 3. De volgende generatie laat nog op zich wachten tot eind dit jaar en nog later voordat er concurrentie plaats gaat vinden. Das dus te laat want ik ga BF3 pre-orderen (eind oktober komt ie uit).

Ik woon dus nu in Berlin en er zit hier een webshop die een Zotac GTX 480 AMP! edition verkoopt voor weinig. 212€ om exact te zijn. Ik denk er aan om die te nemen. Hij is sneller dan de GTX 570 en HD 6970 1gb, en met de zware cooler is hij vrij koel, Andere spookverhalen over de GF100 gelden waarschijnlijk niet voor deze AMP! edition. Op Newegg zijn er 51 reviews waarvan slechts 1 slecht, dus de kaart slijt niet zo hard blijkbaar. Alleen energie verbruik, kan je weinig aan doen.

Bega ik nu een fout of is dit geen slechte deal?
Als je niet je eigen stroom rekening betaalt, zou ik het gewoon doen, goeie deal, en met een fatsoenlijke koeler heb je nergens last van.

Maar de concurrerende modellen verbruiken toch al gouw 15euro minder per jaar.
Als je iedere dag 2uur game't en een kilowatt prijs hebt van 22cent.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Toettoetdaan schreef op dinsdag 12 juli 2011 @ 09:29:
Maar de concurrerende modellen verbruiken toch al gouw 15euro minder per jaar.
Als je iedere dag 2uur game't en een kilowatt prijs hebt van 22cent.
Ik heb nu 8800GTSs in SLI. Zal ook wel niet mals zijn ;)

Hoe kom je trouwens aan deze exacte verbruik/kosten cijfers?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:36
Een verbruiks meter tussen je stekkerblok en je pc zetten?
(Aantal watt per uur)/1000 en je hebt de KwH het schilt per leverancier maar ik geloof dat 1kwh ongeveer 13 cent kost.

Je moe dit wel meten aangezien alles bij elkaar optellen gewoon natte vinger werk is maar zoals eerder gezegd als jij de stroom niet betaald dan boeit dat ook niet :p
Al zou ik liever wat meer betalen voor een Gtx560 Hawk(225) of een Gtx570 Twin forzr3 OC(300) dan een verouderdere en geplaagde 480 kaart.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

naaitsab schreef op dinsdag 12 juli 2011 @ 10:20:
Al zou ik liever wat meer betalen voor een Gtx560 Hawk(225) of een Gtx570 Twin forzr3 OC(300) dan een verouderdere en geplaagde 480 kaart.
Ouder, maar sneller dan een GTX 560, ook met OC. Ouder maar veel goedkoper dan die GTX 570.

Waarom zou ik langzamere of veel duurdere kaarten kopen? En zo geplaagd is deze GTX 480 niet, als je naar Newegg kijkt.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Hoe kom je trouwens aan deze exacte verbruik/kosten cijfers?
Direct meten of bijvoorbeeld een website waar dat al voor je gedaan is zoals dit forum.

8800GTS SLI = 240W
GTX 480 = 250W
GTX 570 = 200W
GTX 560 = 160W

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Max Hunt schreef op dinsdag 12 juli 2011 @ 11:31:
Direct meten of bijvoorbeeld een website waar dat al voor je gedaan is zoals dit forum.

8800GTS SLI = 240W
GTX 480 = 250W
Oh dank, zo te zien ga ik er niet echt op achteruit :)

Dus het enige steekhoudende argument is het energieverbruik?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
XanderDrake schreef op dinsdag 12 juli 2011 @ 09:56:
[...]

Ik heb nu 8800GTSs in SLI. Zal ook wel niet mals zijn ;)

Hoe kom je trouwens aan deze exacte verbruik/kosten cijfers?
Ja dat is ook niet echt zuinig nee :P

Ow ik heb hier gewoon gekeken hoeveel hij meer verbruikt tegenover een 6970
http://www.techpowerup.co...IS/Radeon_HD_6970/27.html
Maar het was een snelle grover berekening.

Iets exacter is:
Stel je game't 2uur per dag en gebruikt de je computer daarnaast nog eens 4uur per dag.
Tijdens gamen verbruikt de GTX480 zoon 66watt meer dan een HD6970. (tabel: average power consuption)
Tijden idle verbruikt de GTX480 zoon 32watt meer dan een HD6970. (tabel: idle power consuption)

dus:
2x66watt + 4x32watt = 260watt/uur. (vermenigvuldigen met uren geeft watt per uur)
260 / 1000 = 0,26 kilowatt/uur.
0,26 * 365dagen = 94,9 killowatt/uur per jaar.

94,9 * 0.219 = 20,7831. (0.219 is de kWh prijs van Nuon.)
Dat scheelt dan op jaarbasis 20,78 euro tussen de GTX480 en HD6970(2GB).

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Toettoetdaan schreef op dinsdag 12 juli 2011 @ 12:04:
dus:
2x66watt + 4x32watt = 260watt/uur. (vermenigvuldigen met uren geeft watt per uur)
260 / 1000 = 0,26 kilowatt/uur.
0,26 * 365dagen = 94,9 killowatt/uur per jaar.

94,9 * 0.219 = 20,7831. (0.219 is de kWh prijs van Nuon.)
Dat scheelt dan op jaarbasis 20,78 euro tussen de GTX480 en HD6970(2GB).
Dank je voor deze duidelijke berekeningen. Het is fijn om in dit soort topics te kunnen werken met exacte cijfers en bronnen :)

Ik zie steeds meer reden om de GTX 480 AMP! te kopen. Waarschijnlijk is hij namelijk voorzien van betere en efficientere componenten en pcb. Waarom denk ik dat? Door deze review (en ook andere, maar deze review is van Techpowerup, net als jou HD 6970 review, dus das beter te vergelijken).

Paatjes zegt duizend woorden:
Afbeeldingslocatie: http://tpucdn.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/images/power_idle.gif
Afbeeldingslocatie: http://tpucdn.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/images/power_peak.gif

OK, uiteindelijk verbruikt de GTX 480 AMP! nog steeds veel, maar het is een stuk minder dan een reference GTX 480. Zeker idle verbruik vind ik best netjes.

Even jou berekening opnieuw met deze cijfers:
2x37(222-185)watt + 4x16(38-22)watt = 138watt/uur.
138 / 1000 = 0,138 kw/uur.
0,138 * 365 = 50,37 kw/uur per jaar. (elke dag? Is dit niet een beetje extreem? Ik ga ook wel eens weg ;) )

50.37 * 0.219 = €11,03. (0.219 is de kWh prijs van Nuon.)
Dat scheelt dan op jaarbasis €11,03 euro tussen de GTX480 AMP! en HD6970(2GB).

De laagste prijs van de HD 6970 2gb = € 269 <- aanbiedingsprijs, normaal duurder
De prijs van de GTX 480 AMP! = € 212

dus 57 goedkoper en toch een tikkeltje (4-8%) sneller

57/11 = 5.2. Dus ik moet 5 jaar en 10 weken elke dag 2 uur gamen om het prijsverschil eruit te halen.
Is nogal lang. Na 3 jaar heb ik het wel gezien.

*O*

Maak ik ergens nog een fout?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Over de GTX 480 in dat artikel staat wel: "uses the reference GTX 480 PCB". Als daar dus nadelen aan zitten zal deze kaart dat ook hebben. Verder zijn de enige negatieve punten die ik nog kan bedenken:
- Het is een 3-slot videokaart
- Toekomstige uitbreiding (bijv. 2x een GTX 560)

Maar voor 212 euro een GTX 480 is lijkt mij een koopje. Dat is gewoon een 2e hands bedrag (kijk maar op marktplaats).

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Max Hunt schreef op dinsdag 12 juli 2011 @ 13:50:
Over de GTX 480 in dat artikel staat wel: "uses the reference GTX 480 PCB". Als daar dus nadelen aan zitten zal deze kaart dat ook hebben.
Ik heb de review nog eens doorgenomen en inderdaad, het verschil zit hem in de cooling, niet de onderdelen. Omdat de Zalman cooling de chip veel kouder maakt, scheelt dat in weerstand en daardoor in energie verbruik.

Dat is volgens mij ook het probleem met de GTX 480 in general; ze werden te warm en gingen daardoor kapot.
Verder zijn de enige negatieve punten die ik nog kan bedenken:
- Het is een 3-slot videokaart
Vervangt een 2x dualslot opstelling dus geen punt :)
- Toekomstige uitbreiding (bijv. 2x een GTX 560)
Meh, ik heb het een beetje gehad met SLI, moet ik meteen ook nieuwe voeding kopen, het blijft een feest.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
@XanderDrake
Met die nieuwe resultaten wordt hij wel erg aantrekkelijk :P
Gewoon doen dus!

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Toettoetdaan schreef op dinsdag 12 juli 2011 @ 15:19:
@XanderDrake
Met die nieuwe resultaten wordt hij wel erg aantrekkelijk :P
Gewoon doen dus!
Done! Besteld en hopelijk deze week ophalen in Berlijn.

Bedankt voor de hulp iedereen :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Helaas, order gecancelt. Niet leverbaar in die vorm. Andere webshops die de GTX 480 AMP aanboden vallen ook af.

Waarschijnlijk een foute listing van een magazijn ergens. *zucht* :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Positieve review op HardOCP over FXAA van nVidia:

http://www.hardocp.com/ar...a_antialiasing_technology

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
FXAA werkt ook op AMD. nVidia wint, maar als FXAA breed geïmplementeerd wordt(is) zal nVidia het wel nVidia only maken. Want alleen door het ook nu voor AMD beschikbaar te maken krijgt nVidia het breed geïmplementeerd(dat hebben ze waarschijnlijk wel met PhysX geleerd).

If it sounds too good to be true, it probably is not.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ben niet zo bang dat ze het nVidia only maken.

Waar ik wel bang voor ben is dat nVidia de gamedevelopers soort van "omkoopt" om het zo te implementeren dat het op AMD matig werkt in die games en bij nVidia geweldig.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
madmaxnl schreef op maandag 18 juli 2011 @ 20:06:
FXAA werkt ook op AMD. nVidia wint, maar als FXAA breed geïmplementeerd wordt(is) zal nVidia het wel nVidia only maken. Want alleen door het ook nu voor AMD beschikbaar te maken krijgt nVidia het breed geïmplementeerd(dat hebben ze waarschijnlijk wel met PhysX geleerd).

If it sounds too good to be true, it probably is not.
Ooh het evil Nvidia strikes again... Niks over de AMD-only MLAA? En dan nog, stel dat FXAA only / beter op Nvidia kaarten wordt, is dat niet meer dan logisch? Nvidia maakt een techniek, stopt daar geld / tijd in, om die dan gewoon weg te geven aan concurrent #1? Zijn er bedrijven die zoiets doen?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee, maar er zijn maar weinig bedrijven die doordat te doen de markt verzieken. nVidia doet dat dus wel.
Krijg je weer z´n standaarden oorlog waar alleen de standaarden oorlog winnaar beter van wordt.
Consument is altijd de Sjaak in deze. Zie HD-DVD vs Blu-Ray, je zult destijds maar een HD-DVD speler hebben gekocht.

[ Voor 51% gewijzigd door madmaxnl op 18-07-2011 22:09 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
MLAA is toch gewoon een simpele driver feature die nV ook rustig mag implementeren als ze dat zouden willen?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Zowel FXAA als MLAA kunnen door beide gedraaid worden hoor, hangt er maar net vanaf waar men zin in heeft. Hoeft niet eens per se in de driver; DA2 gebruikt gewoon lekker MLAA, Crysis 2 gebruikt fijn FXAA en die draaien allebei aan beide kanten. Door verschillen in architectuur krijg je verschillen in snelheid, maar het zijn beide post-processing shader filters. In beide gevallen geldt ook Cruijf's zinnetje: elk voordeel heb ze nadeel. Geen van beide werkt perfect, beide zijn sneller dan "normale" AA.

Dat AMD er voor heeft gekozen om MLAA in de driver te gooien en NVIDIA FXAA heeft verder niets te maken met wat wel of niet kan. Het zijn dan ook al wat oudere technieken, die met name voor cross-platform doeleinden geschikt zijn omdat de consoles nu eenmaal zwak zijn :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
spNk schreef op maandag 18 juli 2011 @ 22:24:
MLAA is toch gewoon een simpele driver feature die nV ook rustig mag implementeren als ze dat zouden willen?
Klopt(afaik), voor zover Max Hunt zijn vraag.

"Morphological Anti-Aliasing (MLAA), again implemented with DirectCompute, for bandwidth conservation.[5] MLAA is currently available only to a few PlayStation 3 games such as Playstation Home, God of War III and LittleBigPlanet 2. DICE intends to bring this feature to DirectX 11 GPUs."

Bron

AMD heeft hier dus geen patent o.i.d. op. Zij hebben het enkel en alleen vanuit hun drivers mogelijk gemaakt dit toe te passen op elke game. Ze kunnen slechts nu naar nVidia gaan en zeggen; 'hey what's up guys we've got this MLAA feature installed into our drivers we are happy to install it into your drivers as well, not'.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
madmaxnl schreef op maandag 18 juli 2011 @ 20:06:
FXAA werkt ook op AMD. nVidia wint, maar als FXAA breed geïmplementeerd wordt(is) zal nVidia het wel nVidia only maken. Want alleen door het ook nu voor AMD beschikbaar te maken krijgt nVidia het breed geïmplementeerd(dat hebben ze waarschijnlijk wel met PhysX geleerd).

If it sounds too good to be true, it probably is not.
Gozer, je hebt echt geen idee waar je over praat he? FXAA is een single-pass post processing filter om AA na te bootsen, vooral handig in situaties waar MSAA niet mogelijk is zoals bij deferred shading. Er komt totaal geen hardware aan te pas, alles zit in shadercode. Het enige dat NVIDIA hier mee te maken heeft is dat een onderzoeker van NVIDIA deze techniek heeft "bedacht" (op basis van soortgelijke andere technieken) en hier een whitepaper over heeft geschreven. Dit is vervolgens door een aantal ontwikkelaars overgenomen in hun titel. That's it.

NVIDIA heeft al jaren onderzoekers in dienst die nieuwe technieken voor rendering ontwikkelen en er papers over schrijven. Soms alleen, soms in samenwerking met andere onderzoekers van universiteiten en soms in samenwerking met werknemers van gamestudios. Ze publiceren hun vindingen in een paper en wie dat wil mag er gebruik van maken. Reken maar dat jij al jaren games speelt met "ontdekkingen" van NVIDIA er in. Overigens doet AMD precies hetzelfde.

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Nu online
offtopic:
madmaxnl schreef op maandag 18 juli 2011 @ 20:06:
If it sounds too good to be true, it probably is not.


:?
Het is toch:"If it sounds too good to be true, it probably is." ?
:)

[ Voor 3% gewijzigd door Puppetmaster op 19-07-2011 21:59 ]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Puppetmaster schreef op dinsdag 19 juli 2011 @ 21:57:
offtopic:
madmaxnl schreef op maandag 18 juli 2011 @ 20:06:
If it sounds too good to be true, it probably is not.


:?
Het is toch:"If it sounds too good to be true, it probably is." ?
:)
offtopic:
Daarom noemt men dat ook wel een woord grap/parodie.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

FXAA is de beste uitvinding sinds gesneden koek als je het mij vraagt!!!

IQ van 4xMSAA met een performancedrop die minder is dan 2XMSAA!!!
This is a feature that has mostly flown in under the radar, and we think NVIDIA should have been more vocal about it. It is a great step forward for anti-aliasing technology, which has remained largely stagnant on the NVIDIA side of the pond since the introduction of CSAA with the GeForce 8800 series in late 2006. FXAA is a fast and effective tool, and we are excited to see how much better NVIDIA can make it going forward.
En het werkt op zowel AMD als nV, dus ik snap niet echt waarom madmaxnl direkt weer op zijn achterste poten staat.

Deze vorm van AA is iets wat elke gamer zal toejuichen als je het mij vraagt.

Het zou helemaal fantastisch zijn als je het in je CP zou kunnen aanzetten ipv MSAA in ELKE game! :*) _/-\o_

[ Voor 6% gewijzigd door Format-C op 20-07-2011 08:33 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
FXAA zat toch ook al in DN:F?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dat van DNF klopt.

Het artikel van HardOCP was voor mij in die zin verhelderdend dat ik nu begrijp dat de "artifacts" die ik in een hoop games zag "shader aliasing" is die met traditionele AA niet opgelost kan worden en met MLAA en FXAA wel.

Ik hoop dus alleen dat we straks gewoon een "standaard" postprocess AA methode krijgen die niet misbruikt wordt door AMD of nVidia.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Ik denk dat de FXAA prestaties afhankelijk zijn van de drivers, en niet zozeer van het spel.

Als je dat artikel van HardOCP leest zie je dat op zowel AMD als nV de performance van FXAA vs 4XMSAA zo'n 40 tot 60% beter is.

Ze mogen het van mij iig wel in elk spel implementeren. :D
FXAA is clearly fast.

On every video card we tested, FXAA 1 was faster in F.3.A.R. than traditional 2X MSAA, and 4X MSAA. With the GeForce GTX 580 at 2560x1600, FXAA was 13.3% faster than 2X AA and 52.8% faster than 4X AA. At 1920x1200, the GTX 570 was 24.8% faster with FXAA than 2X AA, and 51.6% faster with FXAA than 4X AA. With the GTX 560 Ti running F.3.A.R. at 1680x1050, FXAA was 23% faster than 2X AA and 50% faster than 4X AA.


The Radeon HD 6970 was 14.7% faster using FXAA at 2560x1600 than 2X AA, and 50.9% faster than 4X AA. At 1920x1200, FXAA performed about 16.1% faster than 2X AA with the HD 6950, and about 42% faster than 4X AA. Finally, the AMD Radeon HD 6870 gave us framerates that were on average approximately 15.8% faster with FXAA than with 2X AA, and 37.8% faster with FXAA than with 4X AA.
_/-\o_

[ Voor 92% gewijzigd door Format-C op 20-07-2011 20:13 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

1st Silicon with NVIDIA Project Denver is an 8-Core ARM, 256 CUDA Core APU ?

http://www.brightsideofne...2c-256-cuda-core-apu.aspx

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ziet er goed uit maar ARM is hier de achilleshiel. 8 ARM cores en waarschijnlijk amper sneller dan x86 van gelijken 'grote' en dat waarschijnlijk in theorie(de cijfertjes). In de praktijk is x86 al helemaal heer en meester.

Hoeveel x86 multi-core/multi-treated geoptimaliseerde x86 software is er ?
Hoeveel ARM multi-core/multi-treated geoptimaliseerde x86 software is er ?

Get the point ?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

In een reaktie onder het artikel zegt iemand dat microsoft Windows naar ARM gaat porten, dus wie weet wat er gebeurt. En blijkbaar wil nVidia van de afhankelijkheid van AMD of Intel af in Tesla zodat dat goedkoper kan. En uiteraard om daar meer zelf aan te verdienen.
The design for the motherboards for notebooks, desktops and servers is also under way, with PCIe 3.0 being touted as the main connectivity feature, alongside USB 3.0 and SATA 6Gbps. According to the information given, nV is going to attack all remaining fronts - light notebooks will be covered by lower-scaled Tegra 3 and 4 (smartphone/tablet/netbook/t'n'l notebooks), more powerful silicon will be used for lighter-use notebooks and desktops, while the server play is probably the most interesting strategy.

From one side, within one generation of PD CPU designs, NV wants to enter the blade market and offer a powerful GPU, but from another, the company wants to get rid of the demands for Intel or AMD x86 cores in their Tesla business (one Tesla GPGPU requires one x86 CPU - Xeon or Opteron for "feeding"). Removing X86 from that equation will significantly boost the profit outlook, just like AMD and Intel are enjoying charging an arm and a leg for the same silicon used in their desktop/notebook computers.
Wat ARM betreft is dit ook wel een interessant artikel;

http://arstechnica.com/bu...-riscification-of-x86.ars
It seems probable that NVIDIA, and the rest of the ARM chipmakers, are simply sitting on a much larger market opportunity than Intel, especially if Intel can't match the Cortex A8 in power draw and cost. And even if it can, there are a host of reasons for mobile and consumer electronics vendors to pick ARM over x86, not the least of which is the fact that nobody wants to be wedded to a single CPU supplier.

[ Voor 95% gewijzigd door Format-C op 21-07-2011 06:11 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

De twee grote vragen voor de komende jaren zijn:
Zal het ARM lukken om ARM naar de desktop te migreren en andersom zal het intel lukken om succesvol met x86 de handheld device market binnen te dringen.

Het is in ieder geval al een groot succes dat MS windows 8 geschikt maakt voor ARM. Dat kost echt veel resources en is gewoon door marktscucess afgedwongen bij MS. Het zal evenmin lang duren voor er veel meer multithreaded software voor ARM is. De installed base van ARM is enorm en het aantal multicore devices neemt in rap tempo toe.

Ik ken niet alle finesses en kan ook de toekomst niet voorspellen. Heb ook weinig tot geen sympathie voor nVidia.
Maar als er een bedrijf is dat hier een succes van kan maken dan geloof ik zeker wel dat nVidia daar bij hoort.

[ Voor 12% gewijzigd door Help!!!! op 21-07-2011 08:44 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
ARM heeft veel nodig om een succes te worden als x86 desktop vervanger.

Genoeg programma's en games, multicore programma's, OEM design wins en een goede prijs t.o.v. x86.
X86 is als desktop en server dusdanig ingeburgerd dat ARM echt de wind mee moet hebben.
Ik zie ARM al moeite hebben om de netbook en notebook x86 markt te veroveren laat staan de desktop x86 markt.

Als ARM voor net/notebooks en desktops net als met smartphones een markt met te veel competitie wordt zie ik nVidia niet doorbreken. Iedereen kan namelijk -zoals al eerder gezegd- een ARM licentie nemen en gezellig mee gaan doen. Dit zorgt er -zoals al eerder gezegd- voor dat er heel erg lage marges zijn in de ARM markt.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

De marges zijn laag, en de omzet per chipset is niet hoog. Maar de groei mogelijkheden zijn ontzettend groot.
Dezer dagen geef ik zelfs tablet advies aan de meest onwaarschijnlijke gebruikers, digibetisch vrouwenvolk. En dat is naast al de mensen die veel meer weten van computers en technologie.

Plus, bijna iedereen is het eens dat Apple teveel vraagt voor hun producten (valt opzich mee valt als je de goedkoopste versies bekijkt) en wil daarom een high/mid end Android tablet. Daar gaat nVidia veel plezier aan beleven, want volgens mij zijn RIM en HTC de enige producenten die géén Tegra 2 tablets maken.

Eigenlijk kan Intel beginnen met zijn Atom uit te faceren, netbooks kunnen niet op tegen de prijs/functionaliteit van tablets. Met de komst van Cortex A15 zullen denk ik ook instap laptops er aan moeten geloven.
Eindelijk gaat Intel tegenstand te verduren krijgen, ze zullen ervan balen dat ze hun XScale hebben verkocht :P

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Format-C schreef op woensdag 20 juli 2011 @ 12:33:
Ze mogen het van mij iig wel in elk spel implementeren.
Ik begrijp eigenlijk niet waarom FXAA (nog?) niet door de Nvidia drivers geforceerd kan worden in DX9/* applicaties. Overal lees ik wel "requires supersampled-depthbuffers/dev-support", maar ik zie niet waarom, gezien:
  • FXAA al in elk OpenGL programma geforceerd kan worden door de Nvidia drivers.
  • FXAA is door communities zoals OBGE ("Graphics Extender" voor TES4:Oblivion) en GTA4 ENB geimplementeerd, welke, afaik, enkel maar toegang hebben tot de verschillende render-targets en de depthbuffer.
Ik ben niet into 3D engines/drivers, maar volgends mij hebben drivers daar altijd beschikking over, dus wat houdt Nvidia nou precies tegen om FXAA, naast Screen Space Ambient Occlusion, gewoon lekker in de drivers te bouwen? :?

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
XanderDrake schreef op vrijdag 22 juli 2011 @ 00:51:
Eindelijk gaat Intel tegenstand te verduren krijgen, ze zullen ervan balen dat ze hun XScale hebben verkocht :P
Lijkt me voor Intel niet zo'n heel groot probleem, die kopen gewoon een bedrijfje op en voila, ze kunnen beginnen met geld verdienen.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

spNk schreef op vrijdag 22 juli 2011 @ 09:06:
Lijkt me voor Intel niet zo'n heel groot probleem, die kopen gewoon een bedrijfje op en voila, ze kunnen beginnen met geld verdienen.
Welk bedrijfje had je in gedachte? De huidige high end producenten (Qualcomm, nVidia, TI en Samsung) zijn niet zo goedkoop hoor. Laat staan dat de EU en FCC zon overname zouden toestaan.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Intel kan ook gewoon een ARM licentie nemen, als ze die al niet hebben, en een ARM chip designen. Maar dat willen ze natuurlijk helemaal niet. Ze willen gewoon x86 in de handheldmarket.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Intel heeft niet zo heel lang geleden -net als nVidia trouwens- broadband technologie ingekocht. Intel heeft namelijk de broadband afdeling van Infineon overgekocht. Daarnaast bezit Intel goede productie procedés en productie capaciteiten om een fatsoenlijke ARM in elkaar te kunnen schroeven. Ze kopen Imagination Technologies Group op voor een paar miljard en ze zijn binnen. Ze hebben dan fatsoenlijke GPU technologie die ze alle andere fabrikanten niet meer laten gebruiken(PowerVR). Ze stoppen dus met licenties uitgeven. Ze hebben goede broadband technologie en heel erg goede productie procedés en de daarbij behorende capaciteiten.

Intel heeft de macht en mogelijkheid de ARM markt op zijn kop te zetten, maar Intel is arrogant net zoals een niet ander te nader noemen bedrijf en blijft bij zijn eigen technologie.

Een andere mogelijkheid is het bovenstaande plan, overkopen van Imagination Technologies Group en de PowerVR GPUs niet meer licenseren en het dan integreren in Atom zoals ze nu ook al doen, maar dan d.m.v. een licentie. Zo kunnen ze een Atom maken met alles erop en eraan zoals een ARM chip.

[ Voor 15% gewijzigd door madmaxnl op 22-07-2011 11:55 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

nVidia toont actuele CPU en GPU roadmap in Japan

Afbeeldingslocatie: http://content.hwigroup.net/images/news/nvidia_gtc2011_roadmap_01.jpg
Afbeeldingslocatie: http://content.hwigroup.net/images/news/nvidia_gtc2011_roadmap_02.jpg

LOL Laptop en PC Laptop :9

offtopic:
Een Geforce 9500M GS heeft toch een G84 chip welke een slechte underfill hebben en er elk moment mee kan stoppen(zeker na 2,5 jaar). Ben namelijk van plan een notebook te kopen met dergelijke chip en het is momenteel de nVidia chip die roet in het eten gooit.

[ Voor 27% gewijzigd door madmaxnl op 26-07-2011 17:19 ]


Acties:
  • 0 Henk 'm!

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 25-05 20:52
XanderDrake schreef op vrijdag 22 juli 2011 @ 09:30:
[...]

Welk bedrijfje had je in gedachte? De huidige high end producenten (Qualcomm, nVidia, TI en Samsung) zijn niet zo goedkoop hoor. Laat staan dat de EU en FCC zon overname zouden toestaan.
Creative die hebben ARM dual core 1.5 ghz met een eigen GPU geloof ik.
Zal tegenwoordig niet veel meer kosten omdat ze al een tijdje verlies maken.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het kost ook geen drol om de ARM markt in de springen. Maar om er succesvol in te zijn is moeilijk want nVidia had maar heel even een selling point(ze waren de snelste) en nu heeft Samsung hun dat al afgenomen want de SGSII is nu de snelste telefoon.

Er zijn ook maar een paar telefoon fabrikanten die chips kopen van bijvoorbeeld Broadcom, Qualcomm of Texas Instruments. Dit zijn Nokia, HTC, RIM, Motarola en Soney Ericson. LG, Samsung en Apple zijn fabrikanten die maken hun eigen chips maken.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Ik weet niet precies wat ik hiervan moet denken. Denk nVidia dat het met Denver écht x86 aankan? Gaan we op zon PC laptop (idd... lol) kunnen gamen??

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Inderdaad de roadmap doet denken alsof ze x86 makkelijk kunnen evenaren maar ARM staat nog in de kinderschoenen voor netbook, laptop en desktop gebruik en al helemaal voor workstation gebruik.

Zoals al eerder gezegd zal er een hoop moeten gebeuren:
madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic -..."

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
XanderDrake schreef op dinsdag 26 juli 2011 @ 20:29:
[...]

Ik weet niet precies wat ik hiervan moet denken. Denk nVidia dat het met Denver écht x86 aankan? Gaan we op zon PC laptop (idd... lol) kunnen gamen??
Myeah ik heb gelezen dat ze in december de eerste moederborden en cpu/gpu chips ter beschikking zullen stellen.
http://www.brightsideofne...2c-256-cuda-core-apu.aspx
Maw ze denken van wel ja. Nu bon 8 cores aan 2,5 Gigahertz met een ipc die niet zoveel moet onderdoen kan wel voldoende zijn ja.
Het blijft sowieso low end (kijk maar naar de gpu ..), in feite een cheap ass concurrent voor de APU chips waarmee AMD hoopt te scoren. Het zal wel eens iets anders zijn nVidia die de goedkopere/tragere chips produceert maar meer bang for bug levert dan de iets duurdere APU's van AMD die dan wel weer een stuk sterkere cpu zouden moeten hebben. de wereld op zijn kop als het ware ;p

Het meest interressante is natuurlijk het volgende:
Unlike AMD's APU design, where CPU and GPU parts connect to the memory controller at the speed of DDR3 memory, Project Denver is looking for a more direct communication between CPU and GPU cores, i.e. relying on the best GPU design can offer: high-bandwidth connection. NVIDIA is not taking the conventional route with L1, L2 and L3 cache design, since the GPUs have 1TB/s+ connections to its cache memory, similar approach is rumored for Denver core design as well. Just like in the GPUs, memory controller takes the larger portion of the die and connects CUDA cores with CPU cores and CPU will have priority access to the bandwidth needed.
We zagen dit ook al bij de APU's van AMD waar men wel gebruik maakt van cache memory maar toch serieuze performantie verschillen kan opmenten naar gelang de snelheid van de RAM modules in het systeem. Memory access kan soms even belangrijk of zelfs belangrijker zijn dan de daadwerkelijke cpu power.

In ieder geval moest het nVidia lukken zou dat héél mooi zijn, zeker daar men na Tegra1 het Tegra platform eerder als een flop zag dan daadwerkelijk de toekomst van nVidia. En krijgen we eindelijk 3 spelers op de cpu en gpu markt. Mits de ARM variant van windows8 er daadwerkelijk komt en evengoed is als de x86 variant
• Intel: Beste cpu's , slechtste gpu (atm)
• AMD: x86 cpu's die eigenlijk meer dan volstaan, goede gpu's
• nVidia: zwakste op ARM gebaseerde cpu's (hopelijk), goede gpu's

Hiervan kan je als consument enkel maar van dromen :9~

Specs


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Ja... Het hele verhaal van Windows 8 kan wel helpen. Ik ben zo benieuwd of we gewoon vroegere x86 software kunnen installeren en gebruiken op ARM Win8 systemen. Dit zou wel de grootste concurrentie verbetering zijn sinds 2004 (toen AMD intels kont schopte).

Maar er zijn zo veel punten waar het fout kan gaan met deze ARM gok van nVidia:
  • slechte driver support
  • Slechte support in het algemeen
  • Versnipperde markt
  • incompatibility met andere hardware
  • hercompileren van software wat eeuwen gaat duren
  • Software die echt niet convertable is en waar je dus emulatoren voor nodig gaat hebben
Dingen die sowieso goed gaan zijn:
  • Energie gebruik is laag
  • efficientie is erg hoog, weinig overhead
  • lage temperatuur
  • lage kosten
Ik ben heeeeeel benieuwd hoe dit gaat los lopen. Ik kan eigenlijk niet wachten op Win8, es kijken of ie op mijn tabletje gaat draaien!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 20:06
lightdestroyer schreef op woensdag 27 juli 2011 @ 13:16:
In ieder geval moest het nVidia lukken zou dat héél mooi zijn, zeker daar men na Tegra1 het Tegra platform eerder als een flop zag dan daadwerkelijk de toekomst van nVidia. En krijgen we eindelijk 3 spelers op de cpu en gpu markt. Mits de ARM variant van windows8 er daadwerkelijk komt en evengoed is als de x86 variant
• Intel: Beste cpu's , slechtste gpu (atm)
• AMD: x86 cpu's die eigenlijk meer dan volstaan, goede gpu's
• nVidia: zwakste op ARM gebaseerde cpu's (hopelijk), goede gpu's

Hiervan kan je als consument enkel maar van dromen :9~
Allemaal erg interessant, natuurlijk.

Maarrr... er is heel veel afhankelijk van Microsoft en wat voor zover ik weet Windows 8 heet. SISC is toch net iets anders dan RISC. Bij normale productie activiteiten geeft dat niet zo veel problemen, schat ik zo. Die moeten over en weer gewoon geëmuleerd kunnen worden, ongeacht de klasse van de nieuwe Windows.

Ingewikkelder wordt het bij games, waar we het toch over lijken te hebben. De echte vraag is in hoeverre de kernel van Windows 8 hardwareverschillen gaat opvangen. En in hoeverre programmeurs van bijvoorbeeld games rekening moeten houden met de verschillen in beschikbare CPU instructies. En zelfs dan is de vraag of de ARM cores werkelijk zijn opgewassen tegen het ingewikkelder rekenwerk dat ten grondslag ligt aan de moderne game.

Of nVidia daadwerkelijk gaat mikken op ARM CPU's in combinatie met hun betere videokaarten, betwijfel ik echt...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Nieuwe nVidia (beta) drivers!

280.19.

Release notes:

http://us.download.nvidia...Desktop-Release-Notes.pdf

Download:

http://www.geforce.com/Drivers/Beta

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Ben benieuwd hoe Kal-El ontvangen gaat worden, zeker omdat nvidia's concurenten al hebben laten weten te wachten op ARM op 28nm. (Cortex-A15 geloof ik?) Ze zullen dan waarschijnlijk de tablet markt domineren totdat de A15 architectuur uit is.

[ Voor 6% gewijzigd door ColinZ op 28-07-2011 22:15 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De link doet het ? Deze kaart had toch maar 3GB geheugen ? Gemisten kans want in dit geval geeft zelfs een HD6990 deze kaart op zijn flikker in het segment waar hij zou worden gebruikt buiten het behalen van wereldrecords.

Dit is slechts met één kaart op hoge resoluties, zet de jongens in SLI of CF en dan denk ik dat beiden setups in sommige gevallen wel tegen een geheugen hoeveelheid bottelnek aanlopen waarbij dat veel sneller het geval zal zijn met de GTX590. Heeft de GTX590 6GB op zijn kaart zitten dan loopt die rondjes om de HD6990. Aangezien ze bij AMD echt geen 8GB op de kaart gaat stoppen kan nVidia de performance kroon weer heroveren.

[ Voor 139% gewijzigd door madmaxnl op 02-08-2011 18:47 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

ASUS next-gen Transformer to sport NVIDIA's quad-core Kal-El, October launch?

Iemand enig idee hoe goed of slecht nVidia Tegra er momenteel verkocht ?
Hier op GoT hebben nog geen 80 mensen een smartphone met Tegra 2 SoC. In tablets is het beestje beter vertegenwoordigt hier op GoT met 120 mensen die een tablet hebben met een Tegra SoC. De Apple iPad '1' is populairder dan alle Tegra 2 SoC gebaseerde tablets bij elkaar net als dat alle Tegra 2 SoC gebasseerde smartphone minder populair zijn dan de Apple iPhone 4.

De verkopen zijn niet slecht dat niet maar het succes blijft uit lijkt mij

[ Voor 9% gewijzigd door madmaxnl op 03-08-2011 05:01 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Mooi zo! Kan niet wachten
Hier op GoT hebben nog geen 80 mensen een smartphone met Tegra 2 SoC. In tablets is het beestje beter vertegenwoordigt hier op GoT met 120 mensen die een tablet hebben met een Tegra SoC.
Hoe kan je deze cijfers nu weer opvatten als vertegenwoordigend :? Waar heb je ze notabene vandaan? De pricewatch "Ik heb em!" stats?

De LG Optimus 2x verkoop/verkocht als een malle. http://www.somobile.co.uk...es-sells-out-in-24-hours/
en deze:
http://www.jazzou.com/ind...ontent&task=view&id=21768
Some of the latest news suggests that its sales figures have touched 1 million units in just 40 days. It’s a never happened before for LG, a new record has been set by LG if sales figure are to get reckoned. Adding more to its sales are some LG Optimus 2X deals which are being offered by almost all the networks available in the market.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Hmm. Sony's tablet is wel Tegra 2. Vandaar dat Playstation Suite ook naar Tegra komt. Voor de Vita weet ik het nog niet. Die Samsung Quad is nog niet uit, en er is ook niets van bekend. Kal-el zou al wel bijna leverbaar zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
XanderDrake schreef op woensdag 03 augustus 2011 @ 09:07:
[...]

Hmm. Sony's tablet is wel Tegra 2. Vandaar dat Playstation Suite ook naar Tegra komt. Voor de Vita weet ik het nog niet. Die Samsung Quad is nog niet uit, en er is ook niets van bekend. Kal-el zou al wel bijna leverbaar zijn.
Zou me niets verbazen als Sony meer controle wou over de hardware. En dan bedoel ik niet alleen qua rechten maar ook qua specs. Een handheld console heeft toch wel andere eisen dan een tablet :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Snoitkever schreef op woensdag 03 augustus 2011 @ 10:42:
Zou me niets verbazen als Sony meer controle wou over de hardware. En dan bedoel ik niet alleen qua rechten maar ook qua specs. Een handheld console heeft toch wel andere eisen dan een tablet :)
Hmm, ik weet het niet, twee redenen waarom:
  1. De Xperia phones en voornamelijk de Xperia Play zijn allemaal gebaseerd op Qualcomm chipsets. Volgens mij laat Qualcomm ook totaal geen aanpassingen toe aan hun hardware. Dus dat lijkt me geen reden.
  2. Naast het feit dat Sony's tablet Tegra 2 gaat bezitten, heeft sony al een veel langere relatie met nVidia, bijvoorbeeld via de PS3. Samsung is daarentegen een concurrent, op het gebied van TV's, Phones, media spelers, enz. enz. nVidia is veel neutraler in dat opzicht, eerder een 'collega'.
Nu is het wel zo dat Sony precies doet wat ze zelf willen, onafhankelijk wat de wereld er van vindt. Soms gaat dat goed (Walkman, Blu-ray), soms gaat dat fout (Betamax, MiniDisk).
Dus voor het zelfde geldt gaan ze naar een andere partij dan Samsung of nVidia ;)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Google heeft Tegra2 als ontwikkel-platform gebruikt voor Android 3. Het is de grootste reden waarom veel bedrijven met een Tegra2 Tablet komen, omdat er weinig naar de hardware/software kant gekeken hoeft te worden, wat meer tijd geeft om aan vormgeving/features te besteden en natuurlijk is er de TTM (TimeToMarket), om anderen maar voor proberen te blijven. Het zegt dus helemaal niets over non-Android apparaten of Android apparaten die niet op Android 3 draaien. Verder zullen toekomstige apparaten andere SoCs krijgen, omdat de TTM niet meer zo heel erg van belang is als je al een product op de markt hebt.

Verder schijnt Google ondertussen een Texas Instruments SoC gebruiken voor de volgende versie van Android, dus daar valt een voordeel voor nVidia ook mee weg.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Interessante threads mbt FXAA:

http://www.neogaf.com/forum/showthread.php?t=439293

http://www.forum-3dcenter...php?p=8868406#post8868406

http://www.xtremesystems....10-Games-Now-by-some-dude!

FXAA kan in een hoop DX9 en DX10 games worden enabled met het tootlje in de downloadlink in de 2e link! :D

In deze games werkt het 100% zeker:

Mass Effect
Mass Effect 2
Metro 2033@Dx9
Mafia II
Dirt 2
Dirt 2@Dx11
Dirt 3
Sacred 2
Arcania
NFS: HP
Tourchlight
Trine
Dead Space
World of Tanks
GTA IV
Shift 2
BF2
BFBC2
Dragon Age 2
Bioshock 1 + 2

[ Voor 54% gewijzigd door Format-C op 04-08-2011 20:13 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Interessant :)!

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Game devs kunnen dit dus d.m.v. een simpele patch integreren ? Waar wachten ze dan nog op :P

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Dat is niet eens meer nodig. Volgens mij is het door de VGA bakkers makkelijk in de drivers te integreren als ik zie dat iemand op een forum dit zomaar even voor elkaar bokst.

Iemand die zichzelf "some dude" noemt, heeft een "injectable" gemaakt (zie die forum threads). De bestandjes van de injectable (zie een aantal links op die fora, versie 6.7 moet je hebben) kan je in de installatiemap van de game zetten (waar de exe ook staat), en vervolgens kan je, als je de game hebt opgestart, op INSERT drukken, en je hebt FXAA. Dus ongeveer 4xAA nagenoeg voor niks. :D

Heb het net zelf geprobeerd in SHIFT2. Werkt. _/-\o_

Zal morgen nog wat verder testen. :)

O ja; werkt als het goed is ook gewoon op ATi. Is niet AMD of nV only vziw.

[ Voor 34% gewijzigd door Format-C op 04-08-2011 20:50 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Probleem hiermee is dat het problemen kan geven als je online gaat. Voor singelplayer werkt het i.i.g. wel mooi.

[ Voor 25% gewijzigd door madmaxnl op 04-08-2011 20:50 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Mja, dat zou kunnen. Je moet het nu idd in de installatiemap zetten, dus ik weet niet hoe bijvoorbeeld VAC of Punkbuster hierop reageert.

Goed dat je hier even aan denkt. d:)b Dus het is idd verstandig hier nog even rekening mee te houden voordat je een eventuele ban te pakken hebt. Edit; Maar goed, de bestandjes kan je ook simpel weghalen als je een online game hebt, en ze later weer terugzetten.

Of even posten op Guru3d, Extremesystems, of 3DCenter forum met deze vraag. :)

Ik vind het iig wel een zeer interessante ontwikkeling. :)

[ Voor 24% gewijzigd door Format-C op 04-08-2011 20:54 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Enige game die ik momenteel heb die dit kan gebruiken is BFBC2, maar die game speelt heerlijk met alle toeteressenbellen aan op 1920x1080@8xAA. Volgens mij is mijn CPU zelfs een bottelnek, tuk AMD ;)

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Mja, sommige mensen spelen bijvoorbeeld GTA4 met downsampling. Dit kan nu mooi met FXAA. Scheelt wel 200 of 300% performance aangezien je met downsampling over resoluties praat van 5760x3600.

Ook kunnen mensen met wat lichtere kaartjes misschien nu bepaalde games wel met AA spelen.

Edit; Unreal 3 games geven bij AMD vaak geen AA, misschien dat het daarin nu wel werkt.

[ Voor 32% gewijzigd door Format-C op 04-08-2011 21:09 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:02
Dit is een soort postprocessing truuk toch? vergelijkbaar met de MLAA die bijvoorbeeld in shogun 2 zit?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Mja, zo iets. Alleen dan sneller.

In SHOGUN 2 werkte MLAA sneller dan MSAA, maar in de rest van de games niet, en is MLAA net zo zwaar als SSAA, of iig iets in die buurt.

Artikeltjes over FXAA en MLAA:

FXAA

MLAA
NVIDIA FXAA:
Pros:

- Compatible with AMD and NVIDIA GPUs

- Small performance hit (compared to MSAA and MLAA).

- Image quality comparable to 4X MSAA and MLAA.

- Highly customizable for balancing performance and image quality.

- Can reduce aliasing on edges, textures, and shaders.

Cons:

- Requires game developer implementation

AMD MLAA:
Pros:

- Does not require game developer implementation, implemented in driver in any game.

- Compatible with every game and game engine, regardless of API (D3D or OpenGL).

- Can reduce aliasing on edges, textures, and shaders.

Cons:

- Only compatible with AMD GPUs.

- Large performance hit.

- Not as effective with single-pixel objects.
Wat ik vet gemaakt hebt lijkt dus niet eens het geval, dus volgens mij zijn er geen cons. :)

Edit; Wolfenstein staat bijvoorbeeld niet tussen de genoemde games, maar werkt wel (klikbare pics):

Met FXAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/DWbjCHZetruifrESJX6vYoFM/medium.jpg

Zonder FXAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/GsMmzbWFUYK4i7sp7xRU5qR2/medium.jpg

Met FXAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/NbrXe9Lbp44Ic34o67KC1Q92/medium.jpg

Zonder FXAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/GKLmnvNarX8Ly82ZHzj1wV3w/medium.jpg

[ Voor 26% gewijzigd door Format-C op 04-08-2011 21:26 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Format-C schreef op donderdag 04 augustus 2011 @ 21:01:
Wat ik vet gemaakt hebt lijkt dus niet eens het geval, dus volgens mij zijn er geen cons. :)
Het voordeel van MLAA is dat er geen enkele verandering in de game nodig is. Het werkt dus gewoon. Om het als con te stellen dat het alleen mogenlijk is met AMD, is redelijk ver gegrepen. Voor zover ik weet, staat het nVidia vrij om ook MLAA in de drivers in te bouwen. Met betrekking tot prestaties is er wellicht nog wel wat te winnen (CCC 11.8 preview schijnt 30% extra prestaties te leveren met MLAA, we zullen zien), maar het doet het altijd beter dan SSAA.

De con van FXAA is toch wel dat je 'afhankelijk' bent van de game-developers, tenzij de injectie-tooltjes geen problemen opleveren voor online gameplay en er geen malware/spyware/virus varianten op het internet verschijnen. Dit kan toch een punt zijn die mensen weerhoudt er gebruik van te maken. Dat heb je met MLAA dus niet.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Die pros en cons zijn ook niet mijn uitspraken he?

Maar het lijkt me duidelijk dat als je naar de IQ en performancehit van FXAA gaat kijken, dat FXAA voor zowel AMD als nV ALS ONS, de gamers, de beste oplossing zou zijn.

En volgens mij is het relatief simpel te integreren in CCC of NVCP. Edit; het zou met niet verbazen als het in de eerstvolgende WHQL driver van nV zit, maar goed, die laat al maaaaaanden op zich wachten. |:(

Edit; nV was/ is al bezig met de tegenhanger van MLAA, genaamd SRAA (Subpixel Reconstruction Antialiasing), maar ik vraag me af of dat met de komst van FXAA nog wel bestaansrecht heeft.

http://research.nvidia.co...construction-antialiasing

[ Voor 43% gewijzigd door Format-C op 04-08-2011 21:37 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

Dusss, Kepler is af in 2011 maar kan pas in degelijke hoeveelheden worden geshipped in 2012? Dat lijkt me de bottem line toch? Jammer, maar vooralsnog is geen van de nieuwe generatie videokaarten optijd voor BF3 dus zoveel maakt het me niet uit...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Die hele tijdlijn van nVidia is precies zoals ze het gewild hadden, maar zoals het dus niet is gegaan.

Tesla a.k.a. GT200 heeft het daglicht mid 2008 gezien.
Fermi a.k.a. GF100 heeft het daglicht mid 2010 gezien.
Kepler a.k.a. GF200(?) zal het daglicht zeker niet meer in 2011 zien.

Het is nog maar een vraag of 28nm überhaupt klaar zal zijn voor eind 2011 laat staan dat nVidia het werkende heeft met Kepler. 40nm bijvoorbeeld was al een hele tijd klaar voordat nVidia er iets mee kon doen. Idem dito voor 55nm want ze hadden GT200 net op 65nm werkende en niet lang daarna moest men al overstappen op 55nm want ATi maakten gehakt van nVidia op dat moment. Financieel gezien is zo snel een productie procedé transitie ondergaan niet rendabel geweest. nVidia had een inschattingsfoutje gemaakt want men had nooit verwacht dat ATi zo sterk terug zou komen. Koen Crijns dacht bijvoorbeeld t.t.v. de GT200 presentatie dat ATi het wel kon shaken. Zo slecht zag het eruit. nVidia arrogant dat ze zijn dachten dat hun 65nm productie procedé nog wel zou voldoen terwijl ATi met zijn vorige generatie al op 55nm zat.

Anyways, het wordt heel spannend want beiden bedrijven staan weer op scherp en dit wordt weer een nieuwe ronden waarin de kansen voor beiden bedrijven gelijk zijn.

[ Voor 6% gewijzigd door madmaxnl op 07-08-2011 18:05 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Nvidia gewinnt Marktanteile von AMD

"Gute Verkäufe von Mobile-GPUs für Nvidia"

Zoals verwacht eigenlijk, zeker als je bedenkt dat je in bijna alle huidige notebooks een GT520m of GT540m terug vindt. AMD zit vooral in de duurdere notebooks zoals bijvoorbeeld Apples.

[ Voor 11% gewijzigd door madmaxnl op 07-08-2011 22:19 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

madmaxnl schreef op zondag 07 augustus 2011 @ 18:01:
nVidia arrogant dat ze zijn dachten dat hun 65nm productie procedé nog wel zou voldoen terwijl ATi met zijn vorige generatie al op 55nm zat.
Arrogant arrogant... Eerder een geval van "in het verleden behaalde resultaten bieden geen garantie voor de toekomst". Voordat 55nm zijn intrede deed, kon nVidia het heel goed behappen met zijn architecturen op een groter procede dan ATI. Dit veranderde pas rond, inderdaad met de die shrink naar 55nm, sindsdien heeft nVidia een die shrink of respin nodig om echt te kunnen concurreren.
Daarna is het eerder een kwestie van onderschatten hoe moeilijk het is om een grote GPU (want daar is nvidia van, grote chips) snel naar een kleiner procede te verhuizen. Maar ondertussen zouden ze dat wel door moeten hebben...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De HD3800 kaarten waren in november 2007 al beschikbaar en dat waren 55nm kaarten. nVidia zat toen nog op 65nm. De HD4800 kaarten waren in juni 2008 al beschikbaar en dat waren ook 55nm kaarten. nVidia zat toen nog altijd op 65nm. Want daarop hadden ze net hun GTX280 en GTX260 gelanceerd die dezelfde dag dat ATi met zijn kaarten kwam al flink in prijs moesten dalen en zelfs na de prijs daling was het maar zozo. Als nVidia direct de GT200 op 55nm had uitgebracht was er niets aan het handje geweest. De GT200b kwam pas beschikbaar in de GTX285 in januari 2009.

Dit noem ik dus gewoon arrogantie want ze dachten dat ze het wel even konden. Nou mooi niet dus en met 40nm lieten ze zich weer kisten, kijken wat ze doen met 28nm. Tot nu toe is er bij nVidia altijd wel wat met het productie procedé. Te laat, slechte yields of slechte kwaliteit(soldeer).

[ Voor 3% gewijzigd door madmaxnl op 07-08-2011 23:21 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Denk dat het vrij weinig met arrogantie nodig had, eerder met onkunde. Waarschijnlijk was nVidia helemaal nog niet klaar voor 55nm, anders hadden ze het vast wel gedaan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 263922

madmaxnl schreef op zondag 07 augustus 2011 @ 21:56:

Nvidia gewinnt Marktanteile von AMD

"Gute Verkäufe von Mobile-GPUs für Nvidia"

Zoals verwacht eigenlijk, zeker als je bedenkt dat je in bijna alle huidige notebooks een GT520m of GT540m terug vindt. AMD zit vooral in de duurdere notebooks zoals bijvoorbeeld Apples.
Ach voorheen zat in Apples altijd Nvidia, maar voor het marktaandeel maakt dat gegeven toch niet echt veel uit ;) , de massa koopt toch vooral bij de elektroboeren in de stad.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 263922 schreef op maandag 08 augustus 2011 @ 00:00:
[...]


Ach voorheen zat in Apples altijd Nvidia, maar voor het marktaandeel maakt dat gegeven toch niet echt veel uit ;) , de massa koopt toch vooral bij de elektroboeren in de stad.
Uiteraard, maar het zegt toch wel wat. Voorheen had nVidia de betere kaarten(figuurlijk), ze hadden immers chipsets die ze konden combineren met Intel chips. Deze kaart zijn ze dus verloren en nu heeft AMD de betere kaarten(letterlijk en figuurlijk). Ze leveren namelijk betere perf/watt en dat is wel heel belangrijk in notebooks. De prijs van nVidia doet vele toch voor nVidia kiezen ondanks dat AMD het normaal van de prijs moest hebben. Pure concurrentie dit.
-The_Mask- schreef op zondag 07 augustus 2011 @ 23:35:
Denk dat het vrij weinig met arrogantie nodig had, eerder met onkunde. Waarschijnlijk was nVidia helemaal nog niet klaar voor 55nm, anders hadden ze het vast wel gedaan.
Ook goed, maar onkunde is erger als arrogantie.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Nieuwe nVidia WHQL Drivers (280.26).

Windows 7 64 bit link:

http://us.download.nvidia...ta-64bit-english-whql.exe

[ Voor 3% gewijzigd door Format-C op 09-08-2011 14:30 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 31-05 07:09
Nog een fotootje van de ROG Mars II..

Afbeeldingslocatie: http://i.imgur.com/8t3fIl.jpg

Kepi_nl


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 31-05 16:53

superwashandje

grofheid alom

hahaha, veel hoger, veel breder, veel langer, veel duurder en...10% sneller? leuk dat ze gemaakt worden maar echt veel heb je er niet aan. alleen maar onhandig.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:33

XanderDrake

Build the future!

superwashandje schreef op woensdag 10 augustus 2011 @ 11:03:
hahaha, veel hoger, veel breder, veel langer, veel duurder en...10% sneller? leuk dat ze gemaakt worden maar echt veel heb je er niet aan. alleen maar onhandig.
Veel betere cooling dus duurzamer. Veel meer geheugen dus veel geschikter voor 30" schermen met 2560*1440 of dergelijke resoluties.

Mijn ervaring is dat echt high end kaarten vaak vrij lang mee gaan, ook qua performance. Bijvoorbeeld, de 8800GTX is stok oud maar kan alles nog aan op Medium-high, zelfs met een beetje AA. Als je niet zo veeleisend bent, kan je makkelijk 5-6 jaar doen met zon kaart.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Allememachies, die kaart is monsterlijk groot ! :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 5 ... 7 Laatste

Dit topic is gesloten.

Let op:
Voor de duidelijk nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.