[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 7 Laatste
Acties:
  • 31.810 views

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 30-05 15:53

superwashandje

grofheid alom

XanderDrake schreef op woensdag 10 augustus 2011 @ 11:48:
[...]

Veel betere cooling dus duurzamer. Veel meer geheugen dus veel geschikter voor 30" schermen met 2560*1440 of dergelijke resoluties.

Mijn ervaring is dat echt high end kaarten vaak vrij lang mee gaan, ook qua performance. Bijvoorbeeld, de 8800GTX is stok oud maar kan alles nog aan op Medium-high, zelfs met een beetje AA. Als je niet zo veeleisend bent, kan je makkelijk 5-6 jaar doen met zon kaart.
klopt maar goed, dan heb je ook genoeg aan een gtx460. en ja de koeling is vast wel beter maar hoeveel? en hoeveel scheelt de dubbele hoeveelheid geheugen bij de 30" resolutie? volgens mij niet zo heel veel hoor. hoewel ik hier natuurlijk geen cijfers van heb...
begrijp me niet verkeerd: ik vind dit gave kaarten (vooral omdat ze zo lekker lomp zijn)maar het nut/de toegevoegde waarde ervan ontgaat me een beetje.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 12:09

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Let op met die drivers, laten bepaalde kaarten weer erg warm worden, kwam wat tegen op een WOW forum, nadat een collega me er op wees..

"There are some significant bugs in the 280.26 drivers that were recently released, including a bug that makes cards run warm. Avoid upgrading until a fixed driver is released."

bron: http://www.mmo-champion.com/content/

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Allemaal heel leuk en aardig, maar hoe komen ze daar bij?

Op guru3d en nvnews heb ik er nog niks over gelezen, en ik heb er zelf ook geen last van.

Wat is de bron van diegene? Waar heeft ie het vandaan dat deze drivers problemen zouden geven? Zou graag "bewijs" zien. Iedereen kan wel wat roepen...

Ik zou zeggen? Hoe het ff in de gaten voor de zekerheid als je ze installeert. Ik heb iig nergens last van. Ik hou alles over het algemeen nauwlettend in de gaten.

[ Voor 21% gewijzigd door Format-C op 10-08-2011 14:16 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Ik had hier en daar wat gelezen over hogere temperaturen (+15 graden hadden ze het over) in idle (browsen etc.) en over crashende drivers voor sommigen (dat zat blijkbaar ook/wel in de beta). Ik heb nog geen 'bewijs' hiervoor gevonden, maar ik kwam wel dit tegen op het EVGA forum:
With the Release 280 drivers, NVIDIA GPU clock speeds will increase more quickly in response to increased graphics demands. Conversely, with lower graphics use the GPU clock speed slows down more quickly, conserving as much power as possible. You may notice the fluctuation in clock speeds while engaging in various tasks on the PC. This is to be expected, and indicates that the GPU performance mode is adjusting as
needed and that the GPU is operating at the optimal performance level at all times.
- bron

Dit zou kunnen verklaren waarom de temperatuur omhoog zou gaan als je gewoon wat browsed.

Edit: er is blijkbaar geklaagd over het te snel up clocken van de kaart waarop Nvidia dit heeft gezegd:
Thanks for the detailed info. Our software team has decided to change the timings so that it is more in line with what users saw in R275. This change has already been made but won't show up until the early September driver release. A WHQL driver is going to be released next week which will be a slightly higher driver version but the only fix that is likely of importance to users here is SLI compatibility for Deus EX: Human Revolution.
In de september drivers clocken de kaarten dus minder snel omhoog.

[ Voor 24% gewijzigd door Max Hunt op 10-08-2011 14:21 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 12:09

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Toch is de tekst significant bugs een link naar nvidia:
http://forums.nvidia.com/...2&view=findpost&p=1274921

dus ze hebben er wel aandacht zelf aan besteed, alleen krijg je nu dus een:
500 - Internal server error.
There is a problem with the resource you are looking for, and it cannot be displayed.

ga je echter met Google's cached pages spelen, vind je ineens wel de laatste pagina van het topic:

http://webcache.googleuse...k&source=www.google.co.uk

en dat staat vol met info over de specifieke driver issues... :o

Ignorance is Bliss!

en ik was alleen maar je toffe info van FXAA aan het lezen, wat me erg interessant lijkt voor me oude HD4870 icm BFBC2, iemand dit al online mogen gebruiken, of nog niemand het durven testen!? :+

[ Voor 11% gewijzigd door SAiN ONeZ op 10-08-2011 14:22 ]

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

sain onez schreef op woensdag 10 augustus 2011 @ 14:18:
Toch is de tekst significant bugs een link naar nvidia:
http://forums.nvidia.com/...2&view=findpost&p=1274921

dus ze hebben er wel aandacht zelf aan besteed, alleen krijg je nu dus een:
500 - Internal server error.
There is a problem with the resource you are looking for, and it cannot be displayed.

ga je echter met Google's cached pages spelen, vind je ineens wel de laatste pagina van het topic:

http://webcache.googleuse...k&source=www.google.co.uk

en dat staat vol met info over de specifieke driver issues... :o
Die web pagina werkt hier gewoon. :) En zo heel veel probleemgevallen zie ik daar niet.

Voor de rest speelt dat (eventuele) probleem alleen idle volgens mij.

Ik heb er zelf ig geen last van.

Maar goed. Hou het ff in de gaten als je ze erop zet zou ik zeggen. :)
Max Hunt schreef op woensdag 10 augustus 2011 @ 14:18:
Ik had hier en daar wat gelezen over hogere temperaturen (+15 graden hadden ze het over) in idle (browsen etc.) en over crashende drivers voor sommigen (dat zat blijkbaar ook/wel in de beta). Ik heb nog geen 'bewijs' hiervoor gevonden, maar ik kwam wel dit tegen op het EVGA forum:


[...]
- bron

Dit zou kunnen verklaren waarom de temperatuur omhoog zou gaan als je gewoon wat browsed.

Edit: er is blijkbaar geklaagd over het te snel up clocken van de kaart waarop Nvidia dit heeft gezegd:

[...]


In de september drivers clocken de kaarten dus minder snel omhoog.
Volgens mij is er weinig aan de hand idd.

[ Voor 26% gewijzigd door Format-C op 10-08-2011 14:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:46

XanderDrake

Build the future!

superwashandje schreef op woensdag 10 augustus 2011 @ 13:14:
klopt maar goed, dan heb je ook genoeg aan een gtx460.
De GTX 460 legt qua performance veel sneller het loodje. De kaart is ongeveer een jaar oud, maar ik twijfel bijvoorbeeld of de 768mb versie nog wel op 1080p @ Medium kan draaien bij een spel zoals Battlefield 3. Waarschijnlijk niet. Dus na ongeveer 1,5 jaar is de GTX 460 al onder gemiddeld.

Dus als gamen op Medium quality een beetje je richtlijn is (lijkt mee een redelijke statement), heb je meer aan een High end card van twee generaties geleden, dan een mid-range card van de vorige generatie.

Een nieuwe midrange card is trouwens vaak de helft van de prijs van een highend card, je zou dus wel vaker kunnen upgraden voor hetzelfde geld. Maar als je een High end card koopt kan je in het begin wel op ULTRA settings spelen ;) Toch wel leuk.
en ja de koeling is vast wel beter maar hoeveel? en hoeveel scheelt de dubbele hoeveelheid geheugen bij de 30" resolutie? volgens mij niet zo heel veel hoor. hoewel ik hier natuurlijk geen cijfers van heb...
Soms scheelt het weinig, maar bij een aantal games heb je een geheugen hoeveelheid bottleneck. Dan maakt het minder uit wat voor GPU je hebt, als je moet swappen met het RAM geheugen, stort de performance in. GPU's met een dubbele hoeveelheid vRAM kunnen dan nog wel doorhobbelen.
Voorbeeldje:
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/clearsky_1680_1050.gif
en
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/clearsky_2560_1600.gif

Normaliter is de HD 5870 een stuk sneller dan de GTX 470, vanwege de GPU, maar bij de onderste grafiek zie je dat de GTX 470 wint van de HD 5870 op zeer hoge resoluties. Dit ligt vrijwel zeker aan de hoeveelheid vRAM.
Dingen zoals AA op hoge resoluties vereisen BERGEN vRAM. Daarvoor koop je die extreme high-end cards :)
begrijp me niet verkeerd: ik vind dit gave kaarten (vooral omdat ze zo lekker lomp zijn)maar het nut/de toegevoegde waarde ervan ontgaat me een beetje.
Sja. Ik heb in een computer winkel gewerkt, en toch een redelijk aantal keer kreeg ik klanten die gewoon één keer in de 5 jaar een PC kopen. Dan leggen ze snel €2000 neer voor het zwaarste wat ze kunnen kopen. Aan upgraden doen ze niet. Teveel gedoe.
Als ze dan na 4-5 jaar merken dat spellen echt beginnen te happeren, doen ze weer hetzelfde :+

Met zon insteek is er wat voor te zeggen om zo'n GTX 580 MARS II te kopen :)

En begrijp mij niet verkeert, IK zou zeker geen MARS II kopen voor dat geld. Ik upgrade wel en denk vaak lang na voor ik overga op de verkoop.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 30-05 15:53

superwashandje

grofheid alom

XanderDrake schreef op woensdag 10 augustus 2011 @ 18:25:
[...]
De GTX 460 legt qua performance veel sneller het loodje. De kaart is ongeveer een jaar oud, maar ik twijfel bijvoorbeeld of de 768mb versie nog wel op 1080p @ Medium kan draaien bij een spel zoals Battlefield 3. Waarschijnlijk niet. Dus na ongeveer 1,5 jaar is de GTX 460 al onder gemiddeld.

Dus als gamen op Medium quality een beetje je richtlijn is (lijkt mee een redelijke statement), heb je meer aan een High end card van twee generaties geleden, dan een mid-range card van de vorige generatie.

Een nieuwe midrange card is trouwens vaak de helft van de prijs van een highend card, je zou dus wel vaker kunnen upgraden voor hetzelfde geld. Maar als je een High end card koopt kan je in het begin wel op ULTRA settings spelen ;) Toch wel leuk.
ja dat kan ook maar dan is je redelijke statement een beetje vreemd. je gaat voor medium quality maar je koopt een high end kaart om in het begin op ultra te spelen. ik zou inderdaad zeggen: als gamen op medium quality je richtlijn is koop dan ook een mid end kaart; zoals je zelf ook al zegt.
[...]
Soms scheelt het weinig, maar bij een aantal games heb je een geheugen hoeveelheid bottleneck. Dan maakt het minder uit wat voor GPU je hebt, als je moet swappen met het RAM geheugen, stort de performance in. GPU's met een dubbele hoeveelheid vRAM kunnen dan nog wel doorhobbelen.
Voorbeeldje:
[afbeelding]
en
[afbeelding]

Normaliter is de HD 5870 een stuk sneller dan de GTX 470, vanwege de GPU, maar bij de onderste grafiek zie je dat de GTX 470 wint van de HD 5870 op zeer hoge resoluties. Dit ligt vrijwel zeker aan de hoeveelheid vRAM.
Dingen zoals AA op hoge resoluties vereisen BERGEN vRAM. Daarvoor koop je die extreme high-end cards :)
ja, om even dit voorbeeld aan te houden: het verschil op de allerhoogste resolutie is welgeteld 1.3 frames per seconde. niet iets waar ik €300 extra voor over zou hebben om deze MARS II te verkiezen boven de gtx590

EDIT: zelf nog ff gezocht naar een 3 vs 1.5 gb gtx580 reviewAfbeeldingslocatie: http://tpucdn.com/reviews/MSI/GTX_580_Lightning_Extreme_Edition/images/perfrel_2560.gif
100% meer geheugen en 5% sneller gemiddeld op de hoogste resolutie. de BERGEN vRAM lijken zo ook iets meer op drempels. ook al is dit van de 580 lijkt het me aardig representatief voor de MARSII waar het denk ik nog wel minder toevoegd door het gebruik van SLI. volgens mij nog steeds onder geen rationele voorwaarde de meerprijs waard.
[...]
Sja. Ik heb in een computer winkel gewerkt, en toch een redelijk aantal keer kreeg ik klanten die gewoon één keer in de 5 jaar een PC kopen. Dan leggen ze snel €2000 neer voor het zwaarste wat ze kunnen kopen. Aan upgraden doen ze niet. Teveel gedoe.
Als ze dan na 4-5 jaar merken dat spellen echt beginnen te happeren, doen ze weer hetzelfde :+

Met zon insteek is er wat voor te zeggen om zo'n GTX 580 MARS II te kopen :)
ik begrijp dat sommige niet geinformeerde mensen die keuze zouden maken maar ik vind eigenlijk niet dat daar iets voor te zeggen is. zelfs als je eens in de 5 jaar een pc koopt is het niet logisch om de helft van je €2000 aan de videokaart uit te geven die marginaal beter is als eentje die 300 euro goedkoper is (om een hoge prijs aan te houden)
EDIT2: en ik neem aan dat je ze dat dan ook verteld/geadviseerd hebt? :P

veel zullen ze dus (denk ik) niet aan deze kaarten verdienen; alleen verzamelaars en idioten hebben het recht om zon kaart te kopen wat mij betreft :P maar misschien dat het als promotie voor asus wel heel goed werkt.

[ Voor 7% gewijzigd door superwashandje op 11-08-2011 13:32 ]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Anoniem: 245699

XanderDrake schreef op woensdag 10 augustus 2011 @ 11:48:
[...]

Veel betere cooling dus duurzamer. Veel meer geheugen dus veel geschikter voor 30" schermen met 2560*1440 of dergelijke resoluties.

Mijn ervaring is dat echt high end kaarten vaak vrij lang mee gaan, ook qua performance. Bijvoorbeeld, de 8800GTX is stok oud maar kan alles nog aan op Medium-high, zelfs met een beetje AA. Als je niet zo veeleisend bent, kan je makkelijk 5-6 jaar doen met zon kaart.
De MARS II heeft toch gewoon maar 2x 1.5gb geheugen ter beschikking? Wat ik dus eerlijk gezegd niet te begrijpen vind. Deze kaart zou gewoon 2x 3gb moeten hebben. Behoorlijk gemiste kans voor een dergelijek kaart.
superwashandje schreef op donderdag 11 augustus 2011 @ 09:15:
ja, om even dit voorbeeld aan te houden: het verschil op de allerhoogste resolutie is welgeteld 1.3 frames per seconde. niet iets waar ik €300 extra voor over zou hebben om deze MARS II te verkiezen boven de gtx590
Zeg maar 500,- tot 600,- ;)

[ Voor 19% gewijzigd door Anoniem: 245699 op 11-08-2011 12:39 ]


  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Deze kaart zou gewoon 2x 3gb moeten hebben.
Dat dacht ik ook toen ik las dat deze kaart maar 1.5Gb heeft, maar is dat wel echt zo? Ik heb alleen een voordeel voor de 3Gb variant kunnen vinden bij een tri/quad-sli opstelling i.c.m. 3x 30" schermen (Vega's thread op hardforum.com). Ik ben in ieder geval nog geen benchmark tegengekomen die kijkt naar het verschil tussen 1.5GB 580's in SLI en 3Gb 580's in SLI.

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 30-05 15:53

superwashandje

grofheid alom

Anoniem: 245699 schreef op donderdag 11 augustus 2011 @ 12:38:
[...]

De MARS II heeft toch gewoon maar 2x 1.5gb geheugen ter beschikking? Wat ik dus eerlijk gezegd niet te begrijpen vind. Deze kaart zou gewoon 2x 3gb moeten hebben. Behoorlijk gemiste kans voor een dergelijek kaart.

[...]

Zeg maar 500,- tot 600,- ;)
waarschijnlijk wel idd maar ik heb even snel in de pricewatch gekeken en zag daar 660 staan voor de 590 dus afgerond 700 :P ervanuitgaande dat de MARSII 1000 zal zijn is het verschil dan 300 8)

anywhey: elke euro meer verschil maakt mijn punt sterker :P

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Max Hunt schreef op donderdag 11 augustus 2011 @ 12:59:
[...]
Dat dacht ik ook toen ik las dat deze kaart maar 1.5Gb heeft, maar is dat wel echt zo? Ik heb alleen een voordeel voor de 3Gb variant kunnen vinden bij een tri/quad-sli opstelling i.c.m. 3x 30" schermen (Vega's thread op hardforum.com). Ik ben in ieder geval nog geen benchmark tegengekomen die kijkt naar het verschil tussen 1.5GB 580's in SLI en 3Gb 580's in SLI.
Hier komt bij sommige games wat voordeel kijken;
- http://www.hardocp.com/ar...b_sli_video_card_review/3
(bekijk ook Crysis Warhead bench...)

Dus ook bij SLI lijkt me 3gb per GPU de moeite waard als je vanaf 2560x1600 speelt, of beter, 3x full-HD.

[ Voor 6% gewijzigd door Anoniem: 245699 op 12-08-2011 12:36 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Alleen jammer dat het artikel min of meer claimt dat GF100 de eerste 40nm chip van nVidia was, terwijl dat natuurlijk niet het geval is. De problemen die ze tegenkwamen, konden aldus ook voorkomen worden. Maar goed, we zullen zien of 28nm minder problemen zal veroorzaken.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
denk toch dat ati eerst komt. Het is te still van de Ati kant. Ik verwacht in september iets nieuws echter net zoals de vorige jaren.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ligt er maar net aan, ati was pas sinds de hd5xxx serie (weer) de eerste, als alles goed gaat met Kepler gaat het zich er om spannen.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 263922 schreef op zondag 14 augustus 2011 @ 23:05:
Ligt er maar net aan, ati was pas sinds de hd5xxx serie (weer) de eerste, als alles goed gaat met Kepler gaat het zich er om spannen.
Geruchten gaan dat ATI een ander TSMC 28nm procedé gebruikt dat al productie klaar is.

Als dat waar is, dan is ATI in staat om zelfs nog dit kwartaal met een nieuwe kaart kunnen komen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 263922 schreef op zondag 14 augustus 2011 @ 23:05:
Ligt er maar net aan, ati was pas sinds de hd5xxx serie (weer) de eerste, als alles goed gaat met Kepler gaat het zich er om spannen.
AMD is al heel erg lang de eerste op een nieuwe node. Bij 80nm, bij 65nm, bij 55nm, bij 40nm en zoals het er nu naar uit ziet, ook bij 28nm. Eigenlijk is nVidia die leiderschap verloren vanaf 90nm.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Toettoetdaan schreef op zondag 14 augustus 2011 @ 23:16:
[...]Geruchten gaan dat ATI een ander TSMC 28nm procedé gebruikt dat al productie klaar is.

Als dat waar is, dan is ATI in staat om zelfs nog dit kwartaal met een nieuwe kaart kunnen komen.
Maar AMD wil dit nog geheim houden zodat ze iedereen over een maand kunnen verrassen met nieuwe kaarten? Dat lijkt mij nogal dom.
AMD is al heel erg lang de eerste op een nieuwe node. Bij 80nm, bij 65nm, bij 55nm, bij 40nm en zoals het er nu naar uit ziet, ook bij 28nm.
Is daar ergens een overzicht van oid?

Acties:
  • 0 Henk 'm!

Anoniem: 263922

dahakon schreef op zondag 14 augustus 2011 @ 23:17:
[...]


AMD is al heel erg lang de eerste op een nieuwe node. Bij 80nm, bij 65nm, bij 55nm, bij 40nm en zoals het er nu naar uit ziet, ook bij 28nm. Eigenlijk is nVidia die leiderschap verloren vanaf 90nm.
Ik doelde meer op een nieuwe serie, niet op een nieuwe node, hoop wel dat het deze keer goed gaat, denkend aan de fx5900 en gtx480.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Tenzij je iets anders bedoeld? :)

[ Voor 10% gewijzigd door SirNobax op 16-08-2011 11:24 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Max Hunt schreef op dinsdag 16 augustus 2011 @ 02:23:
[...]
Maar AMD wil dit nog geheim houden zodat ze iedereen over een maand kunnen verrassen met nieuwe kaarten? Dat lijkt mij nogal dom.
Hoe lang voor de officiele launch van voorgaande reeksen van AMD was er echt officieel veel informatie bekend? Een september launch zou nog steeds genoeg tijd geven voor gedegen pre-launch campagne van een paar weken, terwijl de verkopen van bestaande kaarten niet direct instorten.
Is daar ergens een overzicht van oid?
Data van releases van kaarten kun je veelal vrij correct terugvinden op sites als wikipedia, maar ook in de archieven van de verschillende techsites. Voor de rest is het vooral kennis die je op kunt doen door de discussies te volgen of erin te participeren, die over videochips gaan.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

SirNobax schreef op dinsdag 16 augustus 2011 @ 11:20:
[...]


Tenzij je iets anders bedoeld? :)
had 5800 moeten zijn idd :P :X

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Al enige rumors gekomen over de Nvidea 28nm? :P

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Ook wordt er hier en daar gezegd dat nVidia eerst een op Fermi gebaseerd 28 nm product uit gaat brengen, een zgn. "pipecleaner" dus, om ervaring op te doen met het 28 nm proces. Of die ook pas in 2012 komt, daar heb ik nog niks over gehoord.

(Wellicht, als AMD weer sneller is met een nieuwe generatie, dat ze zo'n product tijdens AMD's launch uitbrengen... nVidia tracht wel vaker roet in AMD's eten te gooien. ;) )

[ Voor 3% gewijzigd door Anoniem: 251563 op 19-08-2011 20:33 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:46

XanderDrake

Build the future!

Intressant. Opzich is er niets fundamenteels mis met de architectuur, alleen het formaat van de chip en daardoor het energie verbruik is behoorlijk hoog voor zijn prestaties. 28nm zou dat goed kunnen tegengaan. Maar ja je moet ook flink door clocken om een next-gen product te krijgen, om AMD tegen te gaan. Dus zo evident is het niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Uiteraard kan men ook gewoon de prijs tweaken totdat deze competatief is. ;) En het is ook zeker niet gezegd dat het om de grootste die gaat.

Overigens denk ik dat het gepraat hier vandaan komt:

http://www.brightsideofne...m-only-fermi-refresh.aspx

Daar impliceert men een herhaling van de 300 reeks... Maar het is niet een heel betrouwbare site.

[ Voor 5% gewijzigd door Anoniem: 251563 op 20-08-2011 00:11 ]


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Anoniem: 251563 schreef op vrijdag 19 augustus 2011 @ 20:33:
Ook wordt er hier en daar gezegd dat nVidia eerst een op Fermi gebaseerd 28 nm product uit gaat brengen, een zgn. "pipecleaner" dus, om ervaring op te doen met het 28 nm proces. Of die ook pas in 2012 komt, daar heb ik nog niks over gehoord.

(Wellicht, als AMD weer sneller is met een nieuwe generatie, dat ze zo'n product tijdens AMD's launch uitbrengen... nVidia tracht wel vaker roet in AMD's eten te gooien. ;) )
En Kepler nog een jaartje uitstellen? Leuk zo'n Roadmap die niet één keer kloppend is... Maar nee, ik kan me hier niks bij voorstellen. Denk dat ze het Fermi-boek snel willen sluiten en Kepler begin 2012 willen introduceren. Maarja, kan er ook compleet naast zitten... ;)

[ Voor 3% gewijzigd door Anoniem: 245699 op 20-08-2011 00:56 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

dahakon schreef op zondag 14 augustus 2011 @ 23:17:
[...]


AMD is al heel erg lang de eerste op een nieuwe node. Bij 80nm, bij 65nm, bij 55nm, bij 40nm en zoals het er nu naar uit ziet, ook bij 28nm. Eigenlijk is nVidia die leiderschap verloren vanaf 90nm.
Leiderschap? Ik zie geen leiderschap in beide bedrijven ze doen het namelijk alle 2 goed. Verder maakt
nvidia ook gewoon nog altijd winst en gaat het de afgelopen tijden sterk vooruit als ik het nieuws mag geloven over de laptop chips en ARM en TEGRA gedoe.

50% meer marktaandeel in laptop gpu's
http://nl.hardware.info/n...-in-notebook-videokaarten

Helemaal klaar voor 28nm
http://nl.hardware.info/n...helemaal-klaar-voor-28-nm

Nividia groeid sterk het laatste kwartaal
http://www.tweaktown.com/...les_once_again/index.html

Ik vraag me trouwens af of nvidia al bezig is met het maken van de 600 series gezien nvidia al wel klaar is om
op 28NM verder te gaan.

[ Voor 6% gewijzigd door Anoniem: 419440 op 20-08-2011 11:34 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
nieuwe amd gpu's worden traditioneel maar een paar weken voor de officiele launch aangekondigd maar je krijgt wel meestal een aantal slides te zien op een aantal plekken wat tot nu toe niet gebeurd is.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 419440 schreef op zaterdag 20 augustus 2011 @ 11:32:
Leiderschap? Ik zie geen leiderschap in beide bedrijven ze doen het namelijk alle 2 goed.
Leiderschap om als eerste met producten op een nieuw proces te komen? Daar ging het in zijn geheel om in die post? Vroeger was dat een 'selling point' voor nVidia, maar de laatste jaren lopen ze dus consequent achter op ATI/AMD op dat vlak. Ik had het verder nergens over marktaandelen, winst of wat anders dan ook.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Voor 2012 gaan we geen nVidia 28nm producten zien of ze moeten al willen paper launche...

Acties:
  • 0 Henk 'm!

  • tjverhagen
  • Registratie: Januari 2009
  • Niet online
Anoniem: 419440 schreef op zaterdag 20 augustus 2011 @ 11:32:
[...]


Leiderschap? Ik zie geen leiderschap in beide bedrijven ze doen het namelijk alle 2 goed. Verder maakt
nvidia ook gewoon nog altijd winst en gaat het de afgelopen tijden sterk vooruit als ik het nieuws mag geloven over de laptop chips en ARM en TEGRA gedoe.

50% meer marktaandeel in laptop gpu's
http://nl.hardware.info/n...-in-notebook-videokaarten

Helemaal klaar voor 28nm
http://nl.hardware.info/n...helemaal-klaar-voor-28-nm

Nividia groeid sterk het laatste kwartaal
http://www.tweaktown.com/...les_once_again/index.html

Ik vraag me trouwens af of nvidia al bezig is met het maken van de 600 series gezien nvidia al wel klaar is om
op 28NM verder te gaan.
50% meer marktaandeel? Ik lees toch echt 8 procent meer marktaandeel ongeveer...

Acties:
  • 0 Henk 'm!

Anoniem: 251563

Anoniem: 245699 schreef op zaterdag 20 augustus 2011 @ 00:55:
[...]

En Kepler nog een jaartje uitstellen? Leuk zo'n Roadmap die niet één keer kloppend is... Maar nee, ik kan me hier niks bij voorstellen. Denk dat ze het Fermi-boek snel willen sluiten en Kepler begin 2012 willen introduceren. Maarja, kan er ook compleet naast zitten... ;)
Ja, nog een hele generatie op Fermi 1 draaien lijkt me ook niet wenselijk. Als er nog een 28 nm Fermi kaart komt denk ik zelf eerder aan iets a la HD 4770... Maar dat baseer ik nergens op verder.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De vraag is hoe vernieuwend Kepler is t.o.v. Fermi. Ze zeggen altijd wel nieuw zus en zo, maar het valt altijd erg mee omdat men hevig leunt op wat men al had. Dit zal natuurlijk ook wel moeten want het wiel opnieuw uitvinden...

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09:10
madmaxnl schreef op zaterdag 20 augustus 2011 @ 16:13:
Voor 2012 gaan we geen nVidia 28nm producten zien of ze moeten al willen paper launche...
Ik verwacht ook shortage. Mocht Apple besluiten om hun A6 bij TSMC op 28nm te gaan produceren dan zullen zij enorm veel productie volume in beslag nemen voor de Ipad3 en de Iphone6. De ipad3 zal wellicht in Q2 2012 komen dus dat wil zeggen in Q1 productie van de A6 CPU's. Laat dat nu net de periode zijn wanneer we wellicht de nieuwe NV en ATI 28nm producten moeten gaan zien.

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 11:39

mrc4nl

Procrastinatie expert

The Source schreef op zaterdag 20 augustus 2011 @ 22:28:
[...]

Ik verwacht ook shortage. Mocht Apple besluiten om hun A6 bij TSMC op 28nm te gaan produceren dan zullen zij enorm veel productie volume in beslag nemen voor de Ipad3 en de Iphone6. De ipad3 zal wellicht in Q2 2012 komen dus dat wil zeggen in Q1 productie van de A6 CPU's. Laat dat nu net de periode zijn wanneer we wellicht de nieuwe NV en ATI 28nm producten moeten gaan zien.
gouden tijden voor TSMC. andere chipfabrikanten doen the trouwens ook niet slecht :)

ora et labora


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:46

XanderDrake

Build the future!

The Source schreef op zaterdag 20 augustus 2011 @ 22:28:
Ik verwacht ook shortage. Mocht Apple besluiten om hun A6 bij TSMC op 28nm te gaan produceren dan zullen zij enorm veel productie volume in beslag nemen voor de Ipad3 en de Iphone6. De ipad3 zal wellicht in Q2 2012 komen dus dat wil zeggen in Q1 productie van de A6 CPU's. Laat dat nu net de periode zijn wanneer we wellicht de nieuwe NV en ATI 28nm producten moeten gaan zien.
Als dit zou gebeuren, wordt dan eindelijk ook eens gebruik gemaakt van Globalfoundries? Hun hebben naar eigen zeggen ook 28nm ets apparatuur?
mrc4nl schreef op zaterdag 20 augustus 2011 @ 22:35:
gouden tijden voor TSMC. andere chipfabrikanten doen the trouwens ook niet slecht :)
En vervolgens ook ASML :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 419440

madmaxnl schreef op zaterdag 20 augustus 2011 @ 16:13:
Voor 2012 gaan we geen nVidia 28nm producten zien of ze moeten al willen paper launche...
Is nog niets over te zeggen. Niemand weet of er dit jaar wel of niet iets komt van zowel md of nvidia op 28nm.
Hopelijk gaan geen van beide de snel klaar willen hebben, nee liever wat meer tijd er in steken en gelijk iets
goed afleveren.
madmaxnl schreef op zaterdag 20 augustus 2011 @ 21:17:
De vraag is hoe vernieuwend Kepler is t.o.v. Fermi. Ze zeggen altijd wel nieuw zus en zo, maar het valt altijd erg mee omdat men hevig leunt op wat men al had. Dit zal natuurlijk ook wel moeten want het wiel opnieuw uitvinden...
AMD gaat iig niet veel veranderen aan de architectuur, nvidia denk ik ook niet. Wat ik wel weet is dat nvidia wel wat nieuwtjes toe gaat voegen en meer is er ook nog niet over bekent. Het word iig wel iets leuks verwacht ik. Verder is nvidia al goed voorbereid voor 28nm ze hebben het zonder problemen onder controle, verder start de productie van kepler dit jaar al.

Persoonlijk hoop ik dat de kepler niet veel anders zal zijn dan de fermi want er zit ontiegelijk veel potentie in de fermi. Nvidia weet dit ook en daarom zal een totaal vernieuwe architectuur helemaal niet nodig zijn. Zelfde geldt voor amd overgens

[ Voor 54% gewijzigd door Anoniem: 419440 op 21-08-2011 16:31 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Anoniem: 419440 schreef op zondag 21 augustus 2011 @ 16:22:
AMD gaat iig niet veel veranderen aan de architectuur, nvidia denk ik ook niet.
And you know because?
Wat ik wel weet is dat nvidia wel wat nieuwtjes toe gaat voegen
Ah, dan toch?
en meer is er ook nog niet over bekent.
Ah, het is niet bekend.
Het word iig wel iets leuks verwacht ik.
Wat dan? Want het is niet bekend.
Verder is nvidia al goed voorbereid voor 28nm ze hebben het zonder problemen onder controle, verder start de productie van kepler dit jaar al.
Dat zeiden ze over Fermi ook.


Nothing personal, maar als je niets weet, kan je beter zwijgen ipv bovenstaande onzin. :)

cfr topic waarschuwing:
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Nvidia is helemaal klaar voor 28nm
http://nl.hardware.info/n...helemaal-klaar-voor-28-nm

[ Voor 253% gewijzigd door Anoniem: 419440 op 21-08-2011 19:23 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Noel schreef op zondag 21 augustus 2011 @ 16:35:
[...]


And you know because?


[...]


Ah, dan toch?


[...]


Ah, het is niet bekend.


[...]


Wat dan? Want het is niet bekend.


[...]


Dat zeiden ze over Fermi ook.


Nothing personal, maar als je niets weet, kan je beter zwijgen ipv bovenstaande onzin. :)

cfr topic waarschuwing:

[...]
De nieuwtjes in de kepler worden oa virtueel geheugen.
http://translate.google.n...s%3Dqdr:m%26prmd%3Divnsfd

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 419440 schreef op zondag 21 augustus 2011 @ 16:22:
[...]


Is nog niets over te zeggen. Niemand weet of er dit jaar wel of niet iets komt van zowel md of nvidia op 28nm.
Hopelijk gaan geen van beide de snel klaar willen hebben, nee liever wat meer tijd er in steken en gelijk iets
goed afleveren.
Even wat linkjes dan:

http://semiaccurate.com/2...kepler-comes-in-to-focus/

In bovenstaande link een goede uitleg aangaande tape-out en daarmee de te verwachten launchtijd. Als je het hele artikel doorleest, zul je ook zien dat in de laatste update Fudzilla nog eens aangehaald wordt, aangaande een Fudzilla artikel dat stelt dat Kepler niet te verwachten is dit jaar.

Combineer dat met de volgende link:

http://semiaccurate.com/2...-a6-process-puzzle-outed/

Dan kan duidelijk worden dat AMD en nVidia wellicht verschillende 28nm processen gebruiken voor hun producten, waarbij het proces dat AMD gebruikt, al wel massa-productie klaar is, terwijl het 28nm proces dat nVidia gebruikt pas tegen Q1 volgend jaar massaproductie klaar is (als er verder geen onoverkomelijke problemen met het proces zijn).

Het punt? AMD kan dus heel best nog wel dit jaar met 28nm producten op de markt komen en nVidia niet. AMD loopt vooruit (wederom) en heeft een tijdlang vrij spel met zijn producten (er van uit gaande dat het met de prestaties wel aardig okee zal zitten).
AMD gaat iig niet veel veranderen aan de architectuur, nvidia denk ik ook niet. Wat ik wel weet is dat nvidia wel wat nieuwtjes toe gaat voegen en meer is er ook nog niet over bekent. Het word iig wel iets leuks verwacht ik. Verder is nvidia al goed voorbereid voor 28nm ze hebben het zonder problemen onder controle, verder start de productie van kepler dit jaar al.

Persoonlijk hoop ik dat de kepler niet veel anders zal zijn dan de fermi want er zit ontiegelijk veel potentie in de fermi. Nvidia weet dit ook en daarom zal een totaal vernieuwe architectuur helemaal niet nodig zijn. Zelfde geldt voor amd overgens
AMD staat aan de vooravond van de grootste architectuurverandering sinds R300. Ze droppen de 5VLIW en de 4VLIW architecturen voor GCN. Google eens op de termen GCN gecombineerd met AMD en je zult zien dat iedereen er van uit gaat dat HD7k (ofwel SI) als basis GCN krijgt en dus niet de oude architecturen.

Wat Kepler aangaat, is het wel redelijk correct dat het een doorontwikkeling is van Fermi. Alleen mag je juist wel hopen dat het een behoorlijk aantal vernieuwingen meebrengt, want de potentie is relatief gezien (ten opzichte van de nodige die-space en het stroomverbruik) helemaal niet zo geweldig.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Maar er kunnen problemen ontstaan die je niet aan ziet komen, vandaar ook dat ik zeg dat er niets over te zeggen is, of beter gezegt vast staat. Zoals in het AMD topic zie je ook nieuws dat AMD nu ook met problemen op 28nm schijnt te kampen. Later zullen we wel weten of dit onzin is of waar is.

Nvidia kepler zal zeker wel wat niewtjes extra hebben. Ze geven er alleen nog niet zo veel over uit (net als bij amd). Sowiso zal de kepler over virtueel gegeugen beschikken.

De nieuwe grafische kern zal naar verwachting ook meer flexibel te zijn in termen van programmeerbaarheid dan de huidige Fermi-architectuur.

As a result, Nvidia has promised that Kepler , and its successor Maxwell, will include virtual memory space and pre-emption support, and a series of other technologies meant to improve the GPU's ability to process data without the help of the system's processor. Als gevolg hiervan heeft Nvidia beloofd dat Kepler , en zijn opvolger Maxwell, zal virtueel geheugen ruimte en voorkoop te ondersteunen, en een reeks andere technologieën bedoeld om de GPU in staat is om gegevens te verwerken zonder de hulp van de processor van het systeem te verbeteren zijn.

According to previous Nvidia estimates, these changes, combined with the new manufacturing process, should deliver 3 to 4 times the performance per Watt of the Fermi architecture in double-precision 64-bit floating point operations. Volgens eerdere schattingen van Nvidia, moeten deze veranderingen, in combinatie met het nieuwe productieproces, leveren 3 tot 4 keer de prestaties per watt van de Fermi-architectuur in dubbele precisie 64-bit floating point operaties.

In the consumer market, Kepler-based graphics cards will most likely carry the GeForce 600 designation. In de consumentenmarkt, zal Kepler-gebaseerde grafische kaarten het meest waarschijnlijk dragen de GeForce 600 aanduiding.

[ Voor 87% gewijzigd door Anoniem: 419440 op 21-08-2011 19:59 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Anoniem: 419440 schreef op zondag 21 augustus 2011 @ 19:54:
Maar er kunnen problemen ontstaan die je niet aan ziet komen, vandaar ook dat ik zeg dat er niets over te zeggen is, of beter gezegt vast staat. Zoals in het AMD topic zie je ook nieuws dat AMD nu ook met problemen op 28nm schijnt te kampen. Later zullen we wel weten of dit onzin is of waar is.
In het AMD topic gaat het over cpus, die gebruiken een ander process dan gpus. Het schijnt inderdaad zo te zijn dat ze met de cpus problemen hebben maar dat juist de gpus op schema liggen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 419440 schreef op zondag 21 augustus 2011 @ 19:54:
Nvidia kepler zal zeker wel wat niewtjes extra hebben. Ze geven er alleen nog niet zo veel over uit (net als bij amd). Sowiso zal de kepler over virtueel gegeugen beschikken.

De nieuwe grafische kern zal naar verwachting ook meer flexibel te zijn in termen van programmeerbaarheid dan de huidige Fermi-architectuur.

As a result, Nvidia has promised that Kepler , and its successor Maxwell, will include virtual memory space and pre-emption support, and a series of other technologies meant to improve the GPU's ability to process data without the help of the system's processor.

According to previous Nvidia estimates, these changes, combined with the new manufacturing process, should deliver 3 to 4 times the performance per Watt of the Fermi architecture in double-precision 64-bit floating point operations.

In the consumer market, Kepler-based graphics cards will most likely carry the GeForce 600 designation.
Valt het je ook op dat de aangehaalde punten eigenlijk alleen maar van toepassing zijn op professioneel gebruik van de chips, dus voor de Tesla en Quaddro series kaarten?. Dat de consumentenkaart waarschijnlijk de 600-serie gaat worden, is eigenlijk niets meer dan een open deur in trappen. Natuurlijk kan nVidia op elk moment nog anders beslissen, zoals eigenlijk met de 400-serie is gebeurd, maar als er niet opeens een 600-serie rebrand komt voordat Kepler verschijnt, dan lijkt het logisch dat Kepler de 600-serie wordt.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Dat valt mij inderdaad ook op. Nvidia maakt net zoals bij afgelopen series een kaart die gebruikt kan worden
voor de professionele markt en voor de gamers. Dit scheelt nvidia ook weer extra werk want als nvidia dat niet zou doen dan zouden ze nog weer een aparte serie kaarten er bij moeten maken wat ook weer extra tijd, kosten en manschap voor nodig zal zijn.

Nadeel hier van is dat de gamers, enzv ook al deze extra's op hun kaarten hebben en daar voor ook weer
extra moeten betalen denk ik? En niet alleen dat, ook een hoger stroonverbruik. Maar goed wij consumenten
verschillen ook heel erg wat wij het lieft willen hebben. Wel of niet al die extra's voor dat beetje meer performance en verbruik bvb.

Ik denk trouwens dat de boosdoender van het later komen van de kepeler ligt bij de fermi want
deze kwam 2 keer achter elkaar uit. De 400 en 500 series en die 500 series had eingelijk de 400
series moeten zijn. Hier door schuift alles een eindje op. Dat is mijn eigen gedachten er achter dat
de kepler wat later komt.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Je mist het punt wederom Jan de G.

Het punt is niet zo zeer dat wij daar meer voor zouden betalen (dat is niet zo, daar hebben ze de Quadro reeksen voor - die hebben ook andere drivers en de kaarten zijn niet echt vergelijkbaar met consumenten kaarten afgezien van de chips). Het punt is juist dat als je even tussen de regels leest, er dus geen donder aan nieuwe dingen is waar een gewone consument iets aan heeft. Het gaat al jaren zo dat ze dit soort dingen aankondigen voor de Quadro's, maar het is pas sinds GF100 (eigenlijk zelfs GT200) dat dit hun focus is. GF100 had niet veel nieuws onder de zon voor ons en dat is ook meteen deels waarom het zo'n vervelend product voor ze is geworden.

En nee, Kepler is niet later omdat ze twee keer "Fermi" hebben uitgebracht. Het was altijd wel het plan om iets tussen GF100 en Kepler te doen. GF100 viel alleen erg slecht uit. Vergeleken met de concurrent was het eigenlijk een lachertje, zeker gezien alle vertraging en problemen.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Mmmm, en ik meende dat de gtx 580's bvb met een andere sticker en meer geheugen er op een Quadro is.
Eenige wat iets anders is is de sticker meer geheugen, meer aansluitingen en ander software, ik heb dit ook eens uit nieuws bronnen gehaald maar heb nu geen tijd om die op te gaan zoeken.

Met een filetje kan ik van de gtx580 een Quadro FX 580 maken.
Dit doen trouwens best wel veel mensen.

[ Voor 15% gewijzigd door Anoniem: 419440 op 22-08-2011 11:29 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Nee, enkele onderdelen op het PCB zijn ook gewoon anders, met name omdat van de Quadro's iets meer betrouwbaarheid en dergelijke wordt verwacht (daarom zijn de clocks in de topmodellen ook nog steeds veel lager dan in een same-gen GeForce). De chips zijn wel hetzelfde en daarom krijg je die verhalen over het "veranderen" van een GeForce in een Quadro, maar er zijn wel degelijk wat (kleine) verschillen; even afgezien van het geheugen natuurlijk; bij de huidige Quadro 6000 is dat 6 GB tegenover de "schamele" 1.5GB van een 480. Die laatste draait dan wel weer op hogere clocks. Het nut van "een Quadro maken" is er dus ook niet echt, behalve dan dat je de Quadro drivers kunt gebruiken die wat extra features voor 3D rendering hebben, andere tweaks, en zo voort.

Er is trouwens bij mijn weten geen GF110-based Quadro, alleen GF100 - jouw "FX 580" zou een G94 of G96 zijn :)

Eerst je research doen, dan pas posten ;)

[ Voor 11% gewijzigd door Werelds op 22-08-2011 11:40 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Sorry ik weet ook niet alles. Ik weet alleen dat ik de gtx580 kan veranderen in een quadro vandaar
dacht ik dat dat het om de zelfde soort kaarten ging ;)

[ Voor 3% gewijzigd door Anoniem: 419440 op 22-08-2011 11:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

NVIDIA GeForce 600 Series: 28nm, OEM-only Fermi Refresh?
http://www.brightsideofne...m-only-fermi-refresh.aspx

Dus het kan zijn dat de andere series de naam geforce 700 krijgen ipv 600.
Mischien dan toch ook wel een geheel nieuwe architectuur?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
"Does this mean that Kepler will skip the GeForce 600 naming and become GeForce 700 Series, as it happened with GeForce 300 and 400? Only time will tell."

Die naamgeving bij nVidia laat het lijken alsof ze heel snel met iets nieuws komen.
Naamgeving bij nVidia is echt helemaal ver....

GTX2xx refresh GTX2x5 zo hoort het te gaan.

Enfin dit is al te vaak langs gekomen.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

nVidia bepaalt hoe het HOORT te gaan...

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Format-C schreef op maandag 22 augustus 2011 @ 15:06:
nVidia bepaalt hoe het HOORT te gaan...
Voor een behoorlijk deel is dat incorrect. OEMs zijn degenen die maar al te vaak bepalen hoe het 'hoort' te gaan. De hele 300-serie, en daarmee de hernaming naar GTX4xx van Fermi, is te danken aan OEMs die een 'nieuwe' serie wilden hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

gtx580 van gigabyte krijgt 3gb geheugen.
http://nl.hardware.info/n...an-gigabyte-3-gb-geheugen

Ik denk dat ik mijn broertje 2 van deze aan laat schaffen voor nvidia 3d vision surround.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Anoniem: 419440 schreef op maandag 22 augustus 2011 @ 15:57:
gtx580 van gigabyte krijgt 3gb geheugen.
http://nl.hardware.info/n...an-gigabyte-3-gb-geheugen

Ik denk dat ik mijn broertje 2 van deze aan laat schaffen voor nvidia 3d vision surround.
Zou ik niet doen, lees Vega's thread maar eens. Komt er op neer dat 3Gb niet nodig is voor resoluties van 5760x1200 of lager. (En er zit een 2,5 slot koeler op, dat moet ook maar net goed gaan.)

[ Voor 6% gewijzigd door Max Hunt op 22-08-2011 16:38 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

nVidia heeft snellere GeForce GTX 595 gereed?
http://nl.hardware.info/n...re-geforce-gtx-595-gereed

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Nah, deze kaart wordt te duur. 6 a 700 euro neer tellen nu nog voor een 5xx kaart. Als je zoveel geld wilt besteden aan een kaart, ken je beter effies wachten op de nieuwe 6/7xx versie die volgend jaar komt.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Jeps mee eens. Maar ik denk niet dat het nvidia's bedoeling is om hier geld uit te gaan slaan.
Dit is gewoon weer zo'n ding van kijk wat we kunnen en voor de mensen die niet naar prijs prestaties kijken maar naar prestaties, benchers, 3dvision enzv. Ik ben verder wel heel nieuwschierig wat de gtx595 zal kunnen.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Anoniem: 419440 schreef op dinsdag 23 augustus 2011 @ 10:50:
Jeps mee eens. Maar ik denk niet dat het nvidia's bedoeling is om hier geld uit te gaan slaan.
Dit is gewoon weer zo'n ding van kijk wat we kunnen en voor de mensen die niet naar prijs prestaties kijken maar naar prestaties, benchers, 3dvision enzv. Ik ben verder wel heel nieuwschierig wat de gtx595 zal kunnen.
Oh dat zal het zeker ook zijn en ik ben ook wel benieuwd wat dit beestje kan. Alleen voor diegene die nu nog een videokaartje willen kopen van NV, zou ik deze zeker links laten liggen.

Alleen dat 3D...ik heb hetzelf geprobeerd, maar ik krijg er echt na een kleine 15min spelen op crysis 2 en BF2BC toch een enorme koppijn waar je U tegen zegt.
Het is heel erg vet, alleen prettig voor je ogen/hersenen is het zeker niet.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Dat laatste is ook meteen waarom ik nog steeds geen brood zie in 3D. Ze moeten eerst van die smerige active shutter brillen af. Vrijwel iedereen die ik ken krijgt relatief snel hoofdpijn van active shutter glazen. Is ook logisch als je er over na denkt :)
Het andere probleem, de hardware, zijn ze inmiddels wel mee bezig. Zo'n feature hoort gewoon met standaard apparaten te werken, niet met speciale monitoren.

Edit: hiermee doel ik dus ook op het feit dat het pas interessant wordt als NVIDIA en AMD gelijkwaardig zijn. Anders is het te veel moeite om het goed te laten werken voor alle betrokken partijen, inclusief de consument.

[ Voor 22% gewijzigd door Werelds op 23-08-2011 11:18 ]


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Komt gewoon om dat 3d nog niet zo ver is. Alles is nog duur en je oet er maa rvan houden.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Erhm, er staat een bijzondere fout in dat artikel. "Op basis van dezelfde GF104 chips"? De GTX590 is gebasseerd op twee GF110 (GF100b) chips, niet op de GF104. Voor de rest zal de GTX595 dan normaalgesproken ook weer met 2 van die chips komen, maar dan met een veel beter PWM gedeelte, wat in de GTX590 gewoonweg niet echt is berekend op de snelheid die de kaart uiteindelijk meekreeg.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:46

XanderDrake

Build the future!

Anoniem: 419440 schreef op dinsdag 23 augustus 2011 @ 11:21:
Komt gewoon om dat 3d nog niet zo ver is. Alles is nog duur en je oet er maa rvan houden.
3D zou nog door moeten ontwikkelen, het probleem is dat de huidige techniek die AMD en nVidia gebruiken niet heel geschikt is. Ik denk dat het pas beter wordt als we overstappen over passive glasses dus gepolariseerde brillen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Heren, voor jullie verder discussiëren,
Update 23-8-2011, 11:17

nVidia heeft ons inmiddels laten weten dat de men het hier bij het verkeerde eind had. De Community Manager van EA die de bron was van het verhaal was volgens nVidia niet helemaal goed op de hoogte. De systemen op de Gamescom hadden volgens nVidia een dubbele GeForce GTX 580 in SLI.
;)

Acties:
  • 0 Henk 'm!

Anoniem: 419440

spNk schreef op dinsdag 23 augustus 2011 @ 11:31:
Heren, voor jullie verder discussiëren,

[...]


;)
Maar dit betekent niet dat nvidia niet bezig is met d gtx595 maar dat BF3 draaide op 2gtx580's.
Waarom eingelijk 2 gtx580's ook, die game is toch echt niet zo zwaar lijkt mij?

Mischien is die gtx595 een antwoord op de hd7 series :)

[ Voor 7% gewijzigd door Anoniem: 419440 op 23-08-2011 11:36 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Anoniem: 419440 schreef op dinsdag 23 augustus 2011 @ 11:35:
[...]


Maar dit betekent niet dat nvidia niet bezig is met d gtx595 maar dat BF3 draaide op 2gtx580's.
Waarom eingelijk 2 gtx580's ook, die game is toch echt niet zo zwaar lijkt mij?

Mischien is die gtx595 een antwoord op de hd7 series :)
Denk meer om het optimale eruit te halen van de game en dat spelers vloeiend spelen continue, zonder drop van fps.
Dit spel is sowieso nog in Alpha fase en waarschijnlijk volgende maand in de beta fase. Dus wordt zeker hier en daar nog getweaked. Denk dat het spel gemakkelijk op een GTX460 te spelen valt uiteindelijk. + driver optimalisatie zal zeker ook komen voor dit spel.

GTX595 vind ik meer een show off van NV, te laten zien wat NV nog kan ten opzichte de 6990 van AMD.
Al denk ik dat de GTX595 geen marketing herover kaartje zal zijn. Maar meer gebaseerd op pure spierbundel showoff.

Sowieso, zou je een eik zijn als je deze kaart zou aanschaffen, terwijl de 6/7xx om de hoek liggen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Om de hoek, als ze er over 5 maand zijn dan zou dat enorm snel zijn, 6-7 maand is realistischer. En een paar maand daarna krijgen we waarschijnlijk weer wat dual-gpu's. Nu lijkt mij juist een redelijk goede tijd om te upgraden, de prijs is niet meer zo hoog als bij de launch en je hebt dan zeker weten nog ruim een half jaar hardware waar nog geen duidelijk betere variant van is.

Het is maar net hoe je het bekijkt natuurlijk.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Max Hunt schreef op dinsdag 23 augustus 2011 @ 12:48:
Om de hoek, als ze er over 5 maand zijn dan zou dat enorm snel zijn, 6-7 maand is realistischer. En een paar maand daarna krijgen we waarschijnlijk weer wat dual-gpu's. Nu lijkt mij juist een redelijk goede tijd om te upgraden, de prijs is niet meer zo hoog als bij de launch en je hebt dan zeker weten nog ruim een half jaar hardware waar nog geen duidelijk betere variant van is.

Het is maar net hoe je het bekijkt natuurlijk.
Bedoelde dat je een eik bent als je nu nog de GTX595 ging halen. Elke andere is natuurlijk nu goed voor upgrade. Zit zelf ook met 2 x GTX560 Ti

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Stukje over de mobile 28nm lineup van nv:

http://semiaccurate.com/2...8nm-mobile-lineup-leaked/

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Zijn dat verder kepler chips of rebrands die op 28nm zitten?

Ik hoop trouwens dat nvidia snel FXAA in het contol pannel gooit.
Deze hele verbetering zal veel mensen goed doen met name de mensen die op hele hoge resoluties
gamen en mensen die niet een hele sterke kaart hebben.

Ik ben blij met deze ontwikkeling van nvidia.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Anoniem: 419440 schreef op woensdag 24 augustus 2011 @ 10:17:
Zijn dat verder kepler chips of rebrands die op 28nm zitten?

Ik hoop trouwens dat nvidia snel FXAA in het contol pannel gooit.
Deze hele verbetering zal veel mensen goed doen met name de mensen die op hele hoge resoluties
gamen en mensen die niet een hele sterke kaart hebben.

Ik ben blij met deze ontwikkeling van nvidia.
Was het niet zo dat FXAA ook in spellen ondersteund moesten gaan worden?

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Denk het niet want met de drivers modden ofzo kunnen bepaalde mensen al FXAA gebruiken.
Volgens mij staat in dit topic ook ergens hoe je dat moet doen. Maar ik zelf doe het niet grraag want heb
niet zo veel verstand van drivers modden.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Anoniem: 419440 schreef op woensdag 24 augustus 2011 @ 10:28:
Denk het niet want met de drivers modden ofzo kunnen bepaalde mensen al FXAA gebruiken.
Volgens mij staat in dit topic ook ergens hoe je dat moet doen. Maar ik zelf doe het niet grraag want heb
niet zo veel verstand van drivers modden.
We wachten wel af, wat de nieuwe drivers gaan doen. sowieso bezit ik 2x 560Ti in Sli mode. Wat al sneller is dan de GTX580.
Totdat de nieuwe chips komen en review en benchmarks komen, game ik rustig lekker door op 60+ frames.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Nee, het enige wat je nodig hebt is een DLL. Zoek maar eens op "some dude fxaa" op Google, vind je meteen genoeg. Er zijn inmiddels wat nieuwere DLLs gebaseerd op die van "some dude", dus je zult even een goeie thread moeten vinden (3DCenter is waar hij zelf rond hangt volgens mij). Hetzelfde zou kunnen voor MLAA. Beide zijn post-processing filters en kunnen door elke videokaart in elke game toegepast worden. Hoeft niets voor in de game te gebeuren.

Even voor de goede orde trouwens: FXAA is geen uitvinding van NVIDIA en MLAA is geen uitvinding van AMD. Ik heb zelf een hekel aan beide, ze vervagen het beeld allebei veel te veel naar mijn smaak. FXAA is iets minder nauwkeurig (daarom is het ook iets sneller) dan MLAA, dus die vervaagt nog net iets meer. Ik heb in elk geval nog altijd veel liever een fatsoenlijke MSAA implementatie.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Dat het niet goed werkt geloof ik niets van want ik gebruik momenteel FXAA in fear3 en ik krijg 120 fps ipv 60 fps met 4xMSAA en krijgt dezelfde beeldqwaliteit op het beeld. Niets word vager en het spelen word minimaal 50% minder zwaar.

En volgens HARDOPC is het verdr wel ontwikkeld door nvidia.
http://www.hardocp.com/ar...antialiasing_technology/4

Ik kan je hier voor ook nog 2 screen shotjes laten zien bij mij zelf als dat nodig mocht zijn.

[ Voor 10% gewijzigd door Anoniem: 419440 op 24-08-2011 10:41 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Nee, met FXAA en MLAA is je beeld vager dan met MSAA. Dat is omdat het post-processing filters zijn, ze werken op het gerenderde frame. Als gevolg krijg je dat ook textures vager worden. Bekijk maar eens wat goede vergelijkings shots tussen FXAA/MLAA en MSAA, je zult zien dat details in textures ook vervagen. 120 FPS tegenover 60 FPS is trouwens onzin, als dat echt zo is dan is de MSAA implementatie behoorlijk ruk (Fear 3 niet gespeeld, de trailers irriteerden me al, lang niet zo leuk als Fear 1).

En nee, FXAA is niet ontwikkeld door NVIDIA en het is ook niet nieuw. Bestaat al veel langer. FXAA3 is de versie waar het momenteel om gaat en die is wel door Timothy Lottes voor NVIDIA ontwikkeld, maar het algoritme op zich is al veel ouder. Zelfde geldt voor MLAA, dat is ook al een jaartje of 8 oud en ontwikkeld door Intel. Het zijn dan ook de AA methodes die je op de 360 (MLAA) en PS3 (FXAA) ziet.

Vergelijkings shots hoef ik niet, ik weet donders goed wat deze twee algoritmes doen en ik heb al genoeg shots gezien. Ze zijn zeker mooi voor mensen met zwakkere kaarten, maar met m'n 6950 2GB heb ik meer dan genoeg geheugen en rekenkracht om 4xMSAA zonder performance hit (VSync capped) te draaien. Lees de documentatie van de algoritmes maar eens, zelfs uit de theorie en ontwikkeling blijkt dat ze gewoon minder accuraat zijn dan MSAA, juist omdat het post-processing filters zijn. Je filters in Photoshop zitten er niet ver vandaan, je hebt te maken met dezelfde soort edge detection; in PS maakt performance alleen niets uit uiteraard.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Yep, it works on AMD video cards just as well as it works on NVIDIA video cards. We can see a clear difference between No AA, FXAA, and even 2X AA and 4X AA.

Looking at the shelving unit, it is very easy to see what benefit FXAA brings to the table. It is obviously a great deal smoother than the No AA shot, but also noticeably smoother than the 2X AA shot. In some respects, it also looks as good as, or even better than the 4X AA shot!

This screenshot comparison shows the result of FXAA on shader effects. The night-sight on the pistol glows green throughout the game as a result of a shader effect. Without AA, and even with 2X AA and 4X AA, the edges of the glowing green sight are harsh and aliased. With FXAA enabled, the edges are smooth, and the improvement is visible even without zooming.

More FXAA Screenshot Comparisons


The screenshots for this comparison were taken in Interval 05 using an NVIDIA GeForce GTX 580 at 2560x1600 with maximum in-game graphics settings. This comparison illustrates the effect of FXAA on alpha textures.

With AA disabled completely, some of the game's other shader effects smooth the hard edges on the outside of transparent alpha textures. But there is still an amount of graininess in the leaves and on the wood. Using 2X AA and 4X AA, the problem is exacerbated. Only with FXAA is the grainy appearance reduces on the leaves.

Even without zooming, we can see that FXAA offers better anti-aliasing quality than 2X AA and 4X AA in this scene. Without AA, the light blue clips on the left sides of the individual screenshots are aliased so much that we can nearly count the pixels on each one. With 2X AA, the problem is slightly reduced, and with 4X AA it is reduced only a little more. With FXAA selected, aliasing is almost completely eliminated in this scene.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Waar het hier om gaat is dat Alpha textures niet ge-AA'd kunnen worden door MSAA maar wel door FXAA.
Derhalve zien die er beter uit bij FXAA. De overige zaken zien er imo beter uit bij MSAA.

Omdat FXAA/MLAA post processing zijn heeft dat ook zo zijn nadelen.

Dus zoals met alles is er een trade off.

Het is overigens ook nog eens zo dat plaatjes niet het hele verhaal schetsen in tegenstelling tot bewegend beeld .

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Maar goed al met al is het een weer een goed nieuwtje die FXAA zeker als je hoge resoluties gebruikt
zal deze vorm van AA heel wat werk van de schouders halen van een videokaart. Het ziet er in mijn ogen net zo goed uit ook, want ik kan er momenteel gebruik van maken en ik zie tocht echt wel wat ik zie.
Het is te hopen dat dit snel de nieuwe toepasbare AA functie gaat worden.

BF3 zal overgens ook de FXAA funtie mee krijgen. Mag ook wel want dde game schijnt zwaar te worden.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
Crysis 2 maakt gebruik van FXAA en sorry hoor, maar dat ziet er dus echt niet uit. Alsof je een permanente motion blur hebt. Nu ziet deeltje 2 er sowieso lang niet zo goed uit als z'n voorganger, maar het gebrek aan MSAA doet echt zeer.

Nogmaals, het zijn mooie technieken en er zijn games en situaties waar ze beter werken (kwalitatief gezien, performance even terzijde) - Alpha textures zoals Help al zegt en in Dead Space 2 bijvoorbeeld vond ik MLAA geweldig. Maar in een non-deferred engine moeten developers niet lui worden en gewoon MSAA in blijven bakken, want het ziet er voor het grootste deel gewoon stukken beter uit.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Werelds schreef op woensdag 24 augustus 2011 @ 10:52:
En nee, FXAA is niet ontwikkeld door NVIDIA en het is ook niet nieuw. Bestaat al veel langer. FXAA3 is de versie waar het momenteel om gaat en die is wel door Timothy Lottes voor NVIDIA ontwikkeld, maar het algoritme op zich is al veel ouder. Zelfde geldt voor MLAA, dat is ook al een jaartje of 8 oud en ontwikkeld door Intel. Het zijn dan ook de AA methodes die je op de 360 (MLAA) en PS3 (FXAA) ziet.
Sorry, maar dat is niet waar. MLAA is inderdaad van Intel, maar is pas in 2009 ontwikkeld. Voor die tijd was het sentiment dat AA als post-process niet haalbaar en niet effectief was. Dit veranderde in 2009 toen Intel de eerste MLAA paper publiceerde. Een jaar later werd MLAA geimplementeerd op de GPU door AMD. FXAA staat hier weer los van en is in 2011 ontwikkeld door een NVIDIA medewerker (dus wel degelijk van NVIDIA) die de ideeen van MLAA had bekeken maar een eigen implementatie schreef die werkte op basis van luminositeit in plaats van diepte. FXAA is dus vanaf versie 1 het werk van Timothy Lottes en is in korte tijd meerdere keren verbeterd (nu versie 3 dus).

Natuurlijk zie je nu idd MLAA en FXAA op de XBox en PS3, dat is omdat het veel goedkoper (en soms zelfs beter) werkt dan gewone AA, iets dat te duur is voor moderne console games. Bovendien zijn MLAA en FXAA technieken die werken met deferred rendering, en lossen daarmee een van de grootste nadelen van die techniek op. MLAA en FXAA zijn echter pas de laatste 2 jaar op de consoles (en pc) te zien en zijn dus zeker geen bestaande techniek.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Wat in ieder geval een feit is, is dat het hele AA gebeuren imho momenteel een zooitje is.

Wat ik me herinner is dat e.e.a. in DX11 beter geregeld zou moeten zijn. Helaas is het alleen maar onoverzichtelijker geworden.... :(

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Werelds schreef op woensdag 24 augustus 2011 @ 11:33:
Crysis 2 maakt gebruik van FXAA en sorry hoor, maar dat ziet er dus echt niet uit. Alsof je een permanente motion blur hebt. Nu ziet deeltje 2 er sowieso lang niet zo goed uit als z'n voorganger, maar het gebrek aan MSAA doet echt zeer.

Nogmaals, het zijn mooie technieken en er zijn games en situaties waar ze beter werken (kwalitatief gezien, performance even terzijde) - Alpha textures zoals Help al zegt en in Dead Space 2 bijvoorbeeld vond ik MLAA geweldig. Maar in een non-deferred engine moeten developers niet lui worden en gewoon MSAA in blijven bakken, want het ziet er voor het grootste deel gewoon stukken beter uit.
Crysis 2 maakt als nog gebruik van max 4XMSAA en Age AA, dat het blurry is licht aan de motion blur effect
deze kun je ook helemaal uit zetten.

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 30-05 13:51
Anoniem: 419440 schreef op woensdag 24 augustus 2011 @ 11:30:
Maar goed al met al is het een weer een goed nieuwtje die FXAA zeker als je hoge resoluties gebruikt
zal deze vorm van AA heel wat werk van de schouders halen van een videokaart. Het ziet er in mijn ogen net zo goed uit ook, want ik kan er momenteel gebruik van maken en ik zie tocht echt wel wat ik zie.
Het is te hopen dat dit snel de nieuwe toepasbare AA functie gaat worden.

BF3 zal overgens ook de FXAA funtie mee krijgen. Mag ook wel want dde game schijnt zwaar te worden.
Als FXAA inderdaad te vergelijken is met MLAA dan ben ik er ook niet echt fan van.
Heb MLAA een tijdje aan gehad en wat ik vooral merkte is dat text ontzettend blurry wordt.
Daarnaast hangt er gewoon een soort van waas over het hele beeld heen.
Haalde wel erg hoge framrates ermee.

Computer says no


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Jah maar FXAA word dus niet blurry hé dit kun je duidelijk zien in FEAR3 en in shogun
MLAA weet ik zo niet want daar kan ik zelf geen gebruik van maken geloof ik?
Verder is MSAA zo'n beetje standaard nu nog.

[ Voor 43% gewijzigd door Anoniem: 419440 op 24-08-2011 11:43 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik vond dit wel een mooie samenvatting uit het eerder genoemde artikel :

In de conclusie kan ik me alleen vinden indien er bij postprocessing AA minimaal dezelfde kwaliteit gehaald wordt als bij traditionele MSAA.

http://www.hardocp.com/ar...antialiasing_technology/5
Brent's Thoughts

I wanted to chime in here, because I think FXAA, and other similar methods, including MLAA, are the future of antialiasing on the PC.
Multisample Antialiasing has suited gamers well for the last decade and a half. There have been improvements in each new GPU architecture that keep making MSAA faster, and less of a memory bandwidth hog.
However, it can only be taken so far, and MSAA has some major drawbacks. Traditional MSAA only reduces aliasing on polygon edges, i.e. the edges of geometric game objects. It also cannot reduce aliasing on alpha textures, and it cannot reduce aliasing associated with specular shader programs.


As games have become more shader based, we've seen specular shader aliasing start to be a problem. About 7 years ago, when the original Far Cry was released, was when we were brought into the world of shader programs being used heavily in a game. We can point you to evaluations years ago, where we have screenshots that clearly display how evident shader aliasing can be. If you look at this screenshot you will see specular shader aliasing on the corners of this object. Now, this was primitive vertex shading, but still quite evident, MSAA can't cure this. This screenshot shows very clearly how bad specular shader aliasing can be, all over the walls, and the floor. These are but a couple of examples, but it is things like this that traditional MSAA can't help you with, while methods like FXAA and MLAA can.


There have been several new techniques to try and overcome MSAA's failings, such as AMD's Adaptive Multisampling and Supersampling, and NVIDIA's Transparency Supersampling. Also NVIDIA's CSAA and AMD's new Custom Filtering and EQAA modes. These methods do work, but they require a lot of work and are huge memory drains, and in essence still based on multi-sampling. Supersampling takes a tremendous amount of memory bandwidth. Something new was needed, and so AMD came up with Morphological AA, which we looked at here. MLAA was a step in the right direction because it fixed all the problems of MSAA, except for one. MLAA improves polygon edge aliasing, alpha texture aliasing, and specular aliasing. However, it costs a tremendous amount of GPU processing power as well as VRAM capacity as we've found out. MLAA is on the right track though, but we feel NVIDIA has one upped MLAA and improved upon the ever important performance hurdle.


FXAA improves polygon aliasing, alpha texture aliasing, and specular aliasing, while maintaining performance that is FASTER than the performance cost of 2X AA! It is amazing, and it completely trumps MLAA. As we've noted in the above pro's and con's, FXAA gives you similar quality to MLAA, at useable performance, and works on NVIDIA and AMD GPUs. The only caveat, the game developer must implement it in the game. If the game doesn't have it, the game doesn't have it. With MLAA, you can at least force it on in every game, but only on AMD GPUs.


I hope it is post-processing shader methods like FXAA and MLAA that are used more and more in the future, eventually replacing traditional MSAA. Yes, you read that correctly, I want shader based aliasing programs like these to replace traditional AA, it is the only logical answer to the antialiasing problem. We need a revolution in AA, we need something that can reduce aliasing in every aspect of the game, with a minimal performance hit, and right now, FXAA is the best option. MLAA started the trend, and FXAA continues it. I long for the day that traditional AA goes away and is replaced by shader programs that use the shader power today's GPUs have and provide superior IQ and a reduced performance and memory impact. Instead of having to worry about 2X AA, and 4X AA and whatnot, I just want to turn on "AA" and be done with it. Right now, F.3.A.R. allows this, and we will use FXAA as an alternative to 2X and 4X AA.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

MLAA en FXAA zijn ook niet mijn idee van hoogwaardige beeldverbeteringen, maar het kan handig zijn in die gevallen waar geen andere vormen van AA mogelijk zijn en je beperkte GPU perf hebt (anders kies ik nog altijd voor downsampling).

Ik heb zowieso een gruwelijke hekel aan die blurr rage die nog steeds alive en kicking is in veel game(engines).

Ik speel zoveel mogelijk met sparse grid supersampling (met anti blurr bits en LOD correctie).

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

edward2 schreef op woensdag 24 augustus 2011 @ 11:46:
MLAA en FXAA zijn ook niet mijn idee van hoogwaardige beelverbeteringen, maar het kan handig zijn in die gevallen waar geen andere vormen van AA mogelijk zijn en je beperkte GPU perf hebt (anders kies ik nog altijd voor downsampling).

Ik heb zowieso een gruwelijke hekel aan die blurr rage die nog steeds alive en kicking is in veel game(engines).

Ik speel zoveel mogelijk met sparse grid supersampling (met anti blurr bits en LOD correctie).
Alleen moet je wel behoorlijk wat vd materie weten om dit soort aanpassingen te kunnen maken (via 3rd party software). Voor 95% van de gebruikers gaat het denk ik te diep.

Verder vind ik die blurr ook niet geweldig. Maar het meest stoor ik me nog aan imperfecte aliasing. Zo zat ik tijdje terug Mass Effect 2 te spelen en dat ziet er pas goed uit als je SSAA gebruikt.
MLAA ziet er gewoon niet echt goed uit en met de gebruikelijke MSAA etc blijf je nog allerlei shader aliasing enzo zien.

In het algemeen moet MSAA op 8x bij mij, willen de randen voldoende ge AA'd worden. :P

[ Voor 4% gewijzigd door Help!!!! op 24-08-2011 11:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 419440

Ik heb 2 filmpjes gemaakt 1 met MLAA en 1 met FXAA. Het zijn dus bewegende beelden.
Ik laat straks zien dat FXAA beter is in deze game dan MSAA

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 419440 schreef op woensdag 24 augustus 2011 @ 11:56:
Ik heb 2 filpjes gemaakt 1 met MLAA en 1 met FXAA. Het zijn dus bewegende beelden.
Ik laat straks zien dat FXAA beter is in deze game dan MSAA
Na ja, los van wat er beter is, MLAA of FXAA, gaat het er mij vooral om dat imho deze post-processing "oplossingen" (nog) niet goed genoeg zijn om de traditionele oplossingen te vervangen.

Zolang FXAA en MLAA de MSAA 4X nog niet eens overtreffen maar alleen benaderen, is het voor mij nog niet goed genoeg.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Help!!!! schreef op woensdag 24 augustus 2011 @ 11:52:
[...]

Alleen moet je wel behoorlijk wat vd materie weten om dit soort aanpassingen te kunnen maken (via 3rd party software). Voor 95% van de gebruikers gaat het denk ik te diep.

Verder vind ik die blurr ook niet geweldig. Maar het meest stoor ik me nog aan imperfecte aliasing. Zo zat ik tijdje terug Mass Effect 2 te spelen en dat ziet er pas goed uit als je SSAA gebruikt.
MLAA ziet er gewoon niet echt goed uit en met de gebruikelijke MSAA etc blijf je nog allerlei shader aliasing enzo zien.

In het algemeen moet MSAA op 8x bij mij, willen de randen voldoende ge AA'd worden. :P
Het is opzich vrij makkelijk in te stellen met "inspector", maar idd zal het voor de meeste ook weer niet zo belangrijk zijn dat ze de moeite nemen. Alleen downsampling is wat lastiger.

Ik had van dx10 en dx 11 eigenlijk wel wat meer verwacht vwb AA.

[ Voor 3% gewijzigd door edward2 op 24-08-2011 12:17 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09:21
@ Snoitkever: Mijn excuses, is het echt pas twee jaar geleden dat die groep van Intel hun paper publiceerden? :/
Had kunnen zweren dat dat 2007 was, met de eerste publieke "demo" (in de vorm van statische, zwart/witte plaatjes) in 2006, zo rond de tijd dat ik m'n 8800 GTS heb gehaald (November 2006).

Ik zal straks buiten de kantooruren eens even wat papers opnieuw gaan lezen, volgens mij verwar ik ergens iets :P

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Help!!!! schreef op woensdag 24 augustus 2011 @ 12:02:
[...]

Na ja, los van wat er beter is, MLAA of FXAA, gaat het er mij vooral om dat imho deze post-processing "oplossingen" (nog) niet goed genoeg zijn om de traditionele oplossingen te vervangen.

Zolang FXAA en MLAA de MSAA 4X nog niet eens overtreffen maar alleen benaderen, is het voor mij nog niet goed genoeg.
Dat zal ongetwijvelt waar zijn, voor mij is het iig wel een oplossing in games die het goed ondersteunen
zoals bij fear 3 waar je de verschillen niet kunt zien tussen 4xMSAA of FXAA. HardOPC zegt dit zelf ook geloof ik. Ik denk dat als jij zelf een game zal spelen waar in FXAA zit dat jij dan ongetwijvelt voor FXAA optie zal kiezen mits het natuurlijk geen verschil is in kwaliteit.

Pff nog aan het uploaden.

Edit
is die fxaa demo ook al langs geweest?
http://www.geeks3d.com/20...engl-test-radeon-geforce/

[ Voor 10% gewijzigd door Anoniem: 419440 op 24-08-2011 12:27 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Daar staat dus ook dat FXAA een beetje blurry is.

Acties:
  • 0 Henk 'm!

Anoniem: 419440

Ik ben klaar met uploaden.
Het eerste filmpje laat 4XMSAA zien en het 2e filmpje FXAA




Doe ik veel moeite en dan kijkt niemand ff :o

[ Voor 28% gewijzigd door Anoniem: 419440 op 24-08-2011 13:35 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 419440 schreef op woensdag 24 augustus 2011 @ 12:22:
[...]


Dat zal ongetwijfeld waar zijn, voor mij is het iig wel een oplossing in games die het goed ondersteunen
zoals bij fear 3 waar je de verschillen niet kunt zien tussen 4xMSAA of FXAA. HardOPC zegt dit zelf ook geloof ik. Ik denk dat als jij zelf een game zal spelen waar in FXAA zit dat jij dan ongetwijvelt voor FXAA optie zal kiezen mits het natuurlijk geen verschil is in kwaliteit.
Hardocp geeft aan dat AA op de randen bij 4X AA iets beter is dan bij FXAA. Maar dat FXAA weer voordelen heeft bij o.a. Alpha texture AA. En dat zij daarom iha FXAA een beter optie vinden dan 4X AA (+ Transparency AA :?).

Echter aangezien ik 4X AA al duidelijk minder vind dan 8X AA (wat wel duidelijk beter is dan FXAA) en ik die 8X AA moeiteloos kan instellen op mijn PC vind ik MLAA/FXAA nog geen echte optie.

Hierbij moet ik wel zeggen dat ik alleen MLAA heb geprobeerd dus FXAA kan ik niet echt beoordelen.

Wat verder belangrijk is, is om te beseffen dat het MSAA en MLAA/FXAA echt compleet verschillende wegen zijn om hetzelfde te bereiken.
De post processing manier laat zijn algorithme los op het gehele beeld, ook op zaken die geen AA behoefen en sommigen zien dat verschil en ervaren het als minder goede/prettige IQ.
FXAA Image Quality
Compared to 2X AA, FXAA is uniformly superior. Compared to 4X AA, there are some I Q trade-offs, but the performance advantage that FXAA offers gives FXAA the advantage. In some areas, 4X AA offered slightly superior image quality, and in other areas FXAA is better.

Even though 4X AA offers slightly better hard edge aliasing reduction than FXAA, we still think FXAA is a better option in most circumstances. For starters, shader aliasing is reduced by FXAA but not MSAA. Alpha texture aliasing is reduced by FSAA, but not MSAA. Single-pixel aliasing is also reduced, as is sub-pixel aliasing. The flickering of very small objects or surfaces can be a big problem, and FXAA deals with it admirably while MSAA does not handle it at all.
Anyway, zoals ik al zei is het hele AA verhaal helaas erg gecompliceerd door de vele verschillende vormen/technieken die hetzij in de game toegepast worden danwel weer via de drivers ingesteld moet worden.

Vandaar ook dat HardOCP positief is over FXAA en MLAA. Als hier volledig op over gegaan zou worden is het veel duidelijker. Voor de IQ liefhebbers zijn die technieken vooralsnog niet goed genoeg.

ps: zal vanavond ff je filmpjes bekijken. Dat gaat hier nl. niet. 8)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hier: http://publications.dice....DC11_DX11inBF3_Public.pdf staat ook nog het een en ander aan interessante AA bespiegelingen in.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 6 7 Laatste

Dit topic is gesloten.

Let op:
Voor de duidelijk nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.