Simpel: 3700 lw/ph = 154 lw/mm.
Het Nyquist criterium vergt een dubbele spatiele freuentie voor correcte sampling, dus 308 pixels/mm. En dat correspondeert met 80MP.
Je kunt zonder verscherping nooit boven de het verticale aantal pixels komen van de gebruikte sensor (in dit geval 3744, 5DmkII).
De gebruikte IMATEST software doet een truuk. Zij meten een
schuine rand van een zwart-wit overgang. Daarmee kunnen ze dan de 'superresolutie' methode gebruiken waar "justice strike" aan refereert. Iedere pixels die je horizontaal verschuift, verschuift de overgang bijvoorbeeld 1/20ste pixel verticaal. Wanneer je zeker weet dat je overgang een abrupte zwart-wit overgang is, en constant is over het beeld, dan kun je gaan interpoleren, en een hogere resolutie bepaling krijgen dan het aantal MP's van de sensor.
Helaas, dat zie je verkeerd.
De diffractie limiet wordt door de lens gegenereerd. Dat zorgt er voor dat op je sensor een plaatjes komt met een beperkte resolutie.
Daarna komt de sensor. De sensor in een DSLR heeft teweinig MP's om die totale resolutie correct te bemonsteren, en daar verlies je dus nog een keer scherpte.
Die beschreven superresolutie waarmee je meerdere foto's neemt, kan
niet de diffractie limiet wegnemen. Je krijgt namelijk twee plaatjes die allebei dezelfde beperkte resolutie. Informatie die er niet is, kan een sensor niet er bij produceren.
Wat die superresolutie wél kan doen, is de effectieve resolutie van je sensor verhogen. Je krijgt hetzelfde effect als dat je de sensor iets verschuift t.o.v. de foto. Combineer je meerdere van dat soort plaatjes, dan kan je weer interpoleren, en een hogere resolutie verkrijgen. Dit komt overeen met het aantal MP van je sensor te verhogen.
Je kunt op deze manier dus de beperkte sensor resolutie omzeilen. Maar je kunt niet de diffractie limiet er mee omzeilen.
In theorie zou je de diffractie limiet van de individuele lens wél kunnen omzeilen, wanneer je meerdere foto's neemt die
ver verschoven zijn, (orde van grootte van de lensdiameter), en waarbij die verschuiving t.o.v. het onderwerp
exact bekend is. Zoiets wordt gebruikte bij radiotelescopen waarbij je een array van meerdere schotels gebruikt i.p.v. één grote schotel. Je combineert dan de stralen door alle lenzen, alsof het één lens is. Je krijgt dan de diffractie limiet die correspondeert met de omvattende diameter.
Bij een radio telescoop is dat makkelijk, omdat ze op opeindig gefocussed staan, en de onderliggende afstanden exact bekend zijn. (En de hoek en focus zijn dus hetzelfde.)
In principe is het bij fotografie ook mogelijk, maar dat zou extreem ingewikkeld worden. Niet alleen moet je de schuiving van de lens
exact weten, maar ook de focusafstand en de exact hoek t.o.v. het onderwerp. Met die informatie zou je dan een 3D reconstructie gaan maken van je object, en dan terugrenderen. Dit is in de praktijk simpelweg niet mogelijk, omdat je de schuiving, hoek en focus, niet goed genoeg kent. En uit het plaatje kun je dat ook niet nauwkeurig genoeg afleiden. Daarom wordt dit dus niet toegepast in fotografie.
Helaas, Wikipedia is hier geen goede bron van informatie....
justice strike schreef op dinsdag 27 september 2011 @ 08:06:
afgezien van de diffractielimieten, als je het gemiddelde neemt van meerdere foto's (en dat is goed te doen als je 600 foto's per seconde kunt nemen) kun je de ruis nagenoeg elimineren (hoe meer foto's hoe minder ruis). Wat betekent dat je op hogere iso's kunt schieten zonder dat je uberhaupt ruisreductie hoeft toe te passen.
Nee, ook dat werkt niet.
Laten we een beeld op 1/50 vergelijken met 10 gecombineerde beelden op 1/500.
Wanneer je 10 beelden van 1/500 combineert, dan vermindert de ruis t.o.v. je enkele 1/500 beeld met een factor (wortel 10). Maar dat beeld op 1/500 krijgt natuurlijk ook 10 maal minder licht dan een beeld op 1/50. En daardoor is de ruis een factor (wortel 10) hoger t.o.v. het 1/50 beeld. Die twee zaken heffen elkaar op.
Wanneer je meerdere foto's perfect combineert krijg je op zijn best, hetzelfde ruis beeld als het enkel beeld met dezelfde totale sluitertijd. De ruis schaalt gewoon met de totale hoeveelheid licht die je gebruikt om de foto te maken. En of je die hoeveelheid licht nu in één keer opvangt met een lange sluitertijd, of in meerdere keren met een korte, maakt niet uit.
Wat deze methode wél zou kunnen doen, is bewegings onscherpte verminderen. Je moet dan analyseren wat beweegt t.o.v. de achtergrond, en die delen van de foto dan verschoven t.o.v. de achtergrond over elkaar heen leggen. Maar ook daar zitten wel een paar haken en ogen aan... Want als je een deel van de foto verschuift, dan krijg je gaten... Je eerste beeld heeft daar weliswaar de beeldinformatie van, maar slechts met een korte sluitertijd. Je krijgt dan dus het effect dat je een gebied met extra veel ruis naast je bewegende onderwerp krijgt.
Verder kan je alleen bewegingsonscherpte corrigeren van een vast bewegend voorwerp. Een auto die van links naar rechts door het beeld gaat, kun je corrigeren, omdat het beeld van de auto niet veranderd. Maar iemand die zijn hoofd draait, kun je niet corrigeren, omdat je steeds een andere aanzicht van het hoofd krijgt.
De diffractie limiet bij een f/2.8 lens is 1.4 micrometer. bij f/2 slechts 1 micrometer. Een sensor met een 1,12 micrometer pixel is dus helemaal niet raar. Past keurig bij de diffractie limiet van de lens.
[
Voor 84% gewijzigd door
Anoniem: 175233 op 27-09-2011 11:58
]