Capire come funziona l'autofocus parte 2

Dopo il nostro primo sguardo sull'autofocus, avremo ora un approccio più tecnico. Sono fermamente convinto che più comprendi la tua fotocamera e come interpreta il mondo da una prospettiva ingegneristica, più ne puoi ricavare per creare con precisione la tua visione.


La storia tecnica rapida

Leitz, ora nota come Leica, iniziò a brevettare una serie di tecnologie di sistema di messa a fuoco automatica nel 1960 e dimostrò una macchina fotografica autofocus in Photokina (iniziata nel 1950) nel 1976. La prima fotocamera AF prodotta in serie era la Konica C35 point-and-shoot uscito nel 1977. La prima reflex 35mm della AF fu la Pentax ME-F nel 1981, seguita da una simile F3AF della Nikon nel 1983.


Pentax ME-F del 1981 con SMC Pentax AF Zoom 1: 2.8 35 ~ 70mm. (Immagine da Wikimedia)

Originariamente tutte queste prime reflex AF avevano motori per obiettivi, essenzialmente una lente standard con un grosso blocco motore attaccato su di esso. Ciò è continuato fino a quando il Minolta Maxxum 7000 del 1985 aveva il motore di trasmissione nel corpo della fotocamera insieme ai sensori.

Questa è stata la prima reflex AF che ha riscosso un ragionevole successo commerciale. I precedenti tentativi sono stati lenti, poco accurati e hanno funzionato solo in condizioni ideali, il che non ha realmente giustificato il doppio costo rispetto alle analogiche telecamere con messa a fuoco manuale. Il Maxxum 7000 ha costato Minolta $ 130 milioni nel 1991 dopo una lunga battaglia sui brevetti con la società statunitense Honeywell rispetto alla tecnologia AF.


Minolta Maxxum 7000 da una produzione successiva; le X non sono incrociate, il risultato di un'azione legale da parte di Exxon. Foto di teamgriggs

Nikon ha seguito la tuta di Minolta, ma è tornata ai motori delle lenti nel 1992, quindi i moderni Nikon entry-level non hanno un motore di guida AF integrato. Il sistema AF Canon (sistema elettro-ottico) di AF è nato nel 1987, anno in cui hanno infastidito molti fotografi facendo cadere l'innesto dell'obiettivo FD e creando l'attacco EF completamente elettronico.

FD con i suoi collegamenti meccanici e attacco a baionetta con bloccaggio a collare contro l'EF con contatti elettronici e blocco a baionetta sul corpo.

Beh, questo è in genere quello che è successo e l'ordine in cui è accaduto. E la tecnologia stessa? Scaviamo un po 'di più.


Implementazioni fisiche

Rilevamento di fase

L'autofocus a rilevamento di fase è l'AF veloce trovato sulle DSLR (e le fotocamere mirrorless sempre più parte di un sistema AF ibrido). Nelle reflex digitali, parte dello specchio principale è semi-argentata e passa circa un quarto della luce dall'obiettivo a un piccolo specchio secondario dietro e giù nella base della scatola dello specchio. Nella base sono piccole lenti che focalizzano la luce dai bordi dell'obiettivo sull'array del sensore CCD.

Base di una scatola di specchi, con geometria antiriflesso e luci per luce AF. I bordi delle lenti laggiù sono quasi visibili attraverso gli spazi vuoti. Sembra anche un po 'polveroso!

L'array è generalmente costituito da un numero di strisce unidimensionali di pixel in vari orientamenti. Ogni striscia può vedere solo una funzione che contrasta perpendicolarmente ad essa, in quanto l'unico cambiamento che può vedere è lungo la linea. Se una caratteristica dell'immagine è parallela alla striscia, può vedere solo un particolare aspetto della funzione in una volta, piuttosto che la "forma" di essa.

Rilevazione del contrasto

Il rilevamento del contrasto esiste generalmente direttamente sul sensore di imaging stesso, da qui il suo utilizzo in live view su DSLR. Di solito è l'unico sistema di rilevamento disponibile su fotocamere mirrorless e compatte. È un'implementazione software, quindi non c'è più un aspetto fisico reale, solo il sensore e un processore.

Rilevazione ibrida

Come suggerisce il nome, una combinazione di entrambi i sistemi. Ciò può assumere la forma di convertire alcuni pixel del sensore in pixel AF o disporre di un array di rivelazione di fase sovrapposto al sensore, che funziona quindi con il sistema di rilevamento del contrasto in tandem per migliorare la velocità AF.


Come funzionano le cose

Ok, ora conosciamo la configurazione fisica per ogni tipo di sistema AF, esaminiamo come utilizzano le rispettive implementazioni per fare il loro lavoro.

Messa a fuoco e distanza

L'obiettivo composto (un singolo sistema ottico costituito da un numero di obiettivi semplici, di solito denominato "elementi" nella documentazione fotografica) nell'obiettivo della fotocamera utilizza uno o più obiettivi mobili per focalizzare i raggi luminosi sul piano dell'immagine.

La distanza dal soggetto determina quanto lontano deve essere spostato l'obiettivo correttivo per mettere a fuoco. Consideralo come un paio di occhiali per l'ottica principale, tranne che invece di cambiare la potenza della lente, la sua posizione è cambiata.

Facciamo un esempio molto semplice con una sola lente semplice, per mostrare che mentre il soggetto si muove, l'immagine sfoca, approssimata dalla formula della lente sottile:

$$ 1 \ over f = 1 \ over S_1 + 1 \ over S_2 $$

Questa equazione presuppone lenti di uno spessore trascurabile nell'aria, quindi non si traduce accuratamente con obiettivi reali, ma mi consente di ottenere il punto attraverso più semplicemente.


Impostazione dell'obiettivo molto semplice, proprio come spostare una lente d'ingrandimento davanti ai tuoi occhi.

Usiamo una sorgente puntiforme di luce con una lente di lunghezza focale di 1m (1000mm). Questo dà un valore di \ (1 \ over f \) di 1. Se \ (S_1 \) è di due metri, \ (1 \ over S_1 \) è 0.5. Quindi \ (S_2 \) è anche 2m quando l'obiettivo è focalizzato. Se spostiamo il soggetto sorgente sorgente a 8 m di distanza dall'obiettivo, \ (1 \ over S_1 \) diventa 1/8. Per compensare, \ (1 \ over S_2 \) deve diventare 7 \ 8, che richiede un valore \ (S_2 \) di 8/7 o 1,14 m. Ovviamente, il valore \ (S_2 \) è fisso mentre il sensore è fermo, quindi l'immagine viene messa fuori fuoco.

Se inseriamo una seconda lente correttiva a distanza \ (d \) dalla prima in questo sistema ottico per creare una lente composta, possiamo focalizzare l'immagine mentre il soggetto si muove. La nuova lunghezza focale combinata è, secondo l'equazione della lente sottile composta:

$$ 1 \ over f = 1 \ over f_1 + 1 \ over f_2 - d \ over f_1 f_2 $$

Quindi abbiamo una nuova lunghezza focale. La distanza tra la nuova lente e il nuovo punto focale per il sistema combinato è chiamata lunghezza focale posteriore, che dovrebbe essere un termine relativamente familiare nella fotografia, poiché è la distanza dall'elemento posteriore al sensore. Se chiamo la lunghezza focale posteriore "\ (d_2 \)", questo è dato da:

$$ d_2 = f_2 (d - f_1) \ over d - (f_1 + f_2) $$

Proviamo un esempio in cui l'immagine è focalizzata su un piano fisso dell'immagine, quindi il soggetto si muove. L'aggiunta di lenti correttive divergenti e lo sgranocchiare dei numeri ci dà questo:

Sistema composto, più simile a un vero obiettivo fotografico. L'elemento di focalizzazione [s] si muove di una piccola frazione rispetto alla distanza del soggetto.

La matematica potrebbe non essere impeccabile, ma è abbastanza buona per ottenere il risultato! Quindi, mentre il soggetto si sposta, l'obiettivo correttivo deve spostarsi per compensare perché il piano di imaging è fisso.

Nei sistemi AF, l'elettronica calcola dove deve essere spostata la lente e indica al motore dell'obiettivo di spostarla lì. Come fa questo? Questo ci porta ai sistemi di rilevamento.

Phase Detect

Le piccole lenti nella base della scatola dello specchio focalizzano la luce dai lati opposti dell'obiettivo. A causa della distanza tra questi due punti, viene creata una parallasse in cui ciascuno vede viste leggermente diverse del soggetto, proprio come i due obiettivi di ingresso in una fotocamera a telemetro.

I singoli punti sono a fuoco, proprio come in un telemetro; è la combinazione infinita di punti attraverso il campo dell'immagine bidimensionale che crea la sfocatura focale in un'immagine reale. Questo è il motivo per cui le ampie aperture creano più sfocatura; non attraverso una sorta di manipolazione ottica, ma semplicemente perché viene utilizzato più del diametro del vetro, creando più punti per sovrapporsi e creare sfocatura. Immagina di utilizzare un diaframma F / 22 o un'apertura più piccola su ciascun lato dell'obiettivo, in modo che la vista rimanga a fuoco indipendentemente dalla posizione focale dell'obiettivo.


Un aspetto semplificato, senza molti degli obiettivi aggiuntivi e dello schermo di messa a fuoco.

Mentre la luce proviene dai lati opposti dell'obiettivo, l'immagine divisa che va ai sensori AF è della stessa parte del soggetto, dove i punti AF nel mirino sono.


Vista semplificata, senza tutti gli obiettivi extra, all'interno della scatola dello specchio di una fotocamera SLR, dalla parte anteriore e posteriore.

Le strisce CCD vengono lette e inviate a un chip AF dedicato, che esegue un confronto tra i due. Mentre i singoli produttori, il miglioramento della tecnologia, l'elusione della violazione dei brevetti e vari punti di prezzo delle attrezzature alterano probabilmente l'algoritmo esatto utilizzato, il punto generale qui è eseguire una funzione matematica chiamata autocorrelazione, o simile.


Conoscendo il diametro dell'obiettivo (quindi f / 2.8 punti AF più precisi, non più luce, ma più larghezza) consente la triangolazione.

L'autocorrelazione è un algoritmo di corrispondenza del modello sotto l'ombrello della correlazione incrociata nell'elaborazione del segnale, ma invece di confrontare due segnali diversi, confronta un segnale con una versione spostata di se stesso. Essenzialmente, è una funzione integrale (o più probabile in questo caso di set di valori discreti, somma) che calcola, confronta e massimizza l'area sotto i grafici dei segnali sovrapposti.

L'obiettivo è calcolare fino a che punto deve spostare uno dei segnali per massimizzare quell'area e quindi abbinare le due viste. La matematica coinvolta è molto prolissa (probabilmente impiegherebbe diversi articoli per lavorare su un esempio di base) ma il risultato dell'algoritmo finale complessivo dovrebbe scendere tra 1 e -1, con la macchina fotografica che cerca di trovare il valore di spostamento in cui la correlazione il valore è il più vicino possibile a 1.

In questo modo, vede e comprende la stessa caratteristica proveniente da ciascun lato dell'obiettivo, e la conoscenza dello spostamento spaziale fisico tra di loro lungo la striscia di pixel indica, con la trigonometria basata su dimensioni della telecamera note, in che direzione e in quale direzione l'obiettivo è sfocato. Può quindi inviare un segnale di messa a fuoco all'obiettivo e controllare la messa a fuoco dopo lo spostamento. Questo è quando la tua fotocamera indica il blocco della messa a fuoco e consente di scattare l'immagine.


Configurazione simile alla vista 3D in alto, che mostra il movimento dei percorsi di luce mentre il focus cambia.

Potresti aver sentito parlare di punti AF tipo "punto" o "punto" rispetto ai punti AF "croce". La differenza tra questi è che i punti di tipo punto sono strisce di pixel singole, unidimensionali, mentre i punti di tipo incrociato sono due linee disposte perpendicolarmente. Poiché un sensore AF è monodimensionale, può vedere solo la luminanza che cambia lungo la sua lunghezza. I sensori a punti sono quindi sensibili solo ai dettagli in una direzione, mentre i cross-types possono vedere attraverso due dimensioni.

Se un sensore a punti è parallelo a una funzione di dettaglio principale, non può vedere la differenza tra esso e la sua caratteristica di contrasto adiacente, e quindi ha una notevole difficoltà nella messa a fuoco.


Stesso modello, diversa angolazione dei sensori. Chiaramente i cross-types possono sempre vedere uno schema, indipendentemente dall'orientamento.

Contrast Detect

Questo metodo consente di leggere alcuni pixel nella posizione di messa a fuoco desiderata dal sensore di imaging. Il processore calcola il valore di contrasto tra questi pixel, la differenza di luminanza sullo spazio dei pixel misurato. Calcolando il gradiente della curva lungo le linee e le colonne dei pixel, può cercare di massimizzare il valore di questo gradiente.


Calcolare i gradienti delle linee di giunzione dà la differenza di luminanza per unità di distanza (o pixel), in sostanza, una misura di contrasto.

La messa a fuoco dell'obiettivo viene quindi mossa in modo frazionale e il contrasto viene calcolato nuovamente. Se il contrasto è inferiore, il sistema ha spostato l'obiettivo nella direzione sbagliata, quindi viene spostato nella direzione opposta. Il contrasto viene misurato di nuovo, l'obiettivo viene spostato ulteriormente e questo processo si ripete quando il valore del contrasto sale fino a quando non si immerge. Quando cade, l'obiettivo è andato troppo lontano e l'algoritmo sposta di nuovo l'obiettivo, rendendo ulteriori micro regolazioni.


Ho sfocato questa sezione di una foto reale in Photoshop, simulando i calcoli del loop iterativo del rilevamento del contrasto.

Il metodo di rilevamento del contrasto di AF ha il potenziale per essere estremamente accurato perché è a livello di sensore, nessun sistema separato. Sposta semplicemente l'obiettivo fino a massimizzare il contrasto. Sfortunatamente per lo stesso motivo, sembra improbabile che sia mai veloce; si potrebbe sostenere che dovrebbe essere necessaria solo una misurazione in due posizioni focali per sapere quanto l'obiettivo è defocalizzato, ma ciò richiede che la fotocamera sappia esattamente in che modo il soggetto deve iniziare con.

Non ha modo di sapere quale sarà la "vera" distribuzione dei valori di luminanza misurati, perché dipendono dal soggetto. Questo è il motivo per cui non può anche esserci un "gradiente di soglia" né un "valore di luma di picco ideale". Queste cose variano molto da una scena all'altra.


Soggetti diversi, orari diversi, luci diverse, hanno un effetto sui livelli di contrasto assoluti.

Quindi, per il prossimo futuro, il cinema professionista continuerà a utilizzare gli estrattori manuali di messa a fuoco come sempre e i point-and-shoot mirrorless continueranno a essere lenti. Salvo che…

Sistemi ibridi

E se potessi ottenere il meglio da entrambi i mondi? Cosa succede se si può avere la velocità del rilevamento di fase ed eliminare la caccia, ma combinare ciò con l'accuratezza e la semplicità del rilevamento del contrasto? Bene, questo è esattamente ciò che i produttori stanno facendo ora.

Invece di mettere le strisce di rilevamento di fase sul fondo di una scatola di specchi, che è inutile in fotocamere mirrorless e DSLR in live view, vengono invece create come array dedicati sul sensore di immagine stesso. Ma sicuramente non c'è niente da sincronizzare con le fasi sul sensore, perché si sta facendo esplodere da tutta la luce proveniente dal resto dell'obiettivo in un grande cerchio confuso di confusione come ho detto prima? Non così in fretta!

Poiché i pixel (tecnicamente "sensori", dal momento che sono elementi sensore e non elementi immagine) su un sensore di immagine sono coperti in microlenti per una migliore raccolta della luce, tutto ciò che dobbiamo fare è bloccare metà del pixel per ottenere l'immagine da un lato dell'obiettivo Questo è l'ideale? No, l'immagine sarà ancora sfocata, ma a metà sfocata quanto quando si vede l'intero obiettivo, e ora possiamo usarla per rilevare con maggiore precisione la messa a fuoco perché ci sarà una parallasse tra le due immagini.


I fotositi verdi sono usati perché ce ne sono il doppio nell'array Bayer, la semiflora può essere più facilmente corretta senza rumori eccessivi.

Nei Fuji X100 questa tecnologia viene utilizzata per potenziare gli aiuti visivi di messa a fuoco manuale con una sovrapposizione EVF a prisma diviso, ma Sony la utilizza come un vero sistema ibrido in combinazione con AF a rilevamento di contrasto come "AF ibrido veloce" nei loro -end le macchine fotografiche NEX. Anche Canon e Nikon usano questo concetto nelle loro fotocamere di fascia bassa. In A99 di Sony, un secondo array di rilevamento di fase dedicato sfrutta lo specchio traslucido per essere sovrapposto direttamente davanti al sensore di imaging, noto come Dual AF.


È leggermente difficile da dire su questo diagramma, ma l'immagine sfocata è sia spostata a sinistra che a sfocato simultaneamente.

Pertanto, la capacità di luce scarsa del rilevamento della fase on-sensore non è molto elevata, tende ad essere limitata a un punto centrale per ridurre il numero di pixel eliminati dall'impiego di immagini e la tecnologia è ancora agli inizi. Ma con più sistemi dedicati come gli array Dual AF di Sony e forse alcuni pixel "sacrificati" del sensore di immagine (usando l'interpolazione software) con più microlenti direzionali, questo sembra il futuro dell'autofocus.


Conclusione

Quindi siamo venuti dall'invenzione dell'autofocus, attraverso il suo sviluppo e l'adozione diffusa. Abbiamo esaminato i fondamentali meccanismi ottici di messa a fuoco. Sappiamo quali tipi di AF ci sono, dove sono nella fotocamera e come funzionano, oltre a come questi attributi influenzano praticamente le prestazioni della fotocamera. Abbiamo esaminato i recenti sviluppi nei sistemi di autofocus ibridi e abbiamo preso in considerazione la possibilità di continuare da qui.

Quando si utilizza la messa a fuoco automatica, considerare come la fotocamera sta visualizzando la scena e regolare di conseguenza. Quando acquisti le fotocamere, dai un'occhiata ai loro sistemi AF e quanto possono lavorare bene per il tuo stile di ripresa.

Bene, questa è una panoramica di questa panoramica tecnica dell'autofocus. Domande? Commenti? Colpisci i commenti qui sotto!