Sensore d’immagine

Il sensore d’immagine è un trasduttore che converte  il segnale luminoso, proveniente dall’obiettivo, in un segnale elettrico. Il sensore può essere paragonato al piano di una scacchiera, dove ad ogni quadratino corrisponde un elemento fotosensibile. In realtà, sarebbe meglio parlare di una matrice di silicio di base x ed altezza y, dove ogni quadratino è univocamente individuato da una coppia di valori (coordinate), che ne definiscono la posizione.

Photosite

Il singolo elemento della matrice viene chiamato photosite e rappresenta il più piccolo dettaglio dell’immagine che può essere catturato dal sensore. Il photosite è un “luogo fisico” sulla superficie del sensore ed è costituito dall’elemento fotosensibile, dal filtro e dalla lente.

Elemento fotosensibile o Photodetector

L’elemento fotosensibile ha il compito di trasformare un flusso luminoso in un segnale elettrico. La conversione luce/corrente avviene per mezzo di un fotodiodo che fornisce un valore di corrente proporzionale alla quantità di luce che lo investe e al tempo per cui vi rimane esposto (tempo di esposizione). Il dato catturato dal fotodiodo conterrà solamente le informazioni relative all’intensità luminosa e non al colore.

Filtro

L’immagine ottenuta utilizzando i dati provenienti dai photodetector è in bianco e nero per ottenere delle immagini a colori si ricorre all’utilizzo di particolari filtri (Filtro di Bayer), che oltre a catturare i livelli di luminosità catturano anche le informazioni relative ai livelli cromatici. Il filtro  consiste in una griglia colorata  che sovrasta il sensore, ogni elemento della griglia viene fatto corrispondere ad un photosite ed è realizzato in modo da filtrare solo una determinata frequenza di colore. I colori utilizzati sono quelli primari del metodo RGB  il rosso (Red) il verde (Green) ed il blu (Blue). Grazie a questa griglia ogni photodetector catturerà l’informazione relativa ad un unica tonalità di colore, tale informazione però non basta a rappresentare il colore  di quel punto dell’immagine, esso infatti verrà ottenuto tramite interpolazione. In pratica la griglia viene realizzata in modo che ogni filtro colorato risulti adiacente ad altri due filtri di colore diverso. Il colore di quel punto dell’immagine viene ottenuto grazie ad un particolare software che tramite un processo, chiamato interpolazione, combina i livelli cromatici dei tre fotodiodi adiacenti e ne ottiene un colore nuovo, un po’ come si faceva a scuola quando si mischiavano dei colori per ottenerne altri. Quindi per ottenere il colore di un pixel in realtà ne servono tre ed ecco spiegato il motivo per cui le telecamere in bianco e nero hanno una risoluzione maggiore di quelle a colori.

La lente

Il continuo progresso delle tecnologie di costruzione ha reso possibile la realizzazione di sensori che, a parità di dimensioni, possono contenere da qualche migliaio a qualche milione di photosite. Maggiore è il numero di photosite disposti sul sensore maggiore sarà la risoluzione dell’immagine ottenuta, di contro l’eccessivo affollamento riduce  la quantità di luce a disposizione di ogni elemento fotosensibile, il che pregiudica il funzionamento della telecamera in condizioni di scarsa luminosità. Per ovviare a questo problema ogni photosite è stato dotato di una microlente che amplifica la luce incidente sul photodetector. Questa tecnologia si chiama “on chip microlenses” ed è stata introdotta dalla Sony, ne è un validissimo esempio il sensore “Sony Super HAD” utilizzato sui propri prodotti da diversi fabbricanti di telecamere.

Pages ( 1 of 2 ): 1 2Next »