Il Sensore di Immagine - Finanzadimpresa

Impresa Certificata F-GAS
CAT. I - Reg. UE 2015/2067
FER Elettriche, Termoidraulica
Impresa Abiitata DM 37/08
Vai ai contenuti

Il Sensore di Immagine

Aree d'Intervento > Energie Alternative > Machine Learning > Focus
Fotografia: dal greco “scrivere con la luce”.

La luce, entrando attraverso l’obiettivo della macchina fotografica, colpisce un pellicola fotosensibile (o un sensore nelle digitali) “impressionandolo”.

Nel dettaglio, i fotodiodi convertono il segnale luminoso in un segnale elettrico sfruttando le caratteristiche delle giunzioni (p-n).

Quando un fotone colpisce un fotodiodo, provoca il passaggio di un elettrone e la conseguente formazione di una lacuna.

Quando nella giunzione p-n arrivano un numero sufficiente di fotoni, vengono formate un numero sufficiente di coppie elettrone-lacuna tali da creare una differenza di potenziale misurabile.

Tale differenza di potenziale e’ direttamente legata, come si può intendere, alla quantità di fotoni e quindi all’intensità della luce incidente.

Ogni fotodiodo genera dunque un segnale elettrico proporzionale alla luce che lo colpisce: leggendo tutti i segnali elettrici in arrivo su una superficie captante composta da fotodiodi (corrispondente ai pixel di un sensore) è quindi possibile ricostruirne l’immagine in scala di grigi su una pellicola fotosensibile (in quanto un fotodiodo non e’ in grado di leggere il colore).

Per ricostruire una immagine a colori, bisogna sovrapporre ala matrice di fotodiodi una identica matrice di filtri colorati: la Bayer Pattern (RGB, ovvero filtri rossi, verdi e blu).

In una matrice Bayer il numero di pixel dotati di filtro verde (G) è doppio rispetto ai pixel rossi (R) o blu (B), nalla proporzione 50% verde, 25% rosso, 25% blu: questo è necessario perché l’occhio umano ha una sensibilità maggiore al verde rispetto al rosso e al blu.

Quando la raccolta della luce è terminata (ovviamente l’intervallo di tempo viene definito tramite l’otturatore), il valore memorizzato nel fotodiodo (luminanza di un colore, ovvero il rapporto tra l’intensità luminosa e l’area della superficie che vi è esposta che si esprime in candele per metro quadro), viene analizzato dal processore.

Il processore della fotocamera a questo punto applica un ulteriore algoritmo, attraverso cui estrae da ogni gruppo di 2×2 pixel (2 verdi + 1 rosso + 1 blu) informazioni aggiuntive sul colore e interpretando così il colore di quel dato quadrante.

in pratica il processore analizza i pixel e interpola i valori letti al fine di ottenere il valore equivalente al colore che l’occhio umano percepisce.

IL SENSORE FOTOGRAFICO: DIMENSIONE

Il sensore è un oggetto molto complesso costituito da più strati (WAFER) di silicio, e quindi dal costo non indifferente: più è grande il wafer, meno sensori sara’ possibile ricavare da un singolo foglio e quindi più alto (e non di poco) sarà il suo costo finale.

Tanto per fare un esempio, da un wafer da 8″ è possibile ricavare appena 20 sensori full frame (equivalente alla dimensione delle pellicole tradizionali - 36x24mm - che venivano usate praticamente da tutte le apparecchiature fotografiche analogiche).

Se consideriamo che un wafer di silicio ha un prezzo di circa 2000 $, e che deve essere sottoposto a circa 500 lavorazioni prima di essere mandato al taglio, non può stupire il costo di un sensore full frame.

Tanto per restare in tema di prezzi, i sensori half frame (chiamati anche APS-C, utilizzati nella maggior parte delle apparecchiature fotografiche digitali), costano decisamente meno: non perché tecnologicamente inferiori ma per il semplice fatto che sul singolo wafer trovano posto 200 sensori (anziché 20 full frame).

Senza modificare la dimensione dei pixel, dimensione maggiore del sensore significa un maggior numero di pixel (fotodiodi) ospitati sul sensore stesso.

Al contrario, se manteniamo costante il numero dei pixel, al crescere del sensore cresce la dimensione dei pixel.

Ovviamente ognuno dei due approcci ha vantaggi e svantaggi nonchè differenze di prezzi non indifferenti.

Le aziende costantemente fanno “fine tuning” sui sensori, mediando tra le due soluzioni.

Senza entrare troppo nel merito, ricordiamoci che ogni pixel restituisce un segnale elettrico.

Questo segnale elettrico non è solo composto dalla luce: parte del segnale è costituito da rumore, ovvero da elettroni che si sono eccitati per altri motivi, quali temperatura, pixel vicini, eccetera.

A volte, essendo questo segnale troppo basso, è necessario amplificarlo al fine di ottenere una immagine sufficientemente chiara.

In ogni caso, amplificando il segnale (aumentando l’ISO della macchina di 100, 200, 400, etc..) non si incrementa solo il segnale elettrico relativo all’immagine ma anche il rumore: più è ampio il fattore moltiplicativo, quindi, maggiore sarà il rumore.

E’ ovvio che un pixel di dimensioni più grande, a parità di tempo di esposizione e luminosità, cattura più luce di un pixel piu’ piccolo, e quindi genera un segnale elettrico piu’ forte, che necessita di una minore amplificazione: insomma, pixel piu’ grandi equivale a foto più’ luminosa e minore necessità di incrementare l’ISO.

Se ne deduce che a tanti megapixel corrisponde tanto rumore: di contro, meno pixel significa meno risoluzione e quindi foto più piccola.

Ecco perchè è necessario mediare: è proprio la dimensione del sensore un parametro fondamentale quando si valuta un apparecchio fotografico in quanto incide direttamente su tantissimi altri parametri (come la profondità di campo, la quantità di rumore, la gamma dinamica, lunghezza focale delle lenti e la dimensione delle stesse).

L’unità di misura per i sensori, per convenzione, è il pollice.

Questa metodologia di misurazione applicata (da cui la convenzione usata per il loro formato) è direttamente legata al modo in cui venivano misurati i tubi catodici dei televisori tradizionali.

Il rapporto che indica un sensore (esempio 1/2,3″) non è altro che il diametro esterno (in pollici) del vetro che ricoprirebbe i fosfori nel caso in cui si trattasse di un televisore.

Per ottenere la dimensione del “diametro” del sensore, partendo dal valore fornito dal produttore, non bisogna fare altro che effettuare la moltiplicazione del valore (per esempio 1/2,3=0.435) per 25,4 (ovvero il valore in mm di un pollice):
 
1/2.3″ = 0,435*25.4mm = circa 11mm

La diagonale è quindi pari a:
 
2*(11/3,14) = circa 7,5mm.
PHOTOSITE E PIXEL

La risoluzione è uno dei fattori più evidenziati nelle caratteristiche di una immagine digitale.

Per comprendere il parametro in esame, innanzitutto bisogna distinguere tra photosite, elemento unitario fotosensibile (o “photodetector”) e pixel (un concetto informatico che appartiene alla categoria del software e il cui contenuto informativo è un gruppo di dati che descrive le caratteristiche cromatiche del più piccolo dettaglio dell'immagine).

Il "photosite", invece, è un luogo fisico, appartenente quindi alla categoria dell'hardware: può essere definito come "luogo di cattura del più piccolo dettaglio dell'immagine".

Si tratta dunque di uno spazio con uno o più elementi semiconduttori che sono in grado di trasformare un flusso luminoso in una determinata quantità di cariche elettriche.

Nel photosite inoltre è presente un piccolo cristallo con forma a calotta quasi-sferica avente la funzione di catturare la maggior parte di luce possibile di quella incidente sulla superficie del sensore (Color Filter Array – filtro Bayer).

Il photosite quindi è la parte unitaria colorata "R" o "G" o "B" di un luogo più ampio che è chiamato generalmente sensore.

Poiché ogni colore può essere riprodotto dalla mescolanza di tre componenti primarie della luce (rosso, verde, blu), dall'elemento unitario fotosensibile occorre ottenere un segnale elettrico relativo alla componente (R) o alla componente (G) o a quella (B).

Questo principio vale per tutte le tecnologie costruttive e per tutte le tipologie di sensori.

Esistono sensori aventi photosite che hanno un solo photodetector, due o tre photodetector.

Poiché ogni pixel, deve contenere informazioni (dati) su ognuna delle tre componenti primarie della luce, è evidente che se in un photodetector si trova un solo photosite, occorrerà calcolare per interpolazione cromatica i dati relativi alle due componenti mancanti; se nel photodetector vi sono tre photosite ogni componente monocromatica primaria sarà rilevata e nulla andrà calcolato.

La funzione dell'elemento fotosensibile (chiamato anche photodetector) è quella di trasformare un flusso luminoso in un segnale elettrico di intensità proporzionale alla intensità del flusso luminoso in quel punto.

Lo spazio colore è un modello matematico che descrive le possibilità di riprodurre in modo percepibile dall'occhio umano tutte le tonalità della luce visibile,

Per consentire la formazione di un'immagine fotografica digitale fedele, ogni pixel deve contenere quindi informazioni (dati) su ognuna delle tre componenti RGB.

Va premesso che un modo per riprodurre qualunque colore nello spettro della luce visibile (dal rosso cupo al violetto) è quello di proiettare tre raggi di luce relativi alle tre componenti monocromatiche RGB, dosandoli adeguatamente in intensità per ottenere il colore voluto (una bassa intensità di ogni componente primaria tende al nero, un'alta intensità tende al rispettivo colore saturo R, G o B).

Per valori numerici elevati di ogni canale cromatico (tendenti cioè al valore decimale 255, nella scala 0-255), si ha la massima intensità del rispettivo colore saturo, mentre valori decimali su ogni canale tendenti a zero corrispondono a colori di ogni canale tendenti al nero.

Quando tutti e tre i canali hanno valore 255, si ottiene il bianco saturo; viceversa, tutti e tre i canali con valore zero, corrispondono al colore nero saturo.

Nei sistemi con profondità di colore a 24 bit, i dati binari del pixel RGB sono composti da tre byte: questo corrisponde ad un byte per ogni canale colore (un byte contiene, 8 bit).

Nel caso di immagini campionate a 16 bit, invece che a 8 bit, la struttura dei dati binari del pixel prevederà la presenza di due byte (=16 bit) per ogni canale colore, così che il pixel di un file RGB sarà composto da 48 bit in totale.

In altri termini si può parlare, in questo caso, di un'immagine con profondità colore di 48 bit.

Le caratteristiche del pixel permettono quindi, di comporre i dati necessari a formare l'intera immagine per mezzo di periferiche di output (come monitor, stampanti, etc..).

Nelle periferiche di output l'elemento hardware elementare, complementare al photosite, che riproduce i dati del pixel, è chiamato dot ("punto" in inglese).

LA TECNOLOGIA: CCD-CMOS
Esistono due tipologie di sensori:
 
- CCD (Charge-Coupled Device)
 
- CMOS (Complementary Metal-Oxide-Semiconductor).

Entrambi i sensori CCD e CMOS furono entrambi inventati alla fine degli anni ’60 e ’70 (il fondatore della DALSA, il dott. Savvas Chamberlain, fu pioniere nello sviluppo di entrambe le tecnologie).

Il CCD divenne dominante, principalmente perché forniva immagini di gran lunga superiori con la tecnologia di fabbricazione disponibile.

I sensori di immagine CMOS richiedevano più uniformità e caratteristiche più piccole di quelle che le fonderie di wafer di silicio potevano offrire in quel momento.

Solo negli anni ’90 la litografia si è sviluppata al punto che i progettisti han potuto ricominciare a presentare spingere sui CMOS.

Il rinnovato interesse per CMOS si basava sulle aspettative di riduzione del consumo energetico, integrazione fotocamera su chip e costi di fabbricazione ridotti dal riutilizzo della logica tradizionale e dalla fabbricazione di dispositivi di memoria.

In ogni caso, il primo sensore ad essere stato creato è quello CCD, più facilmente realizzabile: Willard Boyle e George Smith lo realizzarono nel lontano 1969.

In questo tipo di sensore, la carica elettrica generata sul sensore dai fotoni viene trasferita alla circuiteria tramite pochi “nodi di uscita”.

Quindi è convertita  in differenza di potenziale (parliamo di microvolt) ed infine esce dal sensore sottoforma di segnale analogico (contribuendo a realizzare un’immagine di alta qualità in tutte le condizioni).

Nel caso del CMOS, invece, ogni singolo fotodiodo è accoppiato ad un convertitore (quindi l’energia viene subito trasformata in differenza di potenziale, e il segnale in uscita è già di tipo digitale (eccellente nei casi di luce intensa, ma più suscettibile al rumore nelle scene notturne o con scarsa luce).

Ne deriva che nei casi di illuminazione fioca o scarsa, è più performante il CCD, in quanto l’amplificazione del segnale viene effettuata su tutti i fotodiodi nello stesso momento; mentre nel CMOS ogni segnale generato dal fotodiodo viene amplificato singolarmente (amplificatori mono pixel, in pratica).

Ne deriva una maggiore precisione ed armonizzazione del risultato e quindi una foto con un po’ meno rumore nel caso del CCD.

Di contro, i sensori CMOS sono più veloci e permettono raffiche di foto più veloci, in quanto non pagano la perdita di tempo necessaria ai sensori CCD per analizzare in un unico amplificatore e trasformatore che fa da collo di bottiglia alla grossa mole di dati provenienti dai singoli fotodiodi.

Nei sensori CMOS, infatti, essendoci un convertitore ed un amplificatore per pixel, questi ultimi sono decisamente più efficienti in termini di velocità e non fanno da collo di bottiglia: ogni riga di fotodiodi può essere “letta” separatamente e memorizzata in quanto l’immagine è già pronta.

Ma con il passare del tempo e l’avanzamento della tecnologia, i centri di ricerca delle grandi compagnie hanno continuato a migliorare in parallelo le due tecnologie: per i CMOS hanno puntato sulla qualità dell’immagine, per i CCD sul contenimento dei consumi.

Il risultato finale è che, al momento, i due sensori sono equiparabili e utilizzabili senza alcuna differenza su tutte le macchine.

Torna ai contenuti