AG Photo luxury
Il sensore (figura 01) è il cuore di ogni macchina fotografica digitale anche se non l’unico componente importante. Il sensore trasforma la luce che arriva dall’esterno attraverso l’obiettivo, in un segnale elettrico. Il segnale così creato, viene poi amplificato dall’amplificatore e convertito in informazione di immagine dal processore.
Ogni sensore ha la sua sensibilità alla luce che dipende dalla qualità ma anche dal tipo di sensore. Facendo l’esempio di un sensore CMOS (vedi sotto), non tutti i CMOS saranno uguali per la sensibilità. Solitamente i sensori montati sulle reflex più costose hanno una sensibilità maggiore. E’ sufficiente provare due macchine di diversa fascia per accorgersi che, a parità di condizioni di luce (bassa per esempio), il sensore migliore consentirà, tempi più corti o ISO più bassi.
01 Un sensore CMOS.
Il numero dei pixel del sensore
Il numero totale dei pixel di un sensore è una caratteristica molto importante in quanto determina in quanti punti fondamentali (fotositi) è suddivisa la sua superficie. Più pixel ci sono e migliore sarà la risoluzione dell’immagine ma è anche molto importante la grandezza di ogni pixel e la distanza dai suoi vicini ai fini del rumore.
Per ridurre al minimo il rumore generato dal sensore, è importante che i pixel siano grandi e distanziati tra loro. Quindi la cosa migliore sarebbe avere molti pixel su un sensore molto grande. Sulle macchine fotografiche compatte spesso, per ragioni di compattezza, troviamo molti pixel in poco spazio; sulle reflex troviamo più pixel (a seconda dei modelli) ma i sensori sono notevolmente più grandi e quindi i pixel sono anch’essi più grandi e più distanti tra loro migliorando decisamente la qualità dell’immagine generata. Quindi, la qualità di un sensore, migliora al diminuire della sua risoluzione, cioè di pixel per unità di superficie. Non dobbiamo confondere però la risoluzione di un’immagine con quella di un sensore.
Sono misurate entrambe in pixel per unità di superficie ma in un’immagine, risoluzione maggiore significa qualità maggiore mentre per i sensori è il contrario. Quindi per avere un’immagine risoluta ma anche pulita, dobbiamo avere un sensore con molti pixel ma anche grande.
Una volta stabilito il numero dei pixel che può essere sufficiente per una bella foto o stampa e posto esso come limite minimo, per avere una maggior qualità, a parità di superficie di sensore, dovremo preferire quello con minor numero di pixel.
Riassumendo: un fattore importante da tenere in considerazione, oltre al numero dei pixel totali, è anche la grandezza del sensore.
Formato
Un’altra caratteristica del sensore è il formato. Tutti i sensori sono rettangolari ed hanno quindi un lato lungo ed un lato corto. Quando il rapporto tra i due (lato lungo diviso quello corto) è uguale a 1.5, il formato dell’immagine sarà 3/2 mentre se il risultato sarà pari a 1.(3), il formato sarà 4/3. In fotografia vengono maggiormente utilizzati il 4/3 ed il 3/2. Solitamente il 3/2 è il formato utilizzato sulle reflex mentre sulle fotocamere compatte prevale il 4/3 (più vicino ad un quadrato). Nel cinema invece, il formato utilizzato è il 21/9 mentre sui televisori di casa è il 16/9 anche se soltanto da pochi anni. I televisori a raggi catodici avevano infatti un formato 4/3. Vedere esempi nella sezione “Formati di immagine” nella pagina “Risoluzione”.
Dimensioni
I sensori delle reflex vengono classificati anche secondo le dimensioni. Esistono sensori di molte dimensioni diverse che vanno dai più piccoli, di pochi mm, ai più grandi di 35mm. Sulle reflex i più utilizzati sono i maggiori, l’APS-C ed il Full frame da 35mm. APS-C e 35mm sono nomi che derivano dalle dimensioni delle vecchie pellicole. Per determinare le dimensioni di un sensore si utilizza solitamente la lunghezza del lato lungo del rettangolo (sapendo che il formato è 3/2 l’altro lato lo si deduce). APS-C corrisponde ad una dimensione di circa 23mm. Ogni costruttore poi adotta dimensioni leggermente diverse ed attribuisce un nome proprietario al formato APS-C. Il full frame misura 35mm ed è uguale per tutti i costruttori al momento. Conoscere la dimensione del sensore della fotocamera è importantissimo in quanto un obiettivo di lunghezza focale di 50mm, montato su una reflex con sensore APS-C, avrà una lunghezza focale reale di 75mm mentre se montato su una full frame avrà la lunghezza focale reale di 50mm. Questa considerazione ci fa capire che su una fotocamera con sensore in formato APS-C, un teleobiettivo diventa ancora più potente mentre un grandangolo perde parte del suo angolo visivo; viceversa, ovviamente, per i sensori 35mm dove la lunghezza focale è quella reale.
Molto importante è anche sapere che tutti gli obiettivi full frame possono esser montati su macchine full frame e APS-C (figure 02 e 03) mentre gli obiettivi per formati più piccoli, con le dovute eccezioni, non possono essere montati su macchine full frame (figura 04). Quando un obiettivo viene montato su una macchina con sensore di dimensione APS-C, per conoscere la sua reale lunghezza focale, è necessario moltiplicare il numero per 1.5. Così un obiettivo 18-105mm, su una macchina APS-C corrisponderà ad un 27-157mm.
Introduzione
La macchina fotografica
Gli obiettivi fotografici
Attrezzatura ed accessori
Scattare una fotografia
Tecnica panoramica e gigapixel
Guida all'acquisto
Fotocamere ad obiettivi intercamb.
Varie
02a Obiettivo full frame e sensore full frame. L'immagine è rovesciata perchè generata oltre il piano focale.
02b Fotografia scattata con un obiettivo full frame su macchina con sensore full frame.
03a Obiettivo full frame e sensore APS-C. L'immagine è rovesciata perché generata oltre il piano focale.
03b Fotografia scattata con un obiettivo full frame o APS-C su macchina con sensore APS-C.
04a Obiettivo APS-C e sensore full frame. L'immagine è rovesciata perché generata oltre il piano focale.
04b Fotografia scattata con un obiettivo APS-C su macchina con sensore full frame.
Nella figura 02a, possiamo vedere come un obiettivo full frame, dia origine ad una immagine circolare al cui interno è inscritto perfettamente il rettangolo del sensore full frame. Nella figura 03a invece, si può vedere come l’immagine circolare dello stesso obiettivo, sia molto più grande di un sensore APS-C. In questo caso, l’immagine sarà ancora migliore in quanto il sensore cattura solo la porzione centrale del cerchio eliminando così le imperfezioni che hanno luogo sui bordi delle lenti. Sempre in questo caso però, guardando la figura 03b, possiamo vedere come le dimensioni più piccole del sensore, facciano si che l’immagine risulti ingrandita di un fattore 1,5 (notare la differenza con la figura 02b).
Nella figura 04a invece, è facile notare come il cono generato da un obiettivo APS-C, sia troppo piccolo per dare un’immagine circolare sufficiente a coprire tutto il sensore full frame. In questo caso, possiamo vedere dalla figura 04b, che la foto non è utilizzabile essendo presente un grande un bordo nero.
Compreso quanto detto, c’è da fare una precisazione per quanto riguarda le eccezioni. Alcune macchine fotografiche full frame infatti, possono montare gli obiettivi per APS-C della stessa marca rinunciando ad una porzione del sensore. In questi casi infatti, soltanto la parte centrale del sensore viene utilizzata ottenendo quindi un crop dell’immagine che subisce nuovamente l’ingrandimento di 1,5x e diminuisce il proprio numero dei pixel.
Sensori CCD
I sensori CCD o “Charge-coupled device”, sono fatti come una griglia di pixel fotosensibili. Ogni pixel trasforma il raggio luminoso in una carica elettrica poi trasferita al pixel adiacente e via via scorrendo sulla riga e poi passando alla riga successiva. Quindi le cariche di ogni singolo pixel vengono lette a righe e trasformate in corrente elettrica (segnale analogico). Dopo l’amplificazione, il segnale viene convertito in digitale dal processore. Questo tipo di sensori sono molto sensibili ma consumano molta energia e sono costosi in quanto necessitano di impianti di produzione appositi ed altamente specializzati. L’altro difetto è che non sono molto veloci a causa del trasferimento di cariche. Fino a pochi anni fa, i CCD erano i migliori sensori per macchine fotografiche e quelli più largamente utilizzati.
Sensori CMOS
I sensori CMOS o “Complementary metal oxide semiconductor”, trasformano la luce in corrente elettrica senza il trasferimento di cariche da un pixel all’altro come nei CCD e per questo sono più veloci. Altra differenza è che l’amplificatore è integrato nello stesso chip e quindi il segnale che ne esce va direttamente al processore di immagine. I sensori CMOS sono molto più economici dei CCD in quanto utilizzano gli stessi impianti di produzione dei microchip che vengono usati anche come processori di computer. Consumano inoltre molto meno dei CCD ma fino a qualche anno fa, erano meno sensibili, più grandi e soffrivano di maggior rumore elettrico. Nel 2010, i sensori CMOS sono stati migliorati a tal punto che, non solo la maggior parte delle reflex li hanno adottati, ma hanno fatto la loro comparsa anche nelle prime fotocamere compatte. Infatti ne è stata grandemente aumentata la sensibilità, drasticamente ridotto il rumore e le dimensioni. Quindi, allo stato attuale, i CMOS consumano meno dei CCD, sono molto più economici, più veloci nel formare le immagini e quindi hanno prestazioni più elevate nelle raffiche, sono compatti, molto sensibili e con scarsissimo rumore. Di sensori CMOS ne esistono di due tipi principali il tipo che utilizza il “Color filter array” ed il tipo chiamato Foveon. Il primo è il più largamente utilizzato mentre il secondo è usato, a tutto il 2014, soltanto da pochissime macchine fotografiche.
Funzionamento del sensore CMOS con Color filter array RGB
Il sensore elettronico di una fotocamera, è costituito da un rettangolo contenente dei fotositi che catturano la luce e la convertono in un segnale elettrico (figura 05).
Ogni fotosito dà origine ad un pixel nella fotografia. Il fotosito è sensibile all’intensità della luce ma non alla sua lunghezza d’onda. Questo significa che i fotositi del sensore non sono in grado di distinguere i colori.
05 Sensore CMOS.
Fotositi
Quindi, il segnale luminoso che colpisce ogni fotosito, viene misurato per la sua intensità e trasformato in segnale elettrico senza l’informazione relativa al colore. L’immagine che risulterebbe a questo punto, è un’immagine in tonalità di grigio. Ogni fotosito riceve infatti la luce con una intensità differente che viene rappresentata in una diversa tonalità compresa tra il bianco (100% di luminosità) ed il nero (0% di luminosità). Quindi se immaginiamo di inquadrare un panorama con gli alberi ed il sole nel cielo, il fotosito che riceve la luce dal sole potrebbe avere un valore di luminosità pari a 100% e quindi risultare bianco, il fotosito che riceve il segnale luminoso di una foglia degli alberi, sarebbe grigio (tra il bianco ed il nero). E’ a questo punto che interviene il “color filter array RGB”, il filtro presente sulla superficie del sensore. Questo filtro ha le esatte dimensioni del sensore ed è suddiviso in tante parti quanti sono i fotositi e quindi i pixel totali della fotocamera.
Ognuna di queste parti combacia perfettamente con il fotosito sottostante. E’ come un mosaico di filtri assemblati tra loro a costituire un reticolo (figura 06). Come si vede nella figura 07, il filtro è montato sul sensore in modo da far combaciare ogni casella con il fotosito sottostante.
06 Color filter array RGB.
07 Posizionamento del filtro sul sensore.I tasselli del mosaico combaciano perfettamente con i fotositi.
Come si vede dalla figura 06, ogni tassello del filtro a mosaico, può assumere uno dei tre colori dell’ RGB, il verde, il rosso ed il blu. Ognuno di essi, lascia passare l’insieme delle lunghezze d’onda di uno dei tre colori. In questo modo, il fotosito sottostante, sa che l’intensità della luce misurata, corrisponde al colore del filtro sopra di esso. Ma ogni pixel della fotografia deve avere le informazioni relative a tutti e 3 i colori e quindi non basta. Infatti in questo modo si crea un’immagine detta a “mosaico”, in cui ogni pixel ha una sola componente colorata. L’immagine così generata, è il “formato Raw”.
Algoritmo di demosaicizzazione
Per attribuire ad ogni pixel le informazioni sui restanti due colori, occorre dedurle da quelli adiacenti. A questo scopo serve l’algoritmo di demosaicizzazione. L’immagine generata fino a questo punto infatti, è un mosaico composto da punti, ognuno dei quali ha un solo colore ed una determinata luminosità. Il processore della macchina fotografica, a questo punto, elabora i dati con l’algoritmo di demosaicizzazione aggiungendo ad ogni pixel le informazioni sui due colori mancanti. In pratica, i due colori mancanti di un pixel vengono stimati utilizzando quelli dei fotositi adiacenti che a loro volta hanno un solo altro colore per ciascuno (figura 08).
08a/b Demosaicizzazione
Al fotosito (rosso) preso in esame in questa figura, mancano le informazioni sul colore blu e sul colore verde. Le informazioni vengono calcolate dal processore a partire da quelle dei fotositi adiacenti.
Esistono diversi algoritmi di demosaicizzazione che in buona sostanza sono simili tra loro. Ad ogni modo la differenza sta nel fatto che quelli più raffinati, richiedono potenze di calcolo superiori e necessitano di processori molto potenti che quindi sono anche molto costosi. Un diverso algoritmo per esempio è rappresentato dall’ RGB-E che sfrutta un filtro a 4 colori; alcuni di questi algoritmi sfruttano filtri con diversi colori tra cui il bianco ma il principio di funzionamento è il medesimo nelle linee generali ed i colori non superano mai il numero di 4.
Profondità del colore
Come già detto, il sensore converte la luce in un segnale elettrico digitale. La luce, avendo come unità fondamentali o “quanti” i fotoni, può essere considerata un segnale analogico con buona approssimazione, per l’uso che concerne la fotografia. Un segnale analogico, assume valori continui e senza interruzioni tra loro. Il segnale elettrico digitale invece, è quantizzato; ossia, di tutti i valori che l’intensità della luce può assumere, assume solo valori discreti.
I sensori di buona qualità, dedicano 8 bit per ciascun colore facendone scaturire una profondità di colore di 24 bit.
8 bit si traducono in “2 elevato alla ottava” colori e quindi 256 variazioni. Se moltiplichiamo 256x256x256, otteniamo i circa 16,7 milioni di colori possibili, identificati dal valore 24 bit chiamato “True color”. Spesso però, nei calcoli, i processori utilizzano valori a 12 o 16 bit per canale per evitare che si perdano dettagli negli arrotondamenti matematici; poi salvano file a 8 bit per canale; oltre gli 8 bit infatti, non vi è alcun miglioramento apprezzabile.
Funzionamento del sensore CMOS Foveon
Il sensore CMOS Foveon, è un altro tipo di sensore CMOS che funziona con una tecnologia differente e non necessita del filtro CFA in quanto i suoi fotositi catturano anche le informazioni sulla lunghezza d’onda e quindi sui colori.
In pratica per ogni punto o pixel dell’immagine finale, ci sono 3 fotositi dedicati ognuno dei quali identifica l’intensità ed uno dei tre colori RGB della luce che lo colpisce. In questo modo 3 fotositi daranno origine ad un solo pixel ma senza la necessità di interpolazione o di demosaicizzazione. Questo è un vantaggio in quanto l’informazione ricevuta dalla luce non viene sprecata ma un sensore Foveon da 9 Mp totali darà origine ad una fotografia di soli 3 Mp. Attualmente la Foveon è stata acquisita dalla Sigma che è la sola a produrre macchine fotografiche che utilizzano tale sensore ma con un N° totale dei pixel molto più basso dei concorrenti.