Uno dei motivi per i quali scegliamo un nuovo smartphone piuttosto che un altro è perché scatta belle foto. Si è passati di recente dall’avere una sola fotocamera integrata a ben tre, e molti pensano che sia solo l’aumento dei componenti fisici a regalarci foto migliori. In realtà questo è vero solo in parte, perché molto del lavoro viene fatto via software, ossia da un codice integrato che lavora in automatico per migliorare gli scatti.

Pensate per esempio a quando scattate una foto in un ambiente con poca luce: senza che facciate nulla, ci pensa il telefono a creare un’immagine abbastanza luminosa da poter vedere il soggetto. In parte il merito va ai sensori fotografici, ossia a quei componenti fisici che catturano la luce: in questo senso avere tre sensori invece che uno permette di raccogliere maggiori informazioni sulla scena che si sta inquadrando.

C’è però un limite fisico al numero e alle dimensioni dei sensori, dovuto al fatto che gli smartphone sono sottili e compatti rispetto alle macchine fotografiche, quindi non si possono installare ottiche gigantesche. Tradotto in altri termini, continueremo ad assistere a lievi miglioramenti sul fronte delle ottiche, ma una parte sempre più importante del lavoro dovrà essere fatto dal codice, ossia dal software.

La battaglia per la fotocamera migliore si gioca quindi in prospettiva su quella che viene definita “fotografia computazionale”, ossia sui calcoli che permettono di trasformare la luce che colpisce il sensore in un’immagine utilizzabile. L’esempio più banale di apporto computazionale alla fotografia è l’autofocus, con il rilevamento automatico di volti e occhi. Se ci fate caso, quando inquadrate un soggetto il “fuoco” dell’immagine è sempre sul volto, che risulta più nitido rispetto allo sfondo.

Con gli sviluppi della tecnologia però si sta andando oltre, per arrivare al risultato che tutti gli utenti vogliono: ottenere la stessa fedeltà cromatica, la stessa nitidezza e la stessa profondità della scena che si avrebbe con una fotocamera vera e propria. Senza essere esperti di fotografia. Come si ottiene tutto questo? Smantellando l’idea che abbiamo della fotografia –un’immagine statica, un’istantanea.

Foto: Depositphotos

 

Con gli strumenti moderni e l’impiego di codice evoluto, infatti, la foto viene vista come un flusso di immagini. Non c’è un otturatore che si apre e si chiude, esponendo lo strumento fotosensibile per una frazione di secondo. Il sistema della fotocamera sceglie un punto con cui iniziare a raccogliere informazioni, misurando la luce che colpisce il sensore. Quindi sceglie un punto in cui smettere di farlo. Poi ricava l’immagine statica che vediamo come risultato, che magari è frutto di 60 singoli fotogrammi.

In questo modo si evitano aree sovraesposte (troppo luminose) e sottoesposte (troppo buie) e si crea un contesto uniforme e piacevole da vedere. Gli appassionati di fotografia che usano le reflex digitali avranno pensato che quella appena descritta è la vecchia tecnica del “bracketing“, ed è esattamente quello che i nostri smartphone fanno (fra le altre cose) quando scattiamo una foto, a nostra insaputa. Lo fanno i nuovi telefoni di Google così come quelli di Apple.

Per fare sì che questi trucchi riescano è indispensabile una potenza di elaborazione che i vecchi smartphone non avevano, e una velocità e uno spazio di archiviazione che sono disponibili da poco. Oltre ovviamente a un codice di elaborazione delle immagini altamente raffinato ed evoluto. Ecco perché per avere uno smartphone che scatta foto di alto livello non basta una fotocamera da “N” megapixel, e perché gli smartphone da 20 megapixel in vendita oggi ci regalano foto migliori rispetto a quelli da 20 megapixel di 2 anni fa.

Non solo: in futuro assisteremo al passaggio a ottiche con più megapixel e ne avremo qualche beneficio, ma il futuro della fotografia è computazionale, non ottico. Qui i miglioramenti non sono lenti, avvengono a un ritmo incredibile e aprono opportunità a cui non pensiamo nemmeno, e a cui non abbiamo bisogno di pensare: fa tutto il software, noi dobbiamo solo scattare.

Articolo Precedente

Recensione ASUS ZenFone Max Pro M1: due giorni di autonomia e uno schermo grande per godersi i film

next
Articolo Successivo

Ponti e strade sotto controllo anche grazie agli smartphone degli automobilisti. L’ANAS fa scendere in campo il prestigioso MIT

next