
Continua il percorso di avvicinamento alla nuova generazione di flagship X80 di Vivo, che saranno presentati in Europa nel corso delle prossime settimane. In virtù della collaborazione con Zeiss, il brand sta coinvolgendo alcune testate selezionate in una serie di approfondimenti online sulla fotografia. Del primo appuntamento vi abbiamo reso testimonianza e si è focalizzato su come la partnership tra le due aziende vuole essere un momento di innovazione nella fotografia in mobilità. Il secondo appuntamento è stato invece dedicato al colore. Partendo dalle basi, ossia dalle frequenze percepibili dall’occhio (i colori non sono altro che onde elettromagnetiche di frequenza e ampiezza differente percepibili da opportuni sensori, gli occhi per l’appunto), si è arrivati a comprendere la differenza tra una foto con colori realistici e colori post-prodotti.

La sostanziale differenza tra i due metodi parte da una considerazione: non solo le persone vedono il colore in modo diverso, ma la stessa persona percepisce le informazioni cromatiche in modo differente a seconda del momento. Sono tantissime le variabili che intercorrono tra ciò che il sensore recepisce (l’occhio) e quello che è elaborato dal cervello. Dunque non sempre una foto realistica “piace” o appare di qualità superiore rispetto a una sulla quale l’intelligenza artificiale dello smartphone ha applicato una post produzione per enfatizzare i contrasti, i colori e così via.






Posto che si tratta di una scelta di gusto personale, alla resa dei conti è sostanzialmente identica la difficoltà di rappresentare in modo realistico o migliore ciò che si vede dal vivo e ciò che è fotografato. Questo perché, spiegano Zeiss e Vivo, quando si esegue una foto dallo smartphone le informazioni catturate in forma di dati discreti devono essere trattati partendo dalle informazioni elettriche del singolo pixel, trasformate in bit gestibili dal processore (per esempio, è importante operare a 10 bit perché si hanno più informazioni da trattare) e poi applicando opportuni moltiplicatori e formule matematiche che ricostruiscono i colori realistici oppure enfatizzati. Tra questi moltiplicatori e formule figurano funzioni che spesso leggiamo sui menu del device mobile o del software di editing: bilanciamento del bianco, contrasto, saturazione, esposizione, hdr, curve cromatiche, bianco e nero e così via.






Infine, per tenere conto della complessità del tutto bisogna costruire algoritmi che trattano casi specifici. Come nel caso della percezione da parte dell’utente: il cervello è abituato a ridurre al massimo il tempo di riconoscimento degli oggetti, analizzando colori e materiali. Esistono dei colori che si imparano a “memoria”, come il verde dell’erba, il giallo della banana, l’arancione dell’arancia o l’azzurro del cielo. Quando vediamo questi e altre centinaia di elementi il nostro cervello è “forzato” ad attribuire il colore che si è imparato ad associare allo specifico oggetto. Malgrado tutto, malgrado i contrasti della foto, malgrado il fatto che il colore effettivo sia differente. La memoria si sforza di “vedere” e fare percepire alla persona l’oggetto nel colore più prossimo a quello memorizzato o naturale. Dunque, soprattutto quando le foto da elaborare sono particolarmente complicate, il compito dell’algoritmo è riportare al “colore della memoria” gli oggetti più noti. Ed è per questo che, per esempio, l’IA di Zeiss e Vivo riconosce alcuni scenari specifici: per fare in modo che in questi contesti la fotografia sia allineata alla percezione e alle aspettative dell’utente.

Alla resa dei conti, ciò che succede nella realtà è che non vediamo mai solo il colore: il cervello costruisce, o ricostruisce, un’immagine. Osservando qualcosa attingiamo ai nostri ricordi e alla conoscenza di come dovrebbero apparire le cose, aiutando il nostro cervello a compensare istantaneamente variabili come l’intensità della luce.
Ma come è possibile “insegnare” a un sistema di fotocamera a vedere le cose come lo fa un essere umano? E come possono gli smartphone con più fotocamere offrire un’esperienza di colore coerente in cui le foto grandangolari hanno la stessa resa di colore quelle in modalità ritratto? Questa è la l’arte della scienza del colore. Tra le diverse innovazione su cui vivo e Zeiss stanno lavorando all’interno dello Zeiss Imaging Lab c’è sicuramente quella di portare nuovi standard di qualità dell’immagine e della resa dei colori sugli smartphone vivo.
Ecco 5 curiosità sui colori presentate David Abreu – Senior Scientist, Mobile Imaging, ZEISS Consumer Products – che spiegano come questi vengono utilizzati per permettere agli utenti di realizzare scatti straordinari con gli smartphone vivo.
1. Il colore è un processo: che si tratti dei bastoncelli e dei coni nei nostri occhi o dei sensori Bayer RGB di una fotocamera digitale, riprodurre il colore è un processo complesso. Quando si vede il colore, il cervello umano compensa dinamicamente variabili come il modo in cui i nostri occhi percepiscono le diverse lunghezze d’onda della luce o come l’illuminazione di una scena influisce su ciò che percepiamo. Ad esempio, quando vediamo una banana gialla sotto una lampadina blu, la vediamo comunque gialla. Questo perché il nostro cervello usa anche la memoria di come le cose dovrebbero essere per creare la nostra percezione.


2. La percezione umana non è fedele ai colori perfetti: anche se incredibilmente sofisticata, la percezione umana ha i suoi limiti. Ad esempio, guardando una scena vicino ad un fuoco vediamo un alone caldo e arancione poiché il sistema visivo non sempre corregge il bilanciamento del bianco in situazioni estreme. Per lo stesso motivo, una scena durante la “golden hour” appena dopo l’alba ha un aspetto caldo distintivo. Di conseguenza, la creazione di un colore perfetto in una fotocamera non corrisponderà alle peculiarità della visione umana. Replicare questi processi per far corrispondere la visione artificiale a quella umana è una sfida chiave della scienza del colore e guida la ricerca e lo sviluppo di algoritmi da parte di vivo e Zeiss per riprodurre la percezione umana.


3. In laboratorio e sul campo: gli studiosi del colore, in vivo, utilizzano sia i test di laboratorio con attrezzature e obiettivi specializzati sia scatti del mondo reale. La resa dei colori in contesti comuni come il colore verde dell’erba deve davvero sembrare come se lo si vedesse dal vivo. Questo è garantito proprio dall’utilizzo in fase di test di entrambe le immagini e ottenuto ricalibrando il sistema di fotocamere per assicurare che le immagini risultino quanto più vicine possibile alla realtà.

4. Colori diversi per utenti appassionati e professionisti: riprodurre il colore è una questione di precisione ma anche di giudizio. “Il sistema di imaging può puntare a ricreare i colori così come sono, come vengono ricordati o come l’utente vuole che siano”, spiega David Abreu. “Sappiamo che gli utenti desiderano immagini più vivide e pronte per essere condivise. Queste potrebbero non essere strettamente fedeli alla realtà, ma sembrare più vicine a come le sperimentiamo e ricordiamo”. Per questo motivo i dispositivi vivo offrono due diverse modalità di colore: vivo Vivid Colour, che offre una resa dell’immagine più colorata e piacevole direttamente elaborata dalla fotocamera e Zeiss Natural Colour, che garantisce una resa del colore più fedele e accurata. Questa seconda modalità è particolarmente adatta per i fotografi e i professionisti più ambiziosi che vogliono regolare manualmente l’aspetto delle loro immagini, offrendo un punto di partenza più neutro per la post-produzione dei colori.


5. Creare un’esperienza cromatica coerente con più sistemi di fotocamere: gli smartphone di fascia alta come quelli della serie X di vivo offrono sistemi di imaging incredibilmente sofisticati con più moduli fotocamera che soddisfano un’ampia gamma di esigenze, dai selfie alla macro al grandangolo fino al teleobiettivo. Tuttavia, garantire che tutto questo hardware funzioni in modo coerente è di per sé un’arte: ogni elemento della catena di imaging – dall’obiettivo al sensore – influisce sulla resa dei colori. Lenti diverse hanno proprietà di assorbimento diverse per diverse lunghezze d’onda della luce, ognuna delle quali deve essere corretta di conseguenza. Allo stesso modo i diversi sensori possono rispondere a colori diversi in modo diverso. All’interno del vivo Imaging Lab, viene posta un’attenzione particolare per testare, calibrare e abbinare correttamente il colore di ciascun modulo della telecamera per garantire un output coerente.
