Home Cinema Intelligenza artificiale e cinema

Intelligenza artificiale e cinema

31
0

L’intelligenza artificiale, nei film, ormai si occupa un po’ di tutto: dall’analisi delle sceneggiature (e dei loro potenziali incassi) al casting

Quando negli anni ’70 Stanley Kubrick pensò di realizzare A.I. – Intelligenza Artificiale, adattando il racconto Supertoys che durano tutta l’estate di Brian Aldiss, storia di un bambino robot rifiutato dalla mamma poi portata a termine nel 2001 da Steven Spielberg, non immaginava che l’IA, la cosiddetta intelligenza artificiale, sarebbe entrata a far parte dell’industria cinematografica molto prima di quanto prevedesse la fantascienza. E in un modo diverso da quanto immaginato dal cinema, che l’ha quasi sempre antropomorfizzata e associata alle emozioni umane, da Blade Runner all’Hal 9000 di 2001: Odissea nello Spazio dello stesso Kubrick, da Io, Robot a Lei, da Transcendence a Ex-Machina fino al recente Free Guy: Eroe per gioco.


Intelligenza primordiale  

In realtà l’intelligenza artificiale, intesa come software ed algoritmi, è utilizzata nel mondo del cinema da molto tempo: basti pensare che già nel 2000, prima dell’uscita del film tanto agognato da Kubrick, Stephen Regelous, ingegnere informatico neozelandese, aveva creato Massive un programma in grado di simulare una folla di persone digitali in grado di agire e reagire in base ad una forma di intelligenza sintetica, per realizzare le scene di combattimento di massa de Il Signore degli Anelli. Messi sul campo di battaglia i soldati digitali avevano imparato a scontrarsi scegliendo di volta in volta, anche in base al comportamento dei nemici, ad avanzare, attaccare, difendersi, morire. “Per dar modo a questi agenti di stabilire quali azioni compiere, fu creato un cervello che poteva considerarsi una forma primordiale di IA”, mi spiega Mike Ford, Chief Technical Officer della società di effetti visivi Sony Pictures Imageworks, alla View Conference di Torino. “Ma in fondo le scelte possibili erano predeterminate dall’uomo in un numero piuttosto limitato”. “Quando nel 1992 studiavo informatica, insegnai a una rete neurale molto semplice a riconoscere occhi, naso e bocca analizzando foto di volti”, dice Paul Debevec, anche lui tra gli ospiti di View: vincitore di due Oscar per il suo contributo al cinema, per anni ha lavorato alla tecnologia per creare visi digitali al cinema, prima di approdare di recente a Netflix. “I principi che informano questi algoritmi sono molto simili a quelli di ieri, ma la potenza computazionale oggi consente di addestrare questi software in modo da analizzare una quantità smisurata di dati e di conseguenza di ricevere di fronte a un problema anche risposte non previste dai programmatori”. 

Deep fake per il grande schermo

Un esempio di quanto siano migliorati questi algoritmi è nei deep fake, quei video in cui si sovrappone il volto di un attore a quello di un altro in una scena famosa, come nel caso di Jim Carrey al posto di Jack Nicholson in Shining: in questo caso l’IA immagazzina le caratteristiche del volto nuovo e lo “incolla” su quello originale, come fosse una maschera che ne acquisisce le espressioni. “Questa tecnologia è interessante, anche se ancora immatura per reggere la qualità video e la durata degli effetti richiesta dal cinema rispetto a Youtube”, dice Ford, “ma non c’è dubbio che gli studios la stiano studiando per soluzioni di vario tipo, come quella di resuscitare attori defunti o per ringiovanire interpreti vecchi. Anche se alla base c’è sempre bisogno di una valida performance e magari ritocchi digitali da parte degli artisti”. Nonostante quanto dice Ford sia condiviso da altri esperti di effetti visivi, la tecnologia ha già fatto ingresso nel cinema mainstream: “I supervisori di effetti visivi di Welcome to Chechnya, documentario HBO che racconta il tentativo di alcuni omosessuali di fuggire dalla Cecenia dove sarebbero arrestati e torturati, ne hanno sostituito i volti, per proteggerne l’identità, con quelli di attivisti, utilizzando proprio il cosiddetto deep fake”, spiega Debevec.

Algoritmi per il successo

Se gli algoritmi sono formule che tentano e spesso riescono a risolvere problemi complessi, è chiaro che non c’è niente di meglio per l’industria del cinema di rivolgersi ad essi nel tentativo di garantirsi il successo. A Hollywood infatti sono nate molteplici aziende che promettono di utilizzare l’intelligenza artificiale per anticipare la performance al box office di nuovi progetti: Warner Bros ha firmato un accordo con la società californiana Cynelitic, che sfrutta la tecnologia utilizzata per fare previsioni a Wall Street per analizzare il potenziale incasso di un nuovo film in base al genere, gli attori, il regista, la lunghezza e tutto quanto si può ricavare sul mercato dei dati sui gusti degli spettatori. La società belga Scriptbook, in maniera analoga a quanto fanno l’israeliana Vault AI e la svizzera Largo, propone invece un software che, avendo digerito oltre 30mila sceneggiature esistenti, comparandole col risultato al botteghino, è in grado quando ne analizza una nuova di capire se avrà successo o sarà un flop. Gli Studios non vedono l’ora di capire in anticipo come investire i propri soldi: 20th Century Fox ha lavorato insieme a Google per usare algoritmi di riconoscimento delle immagini per analizzare gli elementi contenuti in un trailer (volti, ambienti, oggetti, scene d’azione, romantiche eccetera) e compararli con quelli di altri film, per trovare elementi comuni che, in teoria dovrebbero attrarre lo stesso tipo di pubblico e studiare apposite strategie di marketing.

Dalle proiezioni test ai segreti delle emozioni

L’analisi predittiva a Hollywood d’altronde è sempre stata utilizzata: fino a ieri le case di produzione facevano una serie di proiezioni test prima dell’uscita di un film e in base alle risposte al questionario di campioni selezionati di pubblico decidevano se cambiare titolo, montaggio, accorciare o allungare, addirittura rigirare da capo alcune scene. Oggi però si vuole passare dall’analisi soggettiva a quella oggettiva: la startup francese Datakalab lavora per l’industria del cinema e dello streaming, e utilizza algoritmi di deep learning per analizzare i volti degli spettatori delle proiezioni test, che si prestano consapevolmente, per aggiungere ai dati ricavati dal questionario, quelli su cui nessuno può mentire, come la soglia di attenzione ma anche, in base all’espressione, felicità, sorpresa, tristezza, disgusto, paura e altre emozioni misurabili fotogramma per fotogramma. In tal modo i produttori possono per esempio tagliare o modificare una sequenza comica che non fa ridere. La spagnola Sociograph addirittura ricava i dati sulle emozioni degli spettatori non solo dalle espressioni facciali ma anche dal cambiamento dell’attività elettrica sulla pelle individuato grazie a sensori posti sulle loro dita. La tecnologia è talmente sofisticata che per esempio si può presentare anche una sola identica scena test di un film girata con attori differenti per capire quale sia quello più gradito, influenzando così il casting.

L’IA che cambia la performance

Fuori dal campo del mero vaticinio affidato al software, che comunque è stato validato come più efficace della previsione umana da uno studio del 2016 di Michael T. Lash e Khao Zhang dell’Università dell’Iowa l’IA, sta popolando Hollywood in ogni campo, stravolgendo il tessuto stesso del cinema, vale a dire quello della performance: Flawless ha messo a punto un software in grado di estrarre da un film le caratteristiche facciali di un attore per rimodellarne i movimenti della bocca. “Dopo aver diretto Robert De Niro in Bus 657, un giorno ho visto il film doppiato e mi sono reso conto che per aderire ai suoi movimenti labiali il significato di alcune battute era stato stravolto”, dice il regista Scott Mann, co-fondatore della società. “E così mi sono messo in testa di risolvere quel problema, ma usare gli effetti visivi tradizionali non ha portato ai risultati sperati. Finché mi sono imbattuto in una ricerca di Christian Theobalt del Max Planck Institute che ha cambiato le cose”. In sostanza partendo da quello studio Flawelss ha sviluppato un’intelligenza artificiale in grado di estrapolare da un film il modo che un attore ha di pronunciare le parole e ricostruirlo in 3D in modo da poter cambiare i movimenti delle labbra per coincidere finalmente con il doppiaggio. “Il doppiatore recita le battute tradotte in maniera fedele all’originale, perché non ci si deve più preoccupare dei movimenti labiali originali, ed è poi il software a ricrearli artificialmente per farli coincidere col parlato”. Nonostante Mann specifichi che non si tratta di una tecnologia a buon mercato, la soluzione si rivela interessante per registi che vogliono cambiare la battuta di un attore in postproduzione senza dover rigirare una scena ma soprattutto per le piattaforme globali di streaming che devono rendere disponibile un film in molteplici lingue. L’adattamento diventerà ancor più convincente quando le case di produzione, con l’approvazione degli attori, utilizzeranno la soluzione sviluppata da Deepdub, startup di Tel Aviv in grado di far imparare al software ogni sfumatura della voce originale di un interprete facendole analizzare solo 15 minuti di audio, per poi restituire una traduzione in qualsiasi altra lingua pronunciata dalla medesima voce.

L’insaziabile fame dello streaming

“Soluzioni affidate all’IA si stanno sviluppando in ogni campo e soprattutto in quello degli effetti visivi perché, nell’era dello streaming, c’è un insaziabile desiderio di nuovi contenuti e bisogna accelerare i tempi di produzione”, dice Mike Ford. “Per esempio nel motion capture, siccome l’intelligenza artificiale è in grado di correlare tantissime performance di attori fatte in passato con i personaggi digitali da esse ricavati, una volta che un nuovo attore esegue una performance si può avere già in tempo reale un primo risultato convincente di trasposizione delle espressioni facciali sul nuovo character, in modo che il regista capisca se la performance va bene, senza dover aspettare settimane per l’elaborazione al computer”. “Un esempio significativo in tal senso è quello fatto da Digital Domain che già nel 2019 ha creato un clone digitale del direttore della ricerca e sviluppo Doug Roble, chiamato DigiDoug, capace di eseguire una performance in diretta grazie all’utilizzo del machine learning”, spiega Debevec. L’idea, almeno per il momento, è che l’intelligenza artificiale farà il lavoro di base e poi un essere umano dovrà rifinire il risultato, “anche perché l’artista deve avere il controllo per rispondere alle esigenze di poter cambiare la scena da parte del supervisore degli effetti visivi e del regista e finora le reti neurali non garantiscono questo livello di controllo”. La cosa estremamente promettente però è che, proprio perché impara dai dati a disposizione, il machine learning può offrire soluzioni inedite. “Per esempio”, dice Debevec “abbiamo fornito a una rete neurale foto di facce di 70 persone scattate con espressioni diverse, sotto molteplici angolazioni e con diverse illuminazioni e la stessa è stata in grado di capire da sola, una volta presentato un viso mai analizzato prima come ricostruirvi sopra le varie ombre e riflessi ogni qual volta si cambiava lo sfondo e la relativa illuminazione. Questa ricerca apre incredibili possibilità per il cinema di cambiare la fotografia di una scena dopo che è stata girata, senza doverla girare dal vivo”.

Registi elettrici

Se qualcuno come Oscar Sharp ha tentato addirittura con Zone Out a creare un film affidando la sceneggiatura e poi la regia a un software, usando scene di film prive di copyright, che sono però state montate senza riuscire a creare un convincente filo narrativo, chiediamo a Debevec se pensa che un’intelligenza artificiale potrà mai in futuro sostituirsi a un cineasta: “Credo sia difficile automatizzare la narrazione, che ha a che fare con l’intuizione di un artista capace di prevedere quale sarà la reazione del pubblico di fronte alle varie scene. A meno che non si crei un’intelligenza artificiale che simuli le reazioni del pubblico, in modo da testare le varie scene per ottenere film sempre migliori. Ma questo vorrebbe dire simulare un essere umano, che è un obiettivo infinitamente più complesso che raccontare una storia”. 

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui