I video dello sbarco sulla Luna come non li avete mai visti, restaurati dall'intelligenza artificiale

Grazie all'intelligenza artificiale, gli storici video degli sbarchi sulla Luna, poco nitidi e sgranati, diventano in alta risoluzione. E ci offrono uno spettacolo ancora più emozionante

(foto: The Life Picture Collection via Getty Images)

Time & Life Pictures

Sebbene l'emozione rimanga sempre la stessa anche dopo aver visto mille volte gli storici video degli sbarchi sulla Luna, bisogna ammetterlo: sgranati e sfocati, la loro qualità non è proprio delle migliori. Ma oggi, in occasione dei 51 anni del primo allunaggio (avvenuto nella notte del 20 luglio 1969), a renderli in alta definizione e quindi ancora più spettacolari, arriva l'intelligenza artificiale (Ai) che è riuscita a restaurare alcuni dei video originali delle missioni Apollo. I risultati? Foto e immagini incredibilmente nitidi e definiti.

A riuscire nell'impresa è stato un esperto del restauro di foto, immagini e video, chiamato DutchSteamMachine, che è riuscito, per esempio a produrre una versione in alta definizione del famosissimo video del primo passo sulla Luna, offrendo immagini di Neil Armstrong così chiare e nitide come mai finora.

0yvCbt_vw-M&feature=emb_logo

Oppure ha potenziato il video originale di Charlie Duke, pilota del modulo lunare nella missione Apollo 16 del 1972, decimo uomo ad aver camminato sulla superficie lunare, e il comandante John Watts Young (nono uomo ad aver messo piede sulla Luna) girato con 12 fotogrammi al secondo (Fps), fino a ben 60 Fps.

bTQ-SmeLTl8&feature=emb_logo

L'intelligenza artificiale utilizzata da DutchSteamMachine si chiama Depth-Aware video frame Interpolation, o, più brevemente, Dain. Questa Ai, open source e gratuita, è una tipologia di elaborazione video in cui vengono generati fotogrammi intermedi tra quelli già esistenti, con lo scopo di rendere il video più fluido e migliorare, inoltre, le immagini sfocate e sgranate. Il miglioramento di un video di soli 5 minuti, spiega la DutchSteamMachine, ha richiesto dalle 6 alle 20 ore.

Ma come funziona? Per prima cosa bisogna trovare il video originale della miglior qualità possibile, e cominciare a modificare da lì, spiega DutchSteamMachine. L'Ai cerca di scoprire a quale frequenza di fotogrammi è stato girato il video, informazione che di solito si trova nei documenti della Nasa o, come nel caso del filmato sulla Luna dell'Apollo 16, sono gli stessi astronauti ad averlo comunicato quando hanno acceso la fotocamera. Per risparmiare e registrare per periodi di tempo più lunghi, la maggior parte dei video è stata girata a 12, 6 o anche 1 fotogramma al secondo.

ggrctQg4I_c&feature=emb_logo

Successivamente, si divide il file originale in singoli frame Png, poi l'intelligenza artificiale li elabora e, utilizzando algoritmi, analizza i movimenti degli oggetti di due frame reali e consecutivi, creandone di nuovi. Da una frequenza di fotogrammi iniziale, come 1, 6, 12 o 24 al secondo, l'Ai riesce a elaborane una nuova in base alla velocità di interpolazione desiderata (2x, 4x, 8x). Per esempio, se il filmato originale è stato registrato a 12 Fps e il tasso di interpolazione è impostato su 5x, il video finale sarà di 60 Fps, il che significa che con solo 12 fotogrammi reali l'Ai è riuscita a produrre 48 fotogrammi falsi. Infine, si applica la correzione del colore, si sincronizza l'audio e il gioco è fatto. I risultati parlano da soli, buona visione!