Ormai ci siamo abituati agli algoritmi che selezionano e ci suggeriscono tracce musicali scelte in base ai nostri gusti e alle nostre abitudini d’ascolto e difatti non ci facciamo più tanto caso, anzi, ci meravigliamo se ogni tanto la selezione musicale non è propriamente adatta a noi, eppure, solo qualche anno fa, quello che oggi ci appare scontato non lo avremmo neanche immaginato.
In pochissimo tempo, l’intelligenza artificiale non solo ha cambiato il nostro modo di fruire della musica, ma anche la maniera di comporla, regalandoci suoni, armonie e contenuti inimmaginabili, creati interamente dalle AI, oppure facendo queste ultime da supporto ai compositori, arricchendone il processo creativo e aprendo nuove possibilità espressive (ve lo avevamo già raccontato in questo articolo).
E, mentre ancora si dibatte sull’attribuzione di paternità di un’opera interamente creata da AI e sui suoi diritti d’autore, ci ritroviamo a chiederci se sia eticamente corretto utilizzare un algoritmo per riprodurre la voce di un cantante che non c’è più per creare una nuova canzone o per ascoltare dalla sua voce quell’inedito che non ha fatto in tempo a registrare, e ancora se abbia senso andare ad un concerto di un musicista morto 30 o 40 anni addietro.
Scopri il nuovo numero: “Il Futuro è aperto 2024”
Il futuro tecnicamente non esiste. Lo possiamo immaginare, disegnare, raccontare e poco altro. Anzi no, possiamo anche viverlo proiettandoci in un tempo lontano da noi con il rischio, però, di perdersi tra i vari farò e dirò. L’unica cosa che si può fare è stare nel presente per costruirselo, il Futuro.
Non c’è bisogno di salire sulla DeLorean inventata da Doc in “Ritorno al Futuro” per assistere ad un concerto dal vivo di un cantante o di un band non più in vita, basta affidarsi all’altissima tecnologia creata dall’Intelligenza Artificiale con l’ausilio di registrazioni e filmati d’epoca per creare un Avatar (ologramma tridimensionale a grandezza naturale) del personaggio defunto in grado di offrire un’esperienza emozionale ed immersiva pari all’ascolto in presenza.
Fantascienza? Assolutamente no! Tangibile realtà!
È di qualche giorno fa l’annuncio del tour mondiale di Elvis Presley che partirà da Londra nel 2024 e toccherà diverse città, tra cui Las Vegas, Tokyo e Berlino.
Ma com’è possibile ricreare un’esperienza pari ad un concerto live a tutti gli effetti?
Lo spettacolo, dal titolo “Elvis Evolution”, ideato dalla compagnia britannica Layered Reality, non prevede soltanto l’utilizzo dell’intelligenza artificiale, bensì un misto tra questa, proiezioni olografiche, realtà aumentata, teatro dal vivo ed effetti multisensoriali che permettono al pubblico di immergersi completamente nella performance, anche se l’artista è fisicamente assente, creando una connessione emozionale unica tra lo spettatore e l’artista, benché quest’ultimo sia solo un’ombra digitale del passato.
Del resto, non è la prima volta che si tenta (con successo) un’impresa del genere: tra il 2018 e il 2020 si sono tenuti spettacoli come “Dio Returns”, il progetto che ha portato l’iconico cantante heavy metal Ronnie James Dio (scomparso nel 2010) di nuovo sul palco in forma di ologramma, “The Inevitable World Tour”, tour mondiale che ha visto la resurrezione virtuale del leggendario cantante Roy Orbison (scomparso nel 1988) esibirsi con un’orchestra dal vivo e “An Evening with Whitney”, scintillante spettacolo dell’ologramma di Whitney Houston (scomparsa nel 2012).
Non solo musicisti morti e redivivi per l’occasione, ma anche nostalgia di antichi fasti musicali di un tempo che scorre inesorabile e restituisce giovani band composte ormai da sopravvissuti componenti agée (e che magari si sono sciolti trent’anni prima); eppure, quello che apparentemente sembrerebbe immagine decadente, capace di suscitare l’attenzione di qualche nostalgico, riscuote successo di pubblico e critica, come ad esempio “Abba Voyage”, che ha riprodotto sotto forma di ologramma a grandezza naturale gli Abba così come apparivano nel 1979, all’apice della loro carriera artistica, riuscendo a staccare 1,3 milioni di biglietti.
Evidentemente, un mercato in forte crescita che non attira solo curiosi e amanti del passato, altrimenti non si spiegherebbe il successo del lancio di “Now and Then”, ultimo singolo dei Beatles realizzato con l’ausilio dell’Intelligenza Artificiale, che partendo da un provino ha riprodotto la voce di John Lennon, permettendo ai 4 di riunirsi (almeno virtualmente) e generando quasi 44 milioni di visualizzazioni, entrate significative e nuove opportunità commerciali per gli eredi degli artisti e per le case discografiche.
Ma è davvero questo il futuro delle produzioni musicali?
Ce lo chiediamo ancora mentre ci sembra che la realtà assomigli sempre più a quel mondo distopico raccontato da George Orwell nel suo più celebre romanzo, “1984”, dove uno strumento elettronico (il “versificatore”), compone musica mischiando parole a caso e senza alcuna emozione, e dove la realtà comincia ad essere tutt’altro che reale e tangibile.