La cantante Linda Thompson – tra gli artisti più brillanti della scena folk-rock britannica, negli anni ’60 e ’70 – giovanissima, ha perso la voce a causa di un disturbo neurologico. È accaduto progressivamente: si tratta della disfonia spasmodica che interessa la contrazione involontaria di diversi muscoli nel corpo, nel suo caso, quelli per lei più preziosi, della laringe. La soluzione ideata da Thompson – racconta un lungo articolo del New York Times dello scorso 20 giugno – è stata di scrivere “proxy music”: musica per procura. Dunque la cantante – dotata di una straordinaria ironia – ha pensato bene di far cantare amici e familiari le proprie canzoni pur di non scomparire da quella scena musicale che tanto amava.

Lo sviluppo della clonazione vocale

Oggi questa storia sarebbe potuta essere diversa. Per esempio, se Thompson avesse acconsentito per tempo, avrebbe potuto optare per la clonazione vocale. Computer addestrati a registrare la sua voce ne avrebbero creato una copia perfetta e la cantante del folk-rock inglese (nonostante la disfonia che a un certo punto le impedì qualsiasi vocalizzo) avrebbe ancora regalato al mondo quella voce che oramai aveva perso per sempre. A proposito di clonazione vocale, lanciata da Open Ai qualche anno fa, Jukebox è una rete neurale – un sistema hardware o software, la cui struttura di base è ricalcata sull’organizzazione del cervello – in grado di creare musica mescolando generi diversi, nello stile di oltre 9.000 gruppi e musicisti. Una cosa molto bizzarra che fece, suscitando gran scalpore, fu quella di far cantare “Toxic” di Britney Spears a un Frank Sinatra generato dall’Intelligenza Artificiale: una “giustapposizione stravagante” di cui non si sentiva certo il bisogno, come ha scritto Ludovic Hunter-Tilney che sul Financial Times si occupa di arte e cultura pop.

Tutti musicisti

Le applicazioni dell’IA nella musica sono numerose: le relazioni matematiche – alla base della disposizione delle note di una composizione – rendono la musica particolarmente adatta agli strumenti basati sull’Intelligenza Artificiale, che può essere addestrata per riconoscere e creare melodie e ritmi. A partire dai servizi di streaming come Spotify, che utilizzano IA per mappare le abitudini di ascolto dei propri utenti e creare così consigli personalizzati per altri brani. Per arrivare a Boomy – generatore di musica basato sull’IA – che promette di far diventare un “musicista” chiunque lo desideri. O l’app MusicLM di Google, che crea musica da comandi scritti del tipo “creami una melodia rilassante di violino” oppure “componimi un riff di chitarra”. Ma secondo Jessica Powell, amministratrice delegata della start-up Audioshake, con sede a San Francisco, “la più importante conseguenza dell’Intelligenza Artificiale nella musica è che la stessa creazione diventerà più semplice”.

La separazione dell’audio

Audioshake utilizza un tipo di tecnologia chiamata “separazione della sorgente audio” per identificare e isolare varie parti di una canzone: può essere utilizzata per remixare canzoni o trasformarle in brani strumentali, destinandoli a librerie musicali che concedono in licenza la musica per il suo utilizzo in tv, nei film o in pubblicità. “L’obiettivo – dice – è rendere l’audio più modificabile, accessibile, interattivo e coinvolgente“. Sviluppi come quelli appena descritti rappresentano l’ultima fase di un processo iniziato con l’avvento della “registrazione multitraccia” negli anni ’50, quando le canzoni iniziarono ad essere assemblate da parti registrate separatamente. Quella era “l’era della stereofonia” a cui è seguita quella dell’“audio spaziale”, promosso da Apple Music, che crea l’illusione di sentire la musica da tutte le direzioni.

L’ultima battaglia

Intanto l’industria musicale tradizionale solleva barriere difensive. A fine maggio, come aveva già fatto lo scorso anno Universal Music Group (la società discografica leader nel mondo), anche Sony Music ha inviato lettere di avvertimento a più di 700 sviluppatori di Intelligenza Artificiale e servizi di streaming musicale a livello globale, in quella che i media hanno definito “l’ultima battaglia dell’industria musicale contro i gruppi tecnologici che derubano gli artisti”. La lettera riflette anche le preoccupazioni per la frammentazione delle regole che cercano di governare l’IA nel mondo che spesso, come accade nell’Ue, consistono in consigli rivolti ai titolari dei diritti d’autore di “dichiarare pubblicamente che i contenuti non sono disponibili per il data mining e la formazione per l’Intelligenza Artificiale”. Timori fondati, difese comprensibili. Ma Powell è certa che una vera e propria presa di controllo da parte dell’Intelligenza Artificiale della musica non sia possibile: la fase creativa è sempre e solo intrinsecamente umana e il talento degli artisti continuerà ad essere centrale in questo ambito, nonostante il loro lavoro sia sempre più guidato dalla tecnologia. D’altronde la storia della musica è anche una storia di tecnologie che cambiano la produzione, l’arrangiamento, la registrazione, l’esecuzione dal vivo: “Qual è la storia dietro una canzone? – chiede – Chi la esegue? Qual è il contesto socio-culturale più ampio? E come interagisce l’artista con i suoi fan?”. Insomma, “Taylor Swift è molto più di una canzone di Taylor Swift”. E su questo non ci sono dubbi.

Ilaria Donatio

Autore