Sound Thinkin' - laboratorio di improvvisazione musicale con agenti informatici co-creativi

eAQ2024_locandina_SoundThinkin
Mercoledì, 28 Febbraio 2024 ore 10:30
Aule 39 - 40

Nato dalla collaborazione fra i dipartimenti di Jazz e Musica Elettronica, il 28 febbraio prenderà inizio il progetto Sound Thinkin' - laboratorio di improvvisazione musicale con agenti informatici co-creativi.

Il progetto pone come obiettivo pedagogico quello di divulgare la pratica improvvisativa con agenti co-creativi di intelligenza artificiale allo stato dell’arte, grazie al supporto concreto di personale del team di ricerca IRCAM. Questa interazione godrà, grazie all’interdisciplinarità dei docenti coinvolti, anche di un doppio punto di vista, con grande focus sul ruolo del musicista come improvvisatore. Questa vuole anche essere un’azione concreta di produzione musicale, volta alla realizzazione di un concerto e alla ricerca di un’estetica comune da sviluppare insieme agli studenti partecipanti al laboratorio, in vista della restituzione finale, dando loro la possibilità di vivere una vera residenza
artistica.

Il progetto pedagogico di creazione e ricerca artistica e scientifica è parte del framework REACH (Raising Co-Creativity in Cyber-Human Musicianship), un progetto in corso all’IRCAM - STMS Lab di Parigi e diretto da Gérard Assayag (direttore di ricerca dell’IRCAM e head researcher del team di Music Representations), che prevede lo sviluppo di software per la co-improvvisazione tramite agenti informatici di intelligenza artificiale, la divulgazione scientifica e la creazione artistica, al fine di applicare in maniera concreta queste nuove tecnologie in reali contesti di performance. Il software utilizzato sarà Somax (https://www.stms-lab.fr/projects/pages/somax2/), un'applicazione per l'improvvisazione e la composizione musicale. Somax è implementato in Max e si basa su un modello generativo che utilizza un processo simile alla sintesi concatenativa per fornire un'improvvisazione stilisticamente coerente, ascoltando e adattandosi a un musicista (o a qualsiasi altro tipo di sorgente audio o MIDI) in tempo reale. Il modello opera nel dominio simbolico ed è addestrato su un corpus musicale, costituito da uno o più file audio o MIDI, da cui attinge il materiale utilizzato per l'improvvisazione. Il modello può essere utilizzato con semplici configurazioni per interagire autonomamente con un musicista, ma consente anche il controllo manuale del processo generativo.