Skip to main content
European Commission logo
Research and Innovation

Come un software che incorpora segnali emotivi nell’audio aiuta a curare i pazienti

Che la musica possa evocare forti emozioni è noto a chiunque la ascolti, ma il meccanismo di fondo è ignoto. Usando strumenti di manipolazione sonora capaci di destare reazioni emotive, il progetto CREAM, finanziato dall’UE, ha fornito dati sul cervello e sta già ispirando nuove applicazioni cliniche, dalla diagnosi di problemi di linguaggio al valutare pazienti sottoposti a chirurgia cerebrale.

© GraphicFactory # 727784691 | Source: Stock.Adobe.com

PDF Basket

Nessun articolo selezionato

Che si tratti del crescendo trionfale di una sezione di corni o dei toni malinconici di un violoncello solitario, la musica crea sempre l’atmosfera.

Benché sia dimostrato che la musica attiva le stesse vie cerebrali di cibo e sesso, finora la ricerca si è concentrata sull’osservarne l’impatto, non sulla sperimentazione.

«Gli esperimenti in genere facevano ascoltare musica allegra e poi registravano come questa provocava emozioni felici», spiega Jean-Julien Aucouturier, coordinatore del progetto CREAM. «Restano domande irrisolte sui meccanismi di fondo responsabili, come: la musica evoca ricordi o cambia la fisiologia?»

Come i ricercatori di farmaci studiano le molecole attive che bersagliano le vie fisiologiche, Aucouturier ha usato tecniche di elaborazione audio per cambiare il registro emotivo dei suoni, per poi testarne l’impatto sulle emozioni degli uditori.

Afferma: «Mentre i nostri risultati e tecniche potrebbero aiutare a rispondere a molti quesiti di ricerca in aree come la cognizione di linguaggio e musica o la linguistica, a entusiasmarmi maggiormente sono le loro potenziali applicazioni cliniche.»

Da un sorriso all’altro

Come progetto multidisciplinare, CREAM ha tratto metodi dalla tecnologia vocale e musicale lavorando con oltre 600 partecipanti in quattro paesi: Francia, Giappone, Svezia e Regno Unito.

«Sono rimasto stupito dagli strumenti per trasformare il suono a disposizione dei miei colleghi di musica informatica», osserva Aucouturier, neuroscienziato del Centro nazionale francese per la ricerca scientifica. «Simulare il suono di strumenti o fondere ruggiti di animali con quelli a corda erano esperimenti attesi!»

Mentre esisteva già un consenso in ambito neuroscientifico su definizione e classificazione delle emozioni, CREAM ha contribuito con intuizioni significative a come gli stati emotivi sono denotati da sottili «firme» sonore.

Un traguardo fondamentale è stato il brevetto di SMILE, il software del progetto. in grado di simulare acusticamente il cambiamento di timbro vocale di un parlante quando sorride.

«Simulare il suono del sorriso ci ha permesso di creare un algoritmo applicabile in tempo reale a qualsiasi voce, rendendola più felice», spiega Aucouturier. Simili modifiche possono renderla anche più affidabile o autorevole.

L’impatto di queste simulazioni sonore sugli uditori è stato misurato utilizzando elettrodi applicati a cuoio capelluto, torace e viso per registrare rispettivamente i cambiamenti cerebrali, cardiaci e dei muscoli facciali.

«Quando hanno ascoltato le voci manipolate da SMILE, non hanno solo riferito che il parlante era più amichevole, ma anche iniziato a sorridere a loro volta», osserva Aucouturier.

Una spin-out, AltaVoce, sta commercializzando SMILE come strumento di miglioramento delle comunicazioni, specie per le relazioni telefoniche con i clienti.

Tecniche trasferibili alla musica

Benché fosse noto che gli strumenti musicali possono essere emotivamente espressivi quanto la voce, la maggioranza degli esperimenti passati ha modificato soltanto i parametri di base, come tempo e volume.

Applicando le firme sonore di sorriso, tremore e «asprezza» vocale a campioni di musica, i partecipanti hanno sperimentato reazioni emotive simili a quelle ottenute applicando le manipolazioni ai campioni vocali.

Ciò si è dimostrato valido anche per l’esecuzione di musica puramente strumentale, con risultati interessanti. «Abbiamo scoperto che apprezzare la musica death metal richiede più energia cerebrale del contrario, perché si deve superare l’associazione innata del cervello tra i suoni gutturali delle chitarre e la paura», dichiara Aucouturier.

Queste tecniche di trasformazione del suono sollevano evidenti preoccupazioni etiche, fra le più attuali la possibilità per criminali e malintenzionati di produrre audio falsi più convincenti e persuasivi.

Se da un lato Aucouturier è attivamente coinvolto nelle discussioni sul contenimento di questi rischi, dall’altro sottolinea le opportunità offerte dagli studi clinici in corso.

Gli strumenti open source e gratuiti del progetto sono utilizzati in diversi ospedali francesi per varie applicazioni.

DAVID è uno strumento di trasformazione della voce in tempo reale in grado di modificare l’emozione del parlato registrato, mentre ANGUS può simulare segni di eccitazione e asprezza su segnali vocali arbitrari. CLEESE è un set di strumenti Python per eseguire trasformazioni casuali o deterministiche di intonazione, scala temporale, filtraggio e guadagno su un dato suono.

Le applicazioni comprendono: la diagnosi dei problemi di linguaggio (afasia) nei pazienti colpiti da ictus, la verifica della coscienza nei pazienti in coma, l’esplorazione della cognizione sociale (specie la capacità di imitare le emozioni «ascoltate») nei pazienti affetti da cecità congenita e l’individuazione degli indicatori di ansia vocale prima di essere anestetizzati per un intervento chirurgico.

Si sta lavorando anche nell’ambito del triage in medicina d’urgenza, per il disturbo dello spettro autistico e quello post-traumatico da stress, e per valutare l’impatto dell’intervento per glioma cerebrale.

«Stiamo sviluppando tecniche in grado di controllare e misurare le proprietà emotive nel cervello sano utilizzando i suoni, per diagnosticare diversi disturbi neurologici e psichiatrici», aggiunge Aucouturier.

Attualmente presso l’istituto di ricerca mista FEMTO-ST in Francia, sta espandendo i suoi studi in nuovi campi. Nell’ambito del progetto Lullabyte, finanziato dall’UE, collabora con 10 laboratori europei per studiare come il cervello elabora i suoni durante il sonno.

«Potremmo usare i risultati per applicazioni creative che migliorino la qualità del sonno, il consolidamento della memoria e il ricordo dei sogni, o persino per modificarne il contenuto», afferma Aucouturier.

Una playlist per programmare i sogni? Musica per le nostre orecchie.

PDF Basket

Nessun articolo selezionato

Dettagli del progetto

Acronimo del progetto
CREAM
Progetto n.
335536
Coordinatore del progetto: Francia
Partecipanti al progetto:
Francia
Costo totale
€ 1 499 992
Contributo dell'UE
€ 1 499 992
Durata
-

Vedere anche

More information about project CREAM

All success stories