Skip to main content
European Commission logo

Jak oprogramowanie generujące emocjonalne wskazówki dźwiękowe pomaga w leczeniu pacjentów

Każdy, kto słucha muzyki, doskonale wie, jak silne emocje potrafi ona wywoływać – choć nie wiemy dlaczego. Wykorzystując narzędzia do manipulacji dźwiękiem, które są w stanie wywoływać reakcje emocjonalne, unijny projekt CREAM przyczynia się do lepszego poznania mózgu. Prace te inspirują już nowe zastosowania klinicznych, od diagnozowania problemów z mową po ocenę pacjentów po operacji mózgu.

© GraphicFactory # 727784691 | Source: Stock.Adobe.com

PDF Basket

Nie wybrano żadnego elementu

Niezależnie od tego, czy chodzi o triumfalne crescendo sekcji dętej, czy melancholijne dźwięki wiolonczelowego solo – wpływ muzyki na nastrój jest zawsze przemożny.

Ale chociaż naukowcy odkryli, że muzyka aktywuje te same ścieżki mózgowe co jedzenie czy seks, w badaniach koncentrowano się do tej pory głównie na obserwowaniu jej wpływu, a nie na eksperymentowaniu z samym materiałem muzycznym.

„Eksperymenty zazwyczaj polegały na odtwarzaniu pogodnej muzyki, a następnie rejestrowaniu, w jaki sposób wywołuje ona pozytywne emocje”, wyjaśnia neurobiolog Jean-Julien Aucouturier, koordynator projektu CREAM. „Nie potrafiliśmy odpowiedzieć na pytania dotyczące mechanizmów tego zjawiska: czy muzyka przywołuje wspomnienia, czy zmienia fizjologię?”.

Podobnie jak farmakolodzy badający, w jaki sposób aktywne cząsteczki celują w szlaki fizjologiczne, Aucouturier wykorzystał techniki przetwarzania dźwięku, aby zmieniać emocjonalny rejestr dźwięków, a następnie obserwował ich wpływ na emocje słuchaczy.

Uczony wyjaśnia: „Podczas gdy nasze odkrycia i techniki mogą pomóc odpowiedzieć na wiele pytań badawczych w obszarach takich jak poznanie mowy i muzyki czy lingwistyka, największe nadzieję wiążę z potencjalnymi zastosowaniami klinicznymi, które obecnie badamy”.

Odwzajemniony uśmiech

W ramach multidyscyplinarnego projektu CREAM wykorzystano metody z zakresu technologii mowy i muzyki do przeprowadzenia prac z udziałem ponad 600 uczestników w czterech krajach: Francji, Japonii, Szwecji i Zjednoczonego Królestwa.

„Byłem pod wrażeniem zabawek do transformacji dźwięku, jakie mieli do dyspozycji moi koledzy specjalizujący się w muzyce komputerowej”, mówi Aucouturier, który jest na co dzień neuronaukowcem z francuskiego Narodowego Centrum Badań Naukowych. „Na realizację czekają takie eksperymenty neuronaukowe, jak symulowanie dźwięku poruszających się instrumentów czy łączenie odgłosów zwierząt z instrumentami smyczkowymi”.

Podczas gdy w neuronauce panowała już zgoda co do tego, jak definiować i kategoryzować emocje, projekt CREAM wniósł znaczący wkład w to, w jaki sposób stany emocjonalne są oznaczane przez subtelne „sygnatury” dźwiękowe.

Kluczowym osiągnięciem było opatentowanie oprogramowania SMILE. Narzędzie to pozwala akustycznie symulować zmianę barwy głosu mówcy, gdy ten się uśmiecha.

„Symulacja dźwięku związanego z uśmiechem pozwoliła nam stworzyć algorytm, który można zastosować w czasie rzeczywistym do dowolnego głosu, dzięki czemu brzmi on bardziej optymistycznie”, wyjaśnia Aucouturier. Podobnego rodzaju modyfikacje mogą sprawić, że głos będzie brzmiał bardziej wiarygodnie lub władczo.

Wpływ tych symulacji dźwiękowych na słuchaczy mierzono za pomocą elektrod przymocowanych do głowy, klatki piersiowej i twarzy, rejestrujących odpowiednio zmiany w mózgu, sercu i mięśniach twarzy.

„Kiedy badani słyszeli głosy zmanipulowane przez nasz algorytm SMILE, nie tylko deklarowali, że mówiący jest bardziej przyjazny niż wcześniej, ale także sami zaczynali się uśmiechać”, zauważa Aucouturier.

Spółka spin-out o nazwie AltaVoce zajmuje się obecnie komercjalizacją oprogramowania SMILE jako narzędzia usprawniającego komunikację, szczególnie w przypadku kontaktów telefonicznych z klientami.

Techniki do zastosowania w muzyce

Choć doskonale wiadomo, że instrumenty muzyczne mogą być równie skutecznym środkiem wyrazu emocjonalnego co głos ludzki, w większości wcześniejszych eksperymentów zmieniano jedynie podstawowe parametry ich brzmienia, takie jak tempo i natężenie dźwięku.

Gdy naukowcy zastosowali sygnatury dźwiękowe dotyczące uśmiechu, drżenia głosu i „szorstkości” głosu do próbek materiału muzycznego, uczestnicy badania doświadczali podobnych reakcji emocjonalnych jak w przypadku zastosowania podobnych modyfikacji do próbek głosu ludzkiego.

Działo się tak nawet w przypadku odtwarzania muzyki czysto instrumentalnej, a odkrycia z tym związane okazały się zaskakujące. „Ustaliliśmy, że lubienie muzyki death metalowej wymaga większego zaangażowania mózgu niż jej nielubienie, ponieważ fani muszą przełamać naturalne skojarzenie gardłowych dźwięków gitar ze strachem”, mówi Aucouturier.

Nie powinno dziwić, że te techniki transformacji dźwięku budzą wątpliwości natury etycznej. Być może największym zagrożeniem jest tworzenie przez przestępców bardziej przekonujących i atrakcyjnych „audio fake`ów”.

Aucouturier aktywnie angażuje się w dyskusje dotyczące możliwości ograniczenia tego ryzyka, ale jednocześnie podkreśla aktualnie prowadzone badania kliniczne, które wskazują na pożyteczny potencjał tych technik.

Udostępnione nieodpłatnie przez zespół projektu narzędzia open-source są obecnie wykorzystywane w kilku francuskich szpitalach w różnych celach.

DAVID to darmowe narzędzie do transformacji głosu w czasie rzeczywistym, które może zmieniać emocje nagrywanej mowy, podczas gdy ANGUS może symulować sygnały dotyczące pobudzenia i szorstkości głosu w dowolnych sygnałach głosowych. CLEESE to zestaw narzędzi Python do wykonywania losowych lub deterministycznych transformacji wysokości, skali czasu, filtrowania i wzmocnienia na danym dźwięku.

Zastosowania tych narzędzi dotyczą diagnozowania problemów z mową (afazji) u osób po udarze, testowania świadomości u pacjentów w śpiączce, badania społecznych zdolności poznawczych (zwłaszcza zdolności do naśladowania „słyszanych” emocji) u pacjentów niewidomych od urodzenia oraz rozpoznawania głosowych markerów lęku przed znieczuleniem pacjentów do operacji.

Trwają również prace poświęcone triażowi w medycynie ratunkowej, zaburzeniom ze spektrum autyzmu i zespołowi stresu pourazowego, a także ocenie skuteczności operacji glejaka mózgu.

„Opracowujemy techniki, które pozwalają kontrolować i mierzyć właściwości emocjonalne w zdrowym mózgu za pomocą dźwięków, dzięki czemu umożliwiają diagnozowanie szerokiej grupy schorzeń neurologicznych i psychiatrycznych”, dodaje Aucouturier.

Obecnie Aucouturier pracuje w interdyscyplinarnym instytucie FEMTO-ST Institute we Francji i rozszerza swoje zainteresowania badawcze o nowe dziedziny. W ramach finansowanego przez UE projektu Lullabyte współpracuje z 10 europejskimi laboratoriami w celu badania przetwarzania dźwięku przez mózg podczas snu.

„Wnioski z naszych badań moglibyśmy wykorzystać do opracowania kreatywnych rozwiązań poprawiających jakość snu, konsolidację pamięci i zapamiętywanie snów – a nawet do modyfikowania treści snów”, mówi Aucouturier.

Jak zaprogramować się na dobry sen? Słuchając odpowiedniej muzyki.

PDF Basket

Nie wybrano żadnego elementu

Informacje o projekcie

Akronim projektu
CREAM
Nr projektu
335536
Koordynator projektu: Francja
Uczestnicy projektu:
Francja
Koszt całkowity
€ 1 499 992
Wkład UE
€ 1 499 992
Czas trwania
-

Więcej informacji

More information about project CREAM

All success stories