Opracowano sztuczną inteligencję, która po głosie rozpoznaje ludzkie emocje – pomoże to w pracy linii kryzysowych

Redaktor NetMaster
Redaktor NetMaster
2 min. czytania

Model sztucznej inteligencji okazał się skutecznym narzędziem do rozpoznawania emocji, takich jak strach i niepokój, w głosach osób dzwoniących na infolinię psychologiczną. Autor projektu ma nadzieję, że będzie on przydatny dla operatorów telefonicznych na liniach zapobiegania samobójstwom.

Ocena stanu emocjonalnego osób dzwoniących na linie kryzysowe pod kątem ich obecnego poziomu ryzyka samobójstwa ma kluczowe znaczenie dla identyfikacji samobójstwa i zapobiegania mu. Mowa ludzka może za pomocą środków niewerbalnych przekazywać przydatne informacje o stanie psychicznym i emocjonalnym danej osoby, zawierające wskazówki dotyczące tego, czy jest ona smutna, zła czy przestraszona. Badania nad mową samobójczą rozpoczęły się ponad 30 lat temu i już udało się zidentyfikować w niej obiektywne cechy dźwiękowe, które można wykorzystać do identyfikacji różnych stanów i zaburzeń psychicznych, w tym depresji.

Jednak dla kogoś, kto rozmawia przez telefon, ocena ryzyka samobójstwa może być wyzwaniem, ponieważ na numery alarmowe dzwonią osoby wyjątkowo niestabilne emocjonalnie, a charakterystyka ich mowy może szybko się zmieniać. Rozwiązanie tego problemu zaproponowała Alaa Nfissi, absolwentka Uniwersytetu Concordia (Kanada, Montreal). Wytrenował model sztucznej inteligencji do rozpoznawania emocji związanych z mową. Zazwyczaj takich ocen dokonywali psychologowie, co wymagało dużej ilości czasu i specjalistycznej wiedzy, ale model głębokiego uczenia się był w stanie skutecznie rozpoznawać emocje.

Do szkolenia modelu autorka projektu wykorzystała bazę danych zawierającą rzeczywiste nagrania wezwań do linii kryzysowych w celu zapobiegania samobójstwom, a także nagrania aktorów, którym polecono ukazać określone emocje. Nagrania podzielono na segmenty i opatrzono adnotacjami odzwierciedlającymi odpowiadający im stan psychiczny: złość, smutek, neutralność, strach lub niepokój. Dzięki temu model nauczył się trafnie rozpoznawać cztery emocje: strach/lęk (poprawna odpowiedź w 82% przypadków), smutek (77%), złość (72%) i stan neutralny (78%). Model szczególnie dobrze radził sobie z oceną fragmentów nagrań prawdziwych rozmów: smutku (78%) i złości (100%).

Alaa Nfissi uważa, że ​​opracowany przez niego model AI może posłużyć jako narzędzie pomocnicze w pracy na liniach kryzysowych, pomagając operatorom w czasie rzeczywistym oceniać stan swoich rozmówców i wybierać odpowiednie strategie konwersacji. Być może pomoże to zapobiec samobójstwu.

Udostępnij ten artykuł
Dodaj komentarz