ExplainMe: Wyjaśnialna sztuczna inteligencja na rzecz monitorowania cech akustycznych głosu
(ang. „Explainable Artificial Intelligence for Monitoring Acoustic Features extracted from Speech”).
Opis projektu
,,Głos pacjenta wskazuje na początek epizodu depresyjnego ponieważ w ostatnim tygodniu tempo mówienia uległo spowolnieniu oraz istotnie zmienił się ton wypowiedzi.” Przytoczone zdanie stanowi ilustracyjny przykład podsumowania lingwistycznego. Podsumowania to wyrażenia w języku naturalnym, które opisują w sposób przyjazny człowiekowi (ang. human-consistent) duże zbiory danych oraz złożone procesy ich analizy. Praktyka kliniczna oraz najnowsze badania potwierdzają, że sposób mówienia może być sygnałem zaburzeń psychicznych lub nawrotów stanów afektywnych. Choć w ostatnich latach nastąpił rozwój aplikacji monitorujących głos, nie istnieje dotąd wiarygodny system wspierający monitorowanie stanu zdrowia na podstawie sposobu mówienia. W praktyce wciąż potrzebne są łatwe do wykorzystania i budzące zaufanie narzędzia, które dzięki zastosowaniu nowoczesnych technologii i sztucznej inteligencji pomogą wyjaśnić, dlaczego stan pacjenta ulega zmianie. Projekt ExplainMe: Wyjaśnialna sztuczna inteligencja na rzecz monitorowania cech akustycznych głosu (ang. Explainable Artificial Intelligence for Monitoring Acoustic Features extracted from Speech) ma na celu opracowanie innowacyjnych technologii informatycznych obejmujących wyjaśnialne metody inteligencji obliczeniowej (ang. computational intelligence), które dostarczą opisów o dużych zbiorach danych. Projekt koncentruje się na algorytmach analizy i wyjaśniania złożonych danych medycznych i danych o postaci wielowymiarowych szeregów. Opracowane łatwe w interpretacji ziarna informacji, np. podsumowania lingwistyczne, mogą wspierać lekarzy w diagnostyce prewencyjnej i monitorowaniu zaburzeń afektywnych. ExplainMe ma dostęp do dwóch zanonimizowanych zbiorów danych rzeczywistych i zakłada przeprowadzenie dwóch pilotażowych wdrożeń opracowanej technologii w obszarze medycyny.