16 czerwca, 2025
Technologie w obszarze emocjonalnej sztucznej inteligencji - 1 2025

Technologie w obszarze emocjonalnej sztucznej inteligencji

Kiedy twój smartfon wie, że jesteś smutny

Ostatnio mój znajomy kłócił się z asystentem głosowym. Przestań mówić takim współczującym tonem! – warknął. Okazało się, że system wyczuł frustrację w jego głosie i… próbował go uspokoić. To nie scenariusz z Black Mirror, ale codzienność w erze emocjonalnej sztucznej inteligencji (Emotion AI). Technologia, która miała nas zrozumieć, czasem wprawia w zakłopotanie.

W Tokio roboty opiekuńcze potrafią wyłapać oznaki samotności u starszych osób po samym sposobie, w jaki trzymają kubek z herbatą. W Korei Południowej nauczyciele dostają powiadomienia, gdy system wykryje, że klasa traci koncentrację. A w Szwecji testują algorytm, który diagnozuje depresję po ruchach gałek ocznych. To już nie science fiction – to nasza rzeczywistość.

Jak komputer uczy się empatii?

Pracowałem kiedyś nad projektem wykorzystującym Emotion AI. Najbardziej zaskoczyło mnie to, że systemy te nie tyle rozumieją emocje, co uczą się ich jak dziecko – metodą prób i błędów. Kamery śledzą 156 punktów na twarzy, czujniki mierzą napięcie mięśni, a algorytmy analizują setki parametrów głosu.

Najlepsze systemy (jak Affectiva) osiągają 90% trafności w podstawowych emocjach. Ale mają też śmieszne wpadki – mój ulubiony przykład to AI, które wzięło zwykłe zmęczenie za głęboki smutek i zaczęło proponować numery telefonów zaufania. W pracy nad tym projektem przekonałem się, że technologia wciąż myli irytację z zainteresowaniem – zupełnie jak niektórzy moi znajomi.

Gdzie pomaga, a gdzie przeszkadza?

W szpitalu dziecięcym w Bostonie robot Huggable pomaga małym pacjentom radzić sobie z lękiem przed zabiegami. Rozpoznaje strach po drżeniu głosu i odpowiednio moduluje swoje zachowanie. To jeden z tych przypadków, gdzie technologia działa cuda.

Ale są też ciemniejsze strony. W niektórych chińskich korporacjach kamery analizują mimikę pracowników podczas spotkań. Uśmiechasz się tylko w 63% czasu – musisz poprawić zaangażowanie – takie komunikaty dostają niektórzy. Brzmi jak koszmar, prawda?

Najbardziej niepokoi mnie zastosowanie w reklamie. Wyobraźcie sobie billboard, który zmienia przekaz widząc wasze znudzenie. Albo aplikację randkową, która odrzuca kandydatów, bo algorytm uznał, że za mało się uśmiechasz na zdjęciach. Gdzie tu miejsce na autentyczność?

Czy chcemy żyć w takim świecie?

Ostatnio testowałem nowy samochód wyposażony w Emotion AI. Gdy system uznał, że jestem zdenerwowany, włączył relaksującą muzykę i… zmniejszył temperaturę. Fajne? Pewnie. Ale jednocześnie przerażające – bo ktoś zdecydował, jaka temperatura jest odpowiednia dla mojego nastroju.

Największe wyzwanie? Różnice kulturowe. To, co dla Europejczyka jest żywiołowością, dla Japończyka bywa brakiem szacunku. Algorytmy wciąż mają z tym problem – tak jak my mamy problem z nadmiernym zaufaniem do ich obiektywności.

Emocjonalna AI może być wspaniałym narzędziem – w rękach terapeutów, nauczycieli, opiekunów. Ale w rękach korporacji czy reżimów? To już zupełnie inna historia. Może zanim nauczymy maszyny rozumieć ludzi, powinniśmy lepiej zrozumieć samych siebie?

Technologia rozpoznająca emocje to jak lustro – pokazuje nam nie tylko to, kim jesteśmy, ale też kim moglibyśmy się stać. Pytanie tylko, czy podoba nam się to odbicie.