Wykrywanie emocji w skanach twarzy

Wykrywanie emocji w skanach twarzy
Gdy w 2020 rosyjska firma NTech Lab ogłosiła plan wprowadzenia funkcji wykrywania emocji, głównie agresji, do systemów i algorytmów sztucznej inteligencji skanujących ludzkie twarze, odebrano to zaniepokojeniem, jako zapowiedź kolejnego etapu wprowadzania systemu inwigilacji i kontroli nad obywatelami.

Ponieważ większość współczesnych metod sztucznej inteligencji polega na skutecznym wyszukiwaniu przez maszyny wzorców, najtrudniejszym zadaniem dla algorytmów jest radzenie sobie ze skrajnościami, które nie pasują do żadnych wcześniejszych informacji. Możliwość popełniania błędów przez system, na podstawie wyroków którego wobec obywatela mogą być wyciągane poważne konsekwencje, to jedna strona medalu. Inne potencjalne zagrożenia polegają na groźbie celowej konfiguracji systemu w ten sposób, by dyskryminował osoby określonym wyglądzie, rasie lub po prostu znajdujące się w bazie podejrzanych, choćby i politycznie.

Wykrywanie wyrazu twarzy i analiza nastrojów na podstawie danych wizualnych to specyficzne aspekty rozpoznawania emocji przez sztuczną inteligencję, które są obecnie przedmiotem badań w dziedzinie komputerowego rozpoznawania obrazu. Wykrywanie emocji na podstawie obrazu to rzecz kontrowersyjna. Specjaliści sądzą, że sama twarz nie może być podstawą do wyrokowania o tym, czy np. ktoś jest agresywny lub pobudzony. Dlatego prowadzi się badania nad detekcją innych sygnałów, które wspomagałyby systemy wizyjne i uczyniły ewentualne wykrywanie emocji trafniejszym.

Interesujące badania nad rejestracją emocjonalnych sygnałów rytmu serca i oddechu prowadzili m.in. naukowcy z brytyjskiego Uniwersytetu Królowej Marii. W ramach eksperymentu zapraszali badaną grupę do obejrzenia filmu, który badacze wybrali ze względu na jego zdolność do wywoływania jednej z czterech podstawowych emocji - przyjemności, radości, smutku, złości. Gdy dana osoba zaczynała oglądać film, badacze wysyłali w jej kierunku sygnały radiowe i analizowali fale, które się od badanych odbijały. W rezultacie badacze odkryli "tajne" dane dotyczące rytmu serca i oddechu danej osoby, wywoływane przez proste ruchy ciała. Zebrane dane były potem bazą w procesach uczenia maszynowego, na której szkoliły się głębokie sieci neuronowe.

Zwolennicy zbierania tych danych i prowadzenia badań nad opartymi na AI systemami wykrywania emocji przekonują, że są dobre powody do tworzenia algorytmów wykrywających emocje, np. bezpieczeństwo kierowców pojazdów i innych użytkowników dróg.

Aby zwiększyć bezpieczeństwo na drogach, producenci samochodów muszą rozumieć stan kierowcy, np. jego emocje, poziom zmęczenia i uwagi, a także reakcje na zachodzące sytuacje. Firma Affectiva Automotive AI wykorzystuje kamery i mikrofony do pomiaru złożonych i subtelnych stanów emocjonalnych i poznawczych za pomocą twarzy i głosu w czasie rzeczywistym. To nowej generacji oprogramowanie jest oparte na algorytmach głębokiej nauki maszynowej, komputerowym rozpoznawaniu obrazu, mowy i ogromnej ilości danych ze świata rzeczywistego. Umożliwia ono producentom wykrywanie i identyfikowanie słabości i odruchów emocjonalnych kierowcy, a w efekcie opracowywanie praktycznych ulepszeń samochodów w celu poprawy bezpieczeństwa. 

Mirosław Usidus