ИИ постигает людские эмоции. Это плохо?
17.01.2020Представители института AI Now при Нью-Йоркском университете опубликовали ежегодный отчет о социальных последствиях, связанных с внедрением систем с элементами искусственного интеллекта, и призвали к запрету отдельных алгоритмов, способных распознавать людские эмоции.
По мнению американских исследователей, технологии распознавания эмоций не должны использоваться в областях, в которых программные алгоритмы смогут оказывать влияние на судьбы людей - например, в ходе собеседований.
Алгоритмы для анализа человеческой мимики существуют по меньшей мере с 2003 года - в последние годы, внедрение технологий машинного обучения существенно повысило их точность. Разумеется, о тотальном понимании человеческих чувств не идет и речи - львиная доля индикаторов эмоционального состояния человека находит выражение в контексте деятельности и местонахождения.
Ряд компаний экспериментируют с анализом видео, собранного в ходе собеседований - вероятнее всего, в ближайшие годы появятся системы, способные повлиять (а то и принять соответствующее решение) на продвижения сотрудников по карьерной лестнице, их заработную плату и назначения. Опасения вызывает возможность использования потенциально-предвзятых технологий в ходе допросов подозреваемых.
Большинство разработчиков стремятся соблюдать принципы FATE (справедливость, ответственность, прозрачность и этичность) - между тем, ряд алгоритмов “научились” дискриминировать людей по тем или иным признакам, например, индексируя чернокожих граждан как “горилл”, жителей стран Азии - как “моргнувших людей” и высказывая предположения о том, что улыбающиеся темнокожие люди на самом деле злятся.
Помимо потенциально опасных применений, исследователи обратили внимание на такие положительные “способности” ИИ, как прогнозирование и предотвращение суицидов и выявление пьяных водителей.
Вероятнее всего, будущее принесет нам связку “человек-ИИ”, в рамках которой алгоритмы возьмут на себя принятие большинства решений в отраслях, связанных с рутиной и легко поддающихся автоматизации. В остальных вопросах, алгоритмы будут оказывать людям необходимую поддержку - окончательные решения и рассмотрение апелляций в любом случае останутся за человеком.
По материалам: