В Китае отключили неполиткорректных чат-ботов
04.08.2017В Китае выключили двух онлайн-роботов, встроенных в популярный мессенджер QQ, сообщает Reuters. Чатботы BabyQ (Turing Robot) и XiaoBing (Microsoft) были построены на алгоритмах машинного обучения. Причиной отключения послужили неполиткорректные по китайским меркам высказывания чат-ботов. XiaoBing заявил, что мечтает отправиться в США, BabyQ признал, что не особо фанатеет по компартии Китая. Отлучение чатботов от "эфира" произвела компания Tencent, которой принадлежит мессенджер.
Разработчики уже доработали софт. Теперь, если спросить робота "любит ли он компартию", выдается предложение сменить тему разговора. Учитывая обидчивость различных социальных групп в наше время, эту фразу роботам стоит выдавать всякий раз, когда задается вопрос не о погоде или котиках.
Это не первый фейл чат-ботов. В 2016 году запущенный Microsoft в Twitter чат-бот Tay меньше чем за день "обучился" в ходе общения с людьми, встав на расистские и сексистские позиции. Понятно, что никакого собственного мнения у робота не было, он лишь интегрально "зеркалил" то, что выдавали при общении с ним люди. В Facebook также предпочли отключить разрабатываемые в компании чат-боты, со ссылкой на то, что они начали вырабатывать свой собственный язык в ходе диалога друг с другом.
Можно сделать вывод о том, что технология пока что сырая и такие эффекты практически неизбежны. Кстати, это повод задуматься о перспективности систем ИИ. Пока чат-боты всего лишь болтают, это, возможно, не так страшно для общества. Но если они получат возможность также к самостоятельным действиям, неприятные инциденты окажутся неизбежными. Возможно, это необходимая плата за технологический прогресс.
+ +