Бездумный ИИ
19.03.2018В последнее время самые разные люди всё чаще задумываются о когнитивных способностях ИИ. Или, что будет точнее, об их недостатке у практически всех современных искинов. Это не так и удивительно — большинство систем ИИ узко специализированы, предназначены для решения какой-то одной задачи, например, машинного перевода, игры в го или шахматы, или, скажем, выявления на той или иной картинке изображений собак и кошек или опухолей на рентгеновских снимках. Козьма Прутков говорил про такое: “специалист подобен флюсу, полнота его одностороння”.
Но есть вид ИИ, предназначенный для взаимодействия с человеком — это системы “интеллектуальных помощников” или чат-боты. Уж от них-то хотелось бы ожидать хотя бы минимального понимания того, что мы им говорим.
Тест рассчитан на уровень ребёнка, который учится в младших классах начальной школы, вопросы в нём относятся к категории общих знаний. Скажем, искин должен уметь раскидать предъявленные ему понятия по категориям — из каких материалов сделано изделие, искусственных или естественных. Понятно, что в наше время высоких технологий в ряде случаев с этой задачей не справится и взрослый, искусственные материалы постоянно улучшаются и подчас отличить “подделку” от природного материала затруднительно. В тесте, впрочем, предлагаются более простые вещи — категоризовать нужно деревянный стул, рубашку из хлопка, пластиковую ложку, корзинку, плетёную из лозы.
Разработчики считают, что если ИИ справится с таким тестом, можно будет говорить о его “здравомыслии”. Смелое утверждение, но в любом случае не нашлось ИИ, который бы с тестом справился. Так что когда в следующий раз заходите поговорить с “самым интеллектуальным роботом”, имейте в виду, что он не мыслит, а лишь жонглирует набором фраз, среди которых пытается подобрать то, что можно “пристегнуть” к тому или иному слову, вычлененному из вашей предыдущей фразы. Вдобавок он тут же забывает всё, что говорилось даже несколько минут тому назад. Он может записывать разговор, но не создает “базу знаний”, которая бы создавала “образ разговора”, не накапливает факты, которые узнал о вас из разговора. И если сообщить ему, что ваш любимый напиток смузи, а через пару минут попросить робота принести вам ваш любимый напиток, робот не сможет это сделать вовсе не потому, что не способен взять своим манипулятором стакан с барной стойки (хотя зачастую и поэтому тоже), но потому, что его ИИ даже не пытался запоминать информацию, почерпнутую из разговора.
Основной вывод из всего вышесказанного — современные ИИ, в том числе те, что предназначены для создания “виртуальных помощников” и чат-ботов, не обладают “здравомыслием”. В лучшем случае они обращают внимание на то, что им предъявлено в явном виде, но не делают выводы и предположения, которые можно сделать на базе полученной информации.
Это не означает, что разработка ИИ находится в тупике, но разработчикам пора обратить внимание на выявленные проблемы, чтобы попробовать улучшить алгоритмы анализа текста и формирования ответов. Без этого мы вряд ли дождёмся создания искусственных собеседников и помощников, способных дать полезный совет или поддержать приятельскую беседу.
+ +