Опасное использование ИИ: прогнозы, предупреждение и защита
25.02.2018Стостраничный отчёт The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation стал результатом совместной работы 26 авторов из 14 научных учреждений, активистов и представителей промышленности.
Авторы отчёта отмечают, что возможности ИИ и ML (машинного обучения) растут беспрецедентными темпами. Эти технологии уже лежат в основе множества успешных приложений, начиная от машинного перевода и до анализа изображений в медицинской практике. Ещё большее число приложений сейчас находится в стадии разработки. Между тем лишь немногие задумываются о том, как ИИ может использоваться людьми с недобрыми намерениями. В отчёте рассматриваются потенциальные угрозы безопасности, связанные со злонамеренным использованием технологий ИИ, а также предлагаются способы прогнозирования таких угроз, их предупреждения или устранения.
Авторы попытались найти решение вопроса: как установить долгосрочный баланс между атакующими и теми, кто вынужден защищаться? Но честно признали, что это окончательного ответа на этот вопрос нет. Поэтому авторы сосредоточились на рассмотрении сценариев атак, с которыми человечество скорее всего столкнётся в самое ближайшее время, если не будут разработаны адекватные защитные меры.
В частности, предлагается:
- Политики должны работать в контакте с разработчиками с целью изучения, предупреждения и устранения потенциально опасного использования ИИ.
- Исследователи и инженеры, занимающиеся разработками в области ИИ, должны самым серьёзным образом размышлять о возможных негативных сценариях, в которых могут использоваться их разработки. Оценка угроз должна влиять на расстановку приоритетов в исследовании, разработку правил, а также предусматривать проактивное взаимодействие с соответствующими структурами в ситуациях, когда можно прогнозировать вредоносные применения новой разработки.
- Идентифицировать лучшие практики для разрешения проблемы злонамеренного использования новых разработок. Например, наработки такого рода уже есть в области компьютерной безопасности; вероятно, их можно внедрить и в практику разработки ИИ.
- Активно расширять круг заинтересованных лиц и экспертов, которые бы могли участвовать в дискуссиях об опасных применениях ИИ и в разработке решений возникающих в связи с этим проблем.
Важный вывод, который напрашивается из чтения доклада: прошло время, когда можно было рассуждать об опасностях ИИ в каком-то неопределённом будущем. Сейчас мы все уже находимся в ситуации, когда связанные с ИИ опасности перешли из разряда гипотетических в разряд реальных. Настало время, когда следует переходить от научных дискуссий к практическим защитным действиям.
Скачать отчёт можно здесь, англ., pdf