Опасное использование ИИ: прогнозы, предупреждение и защита

25.02.2018

Стостраничный отчёт The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation стал результатом совместной работы 26 авторов из 14 научных учреждений, активистов и представителей промышленности.

Авторы отчёта отмечают, что возможности ИИ и ML (машинного обучения) растут беспрецедентными темпами. Эти технологии уже лежат в основе множества успешных приложений, начиная от машинного перевода и до анализа изображений в медицинской практике. Ещё большее число приложений сейчас находится в стадии разработки. Между тем лишь немногие задумываются о том, как ИИ может использоваться людьми с недобрыми намерениями. В отчёте рассматриваются потенциальные угрозы безопасности, связанные со злонамеренным использованием технологий ИИ, а также предлагаются способы прогнозирования таких угроз, их предупреждения или устранения.

Авторы попытались найти решение вопроса: как установить долгосрочный баланс между атакующими и теми, кто вынужден защищаться? Но честно признали, что это окончательного ответа на этот вопрос нет. Поэтому авторы сосредоточились на рассмотрении сценариев атак, с которыми человечество скорее всего столкнётся в самое ближайшее время, если не будут разработаны адекватные защитные меры.

В частности, предлагается:

  • Политики должны работать в контакте с разработчиками с целью изучения, предупреждения и устранения потенциально опасного использования ИИ.
  • Исследователи и инженеры, занимающиеся разработками в области ИИ, должны самым серьёзным образом размышлять о возможных негативных сценариях, в которых могут использоваться их разработки. Оценка угроз должна влиять на расстановку приоритетов в исследовании, разработку правил, а также предусматривать проактивное взаимодействие с соответствующими структурами в ситуациях, когда можно прогнозировать вредоносные применения новой разработки.
  • Идентифицировать лучшие практики для разрешения проблемы злонамеренного использования новых разработок. Например, наработки такого рода уже есть в области компьютерной безопасности; вероятно, их можно внедрить и в практику разработки ИИ.
  • Активно расширять круг заинтересованных лиц и экспертов, которые бы могли участвовать в дискуссиях об опасных применениях ИИ и в разработке решений возникающих в связи с этим проблем.

Важный вывод, который напрашивается из чтения доклада: прошло время, когда можно было рассуждать об опасностях ИИ в каком-то неопределённом будущем. Сейчас мы все уже находимся в ситуации, когда связанные с ИИ опасности перешли из разряда гипотетических в разряд реальных. Настало время, когда следует переходить от научных дискуссий к практическим защитным действиям.

Скачать отчёт можно здесь, англ., pdf 

  Публикации

Последние материалы

Метки
AGV ai DARPA DIY DIY (своими руками) DJI Lely pick-and-place RPA VTOL авиация автоматизация автомобили автомобили и роботы автономные аддитивные технологии андроиды анималистичные антропоморфные Арт аэромобили аэропорты аэротакси безопасность безработица и роботы беспилотники бионика больницы будущее бытовые роботы вакансии вектор вертолеты видео внедрения роботов водородные военные военные дроны военные роботы встречи высотные выставки газ Германия горнодобыча городское хозяйство гостиницы готовка еды Греция грузоперевозки группы дронов гуманоидные дайджест Дания доение роботизированное доильные роботы домашние роботы доставка беспилотниками доставка и роботы дронизация дроны Европа еда железные дороги животноводство захваты земледелие игрушки идеи измерения Израиль ИИ ИИ - вкратце инвентаризация Индия Иннополис инспекция интервью интерфейсы инфоботы Ирак Иран искусственный интеллект испытания исследования история Италия Казахстан как заработать Канада квадрупеды кейсы киборгизация кино Китай коботы коллаборативные роботы колонки коммунальное хозяйство компании компоненты конкурсы конспекты конструкторы концепты кооперативные роботы космос курьезы курьеры лабораторные роботы Латвия лизинг линки логистика люди и роботы машинное обучение медицина медицина и роботы металлургия мобильные роботы мойка море морские мусор мусор и роботы надводные наземные военные роботы налоги научные роботы необычные нефтегаз нефть Нидерланды Новая Зеландия Норвегия носимые роботы ОАЭ образование образовательная робототехника обучающие роботы общепит общепит и роботы общество Объединенное Королевство октокоптеры онлайн-курсы робототехники опрыскивание охрана и беспилотники охрана и роботы патенты персональные роботы пищепром пляжи ПО подводные подводные роботы подземные пожарные пожарные роботы поиск полевые роботы полезные роботы Португалия последняя миля потребительские роботы почта право презентации пресс-релизы применение беспилотников применение дронов применение роботов прогнозы проекты производство производство дронов происшествия промышленность промышленные роботы противодействие беспилотникам псевдоспутники работа развлечения и беспилотники развлечения и роботы разработка распознавание речи растениеводство регулирование регулирование дронов регулирование робототехники рекорды рисунки робомех робомобили роботакси роботизация робототехника роботрендз роботренды роботы роботы и автомобили роботы и мусор роботы и обучение роботы и развлечения роботы и строительство роботы телеприсутствия роботы-транспортеры робошум рои рой Россия Руанда сад сайт RoboTrends.ru сбор урожая сварка связь сделки сельское хозяйство сенсоры сервисные роботы синтез речи склады склады и роботизация соревнования сортировка сотрудничество софт-роботика социальная робототехника социальные социальные роботы спорт спорт и дроны спорт и роботы статистика строительство судовождение США такси телеприсутствие теплицы термины терроризм тесты технологии техносказки торговля транспорт транспортные роботы тренды трубопроводы трубопроводы и роботизация уборка Украина уличные роботы участники рынка Франция хобби-беспилотники ховербайки Хождение цифры чатбот шагающие роботы Швейцария Швеция шоу экзоскелеты эко-дроны экология электроника энергетика этика (робоэтика) Южная Корея юмор

Подписка: RSS, Email, Telegram
  Информация