Азиломарские принципы искусственного интеллекта

13.09.2017

23 принципа, которых необходимо придерживаться всем, кто ведет исследования в сфере искусственного интеллекта. Приняты на конференции Beneficial AI 2017. Среди участников конференции были, например, Илон Маск и Стивен Хокинг. Считается, что если их придерживаться, это обеспечит "безопасность и использование во благо всего человечества ИИ". Перевод  Исследовательского центра проблем  регулирования робототехники и ИИ robopravo.ru. (с)

Искусственный интеллект (ИИ) уже приносит каждый день пользу людям по всему миру. Его дальнейшее развитие на основе приведенных ниже принципов создаст условия для помощи и расширения возможностей людей на протяжении будущих веков и десятилетий.

 

Исследования

1) Цель исследований. Целью исследований в сфере ИИ должно быть создание не неуправляемого, а полезного интеллекта.

2) Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования, которые должны дать ответы на самые острые вопросы в области компьютерных технологий, экономики, права, этики и социальных исследований, таких как: 

  • Как мы можем сделать будущие системы ИИ очень надежными, чтобы они делали то, что мы хотим, без сбоев или взломов?
  • Как мы можем увеличить благополучие человечества посредством автоматизации при одновременном сохранении имеющихся у нас ресурсов и ценностей?
  • Как мы можем развивать наши правовые системы, чтобы сделать их более справедливыми и эффективными, идущими в ногу с ИИ и учитывающими риски, связанные с ИИ?
  • Какими ценностями должен быть связан ИИ, и какой статус он должен иметь с правовой и этической точек зрения?

3) Связь науки и политики. Должно быть установлено конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ.

4) Культура исследований. В среде исследователей и разработчиков в сфере ИИ следует поощрять развитие культуры сотрудничества, доверия и прозрачности.

5) Отказ от гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать между собой и не пытаться победить за счет игнорирования стандартов безопасности. 

 

Этика и ценности

6) Безопасность. Системы ИИ должны быть безопасными и надежными на протяжении всего срока их эксплуатации, а также быть контролируемыми насколько это возможно и применимо. 

7) Прозрачность неудачи. Если система ИИ причиняет вред, всегда должна быть возможность понять причину этого.

8) Прозрачность правосудия. Любое участие автономной системы в процессе принятия судебных решений должно сопровождаться предоставлением убедительных объяснений, которые могут быть перепроверены людьми из компетентных органов власти. 

9) Ответственность. Разработчики продвинутых систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможностью и несут обязанность влиять на такие последствия.

10) Схожесть ценностей. Высоко автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы.

11) Человеческие ценности. Системы ИИ должны разрабатываться и работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур.

12) Конфиденциальность личных данных. Учитывая способность систем ИИ анализировать и использовать личные данные, люди должны иметь права на доступ к своим личным данным, управление ими и осуществление контроля за их использованием. 

13) Свобода и неприкосновенность частной жизни. Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей. 

14) Совместная выгода. Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

15) Совместное процветание. Экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества.

16) Человеческий контроль. Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей, и использовать ли их для этого вообще. 

17) Устойчивость. Власть, получаемая благодаря контролю над высокоразвитыми система ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

18) Гонка вооружений на основе ИИ. Следует избегать гонки вооружений в разработке смертельного автономного оружия. 

 

Долгосрочная перспектива

19) Предостережение об ограничениях. При отсутствии консенсуса об ином, нам следует избегать уверенных предположений относительно верхних пределов будущих возможностей ИИ.

20) Важность. Продвинутый ИИ может повлечь за собой коренное изменение в истории жизни нашей планеты, поэтому он должен разрабатываться и управляться с соответствующим вниманием и способностями.

21) Риски. Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков.

22) Рекурсивное самосовершенствование. Системы ИИ, разрабатываемые с возможностью рекурсивного самосовершенствования или самовоспроизведения с последующим быстрым увеличением их количества или качества, должны отвечать строгим критериям безопасности и
контроля. 

23) Общее благо. Суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации. 

Комментирует Алексей Бойко, эксперт RoboTrends.ru: "Риски создания высокоуровневого ИИ останутся высокими даже с учетом попыток следования изложенным выше принципам. Основная ожидаемая от ИИ особенность - возможность самосовершенствования, эволюционирования. Это может происходить быстро и, возможно, спонтанно. Особую опасность представляет возможная "гонка вооружений" в области ИИ, когда меры безопасности могут принести в жертву темпам разработок. Для этого есть основания - высказываются прогнозы, что первый же созданный высокоуровневый ИИ может принять меры к тому, чтобы не допустить появления других таких разработок, видя в этом угрозу для своего существования. Собственно, в людях ИИ также может увидеть аналогичную угрозу. Несмотря на эти риски, человечество вряд ли избежит искушения разработки высокоуровневого ИИ".  

+ +

  Публикации

Последние материалы


Метки
AI / ИИ DARPA DIY (своими руками) DJI автомобили и роботы андроиды анималистичные антропоморфные Арт аэротакси безработица и роботы беспилотники бионика бытовые роботы вектор видео военные дроны военные роботы встречи выставки Греция группы дронов Дания доильные роботы домашние роботы доставка беспилотниками доставка и роботы дроны Европа железные дороги захваты игрушки Израиль ИИ Индия интервью инфоботы Ирак Иран искусственный интеллект история Италия Казахстан как заработать Канада кино Китай коллаборативные роботы колонки коммунальное хозяйство компоненты конспекты конструкторы концепты кооперативные роботы космос курьезы курьеры Латвия линки логистика машинное обучение медицина медицина и роботы море и роботы мусор и роботы наземные военные роботы налоги научные роботы необычные Нидерланды Новая Зеландия Норвегия носимые роботы ОАЭ образование образовательная робототехника обучающие роботы общепит и роботы Объединенное Королевство онлайн-курсы робототехники охрана и беспилотники охрана и роботы патенты персональные роботы пищепром ПО подводные роботы подземные пожарные роботы полевые роботы Португалия право презентации пресс-релизы применение беспилотников применение дронов применение роботов прогнозы проекты производство дронов происшествия промышленные роботы противодействие беспилотникам развлечения и беспилотники развлечения и роботы распознавание речи растениеводство регулирование регулирование дронов регулирование робототехники рекорды рисунки робомех робомобили роботизация робототехника роботрендз роботренды роботы роботы и автомобили роботы и медицина роботы и море роботы и мусор роботы и обучение роботы и развлечения роботы и строительство роботы и уборка роботы телеприсутствия роботы-транспортеры робошум рой Россия Руанда сайт RoboTrends.ru сделки сельское хозяйство сенсоры сервисные роботы синтез речи склады и роботизация соревнования софт-роботика социальная робототехника социальные роботы спорт и дроны спорт и роботы строительство США телеприсутствие термины терроризм торговля транспорт транспортные роботы тренды трубопроводы и роботизация уборка и роботы Украина уличные роботы Франция хобби-беспилотники Хождение чатбот шагающие роботы Швейцария Швеция шоу экзоскелеты эко-дроны экология электроника этика (робоэтика) Южная Корея юмор

Подписка: RSS, Email, Telegram
  Информация