Азиломарские принципы искусственного интеллекта

13.09.2017

23 принципа, которых необходимо придерживаться всем, кто ведет исследования в сфере искусственного интеллекта. Приняты на конференции Beneficial AI 2017. Среди участников конференции были, например, Илон Маск и Стивен Хокинг. Считается, что если их придерживаться, это обеспечит "безопасность и использование во благо всего человечества ИИ". Перевод  Исследовательского центра проблем  регулирования робототехники и ИИ robopravo.ru. (с)

Искусственный интеллект (ИИ) уже приносит каждый день пользу людям по всему миру. Его дальнейшее развитие на основе приведенных ниже принципов создаст условия для помощи и расширения возможностей людей на протяжении будущих веков и десятилетий.

 

Исследования

1) Цель исследований. Целью исследований в сфере ИИ должно быть создание не неуправляемого, а полезного интеллекта.

2) Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования, которые должны дать ответы на самые острые вопросы в области компьютерных технологий, экономики, права, этики и социальных исследований, таких как: 

  • Как мы можем сделать будущие системы ИИ очень надежными, чтобы они делали то, что мы хотим, без сбоев или взломов?
  • Как мы можем увеличить благополучие человечества посредством автоматизации при одновременном сохранении имеющихся у нас ресурсов и ценностей?
  • Как мы можем развивать наши правовые системы, чтобы сделать их более справедливыми и эффективными, идущими в ногу с ИИ и учитывающими риски, связанные с ИИ?
  • Какими ценностями должен быть связан ИИ, и какой статус он должен иметь с правовой и этической точек зрения?

3) Связь науки и политики. Должно быть установлено конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ.

4) Культура исследований. В среде исследователей и разработчиков в сфере ИИ следует поощрять развитие культуры сотрудничества, доверия и прозрачности.

5) Отказ от гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать между собой и не пытаться победить за счет игнорирования стандартов безопасности. 

 

Этика и ценности

6) Безопасность. Системы ИИ должны быть безопасными и надежными на протяжении всего срока их эксплуатации, а также быть контролируемыми насколько это возможно и применимо. 

7) Прозрачность неудачи. Если система ИИ причиняет вред, всегда должна быть возможность понять причину этого.

8) Прозрачность правосудия. Любое участие автономной системы в процессе принятия судебных решений должно сопровождаться предоставлением убедительных объяснений, которые могут быть перепроверены людьми из компетентных органов власти. 

9) Ответственность. Разработчики продвинутых систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможностью и несут обязанность влиять на такие последствия.

10) Схожесть ценностей. Высоко автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы.

11) Человеческие ценности. Системы ИИ должны разрабатываться и работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур.

12) Конфиденциальность личных данных. Учитывая способность систем ИИ анализировать и использовать личные данные, люди должны иметь права на доступ к своим личным данным, управление ими и осуществление контроля за их использованием. 

13) Свобода и неприкосновенность частной жизни. Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей. 

14) Совместная выгода. Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

15) Совместное процветание. Экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества.

16) Человеческий контроль. Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей, и использовать ли их для этого вообще. 

17) Устойчивость. Власть, получаемая благодаря контролю над высокоразвитыми система ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

18) Гонка вооружений на основе ИИ. Следует избегать гонки вооружений в разработке смертельного автономного оружия. 

 

Долгосрочная перспектива

19) Предостережение об ограничениях. При отсутствии консенсуса об ином, нам следует избегать уверенных предположений относительно верхних пределов будущих возможностей ИИ.

20) Важность. Продвинутый ИИ может повлечь за собой коренное изменение в истории жизни нашей планеты, поэтому он должен разрабатываться и управляться с соответствующим вниманием и способностями.

21) Риски. Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков.

22) Рекурсивное самосовершенствование. Системы ИИ, разрабатываемые с возможностью рекурсивного самосовершенствования или самовоспроизведения с последующим быстрым увеличением их количества или качества, должны отвечать строгим критериям безопасности и
контроля. 

23) Общее благо. Суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации. 

Комментирует Алексей Бойко, эксперт RoboTrends.ru: "Риски создания высокоуровневого ИИ останутся высокими даже с учетом попыток следования изложенным выше принципам. Основная ожидаемая от ИИ особенность - возможность самосовершенствования, эволюционирования. Это может происходить быстро и, возможно, спонтанно. Особую опасность представляет возможная "гонка вооружений" в области ИИ, когда меры безопасности могут принести в жертву темпам разработок. Для этого есть основания - высказываются прогнозы, что первый же созданный высокоуровневый ИИ может принять меры к тому, чтобы не допустить появления других таких разработок, видя в этом угрозу для своего существования. Собственно, в людях ИИ также может увидеть аналогичную угрозу. Несмотря на эти риски, человечество вряд ли избежит искушения разработки высокоуровневого ИИ".  

+ +

  Публикации

Последние материалы

Метки
AGV ai BVLOS DARPA DIY DIY (своими руками) DJI Lely pick-and-place RPA VTOL аватары авиация автоматизация автомобили автомобили и роботы автономные аддитивные технологии андроиды анималистичные АНПА антропоморфные Арт архитектура аэромобили аэропорты аэротакси безопасность безработица и роботы беспилотники бионика больницы будущее бытовые роботы вакансии вектор вертолеты видео внедрения роботов внутритрубная диагностика водородные военные военные дроны военные роботы встречи высотные выставки газ Германия глайдеры горнодобыча городское хозяйство господдержка гостиницы готовка еды Греция грузоперевозки группы дронов гуманоидные дайджест Дания доение роботизированное доильные роботы дом домашние роботы доставка доставка беспилотниками доставка и роботы дронизация дронопорты дроны Европа еда железные дороги животноводство жилище захваты земледелие игрушки идеи измерения Израиль ИИ ИИ - вкратце инвентаризация Индия Иннополис инспекция интервью интерфейсы инфоботы Ирак Иран искусственный интеллект испытания исследования история Италия Казахстан как заработать Канада квадрупеды кейсы киборгизация кино Китай коботы коллаборативные роботы колонки коммунальное хозяйство компании компоненты конкурсы конспекты конструкторы концепты кооперативные роботы космос культура курьезы курьеры лабораторные роботы Латвия лесоустройство лизинг линки логистика люди и роботы магазины машинное обучение медицина медицина и роботы металлургия мнения мобильные роботы мойка море морские мусор мусор и роботы навигация надводные наземные военные роботы налоги наука научные роботы необычные нефтегаз нефть Нидерланды Новая Зеландия Норвегия носимые роботы ОАЭ образование образовательная робототехника обучающие роботы общепит общепит и роботы общество Объединенное Королевство октокоптеры онлайн-курсы робототехники опрыскивание офисные охрана и беспилотники охрана и роботы парники патенты персональные роботы пищепром пляжи ПО подводные подводные роботы подземные пожарные пожарные роботы поиск полевые роботы полезные роботы полиция помощники Португалия порты последняя миля потребительские роботы почта право презентации пресс-релизы применение беспилотников применение дронов применение роботов прогнозы проекты производство производство дронов происшествия промышленность промышленные роботы противодействие беспилотникам псевдоспутники работа развлечения и беспилотники развлечения и роботы разработка распознавание речи растениеводство регулирование регулирование дронов регулирование робототехники рекорды рисунки робомех робомобили роботакси роботизация робототехника роботрендз роботренды роботы роботы и автомобили роботы и мусор роботы и обучение роботы и развлечения роботы и строительство роботы телеприсутствия роботы-транспортеры робошум рои рой Россия Руанда сад садоводство сайт RoboTrends.ru сбор урожая сборка заказов сварка связь сделки сельское хозяйство сенсоры сервисные роботы синтез речи склады склады и роботизация соревнования сортировка сотрудничество софт-роботика социальная робототехника социальные социальные роботы спорт спорт и дроны спорт и роботы спутниковая статистика строительство судовождение США такси телеком телеприсутствие теплицы теплосети термины терроризм тесты технологии техносказки торговля транспорт транспортные роботы тренды трубопроводы трубопроводы и роботизация уборка Украина уличные роботы участники рынка фотограмметрия Франция химия хобби-беспилотники ховербайки Хождение цифры частоты чатбот шагающие роботы Швейцария Швеция шоу экзоскелеты эко-дроны экология электроника энергетика этика (робоэтика) Южная Корея юмор Япония

Подписка: RSS, Email, Telegram
  Информация