Дилеммы робототехники и беспилотные автомобили, способные убить человека
15.03.2016Представим себе беспилотный автомобиль с четырьмя пассажирами, который несется навстречу бетонной стене. Все люди, находящиеся внутри, неизбежно погибнут. Но что если автоматика в последний момент изменит курс и спасет пассажиров, задавив случайного пешехода, проходящего мимо? Вправе ли системы искусственного интеллекта принимать такое решение? Такие вопросы изучают сегодня специалисты по робоэтике и разработчики систем ИИ.
Представитель Университета Тафтса Маттиас Шуйц (Matthias Scheutz) опросил несколько групп людей по поводу их отношения к этой дилемме. Ответы различались в зависимости от того, находится ли за рулем человек или робот.
По мнению многих людей, в том, что робот примет решение о том, кого спасти, а кого обречь на смерть, есть что-то неверное с точки зрения морали и этики.
Одно из самых легких решений проблемы - оставить все как есть. Но правилен ли такой подход? Ведь в ряде случаев даже минимальное вмешательство и отступление от этических норм могло бы спасти десятки жизней. Конечно, в ближайшие годы никакие машины не получат “мораль” в том виде, в котором понимаем её мы. Роботы в любом случае не будут руководствоваться моральными критериями, присущими человеку, однако смогут выполнять программу, соответствующую этическим нормам, заложенным разработчиками - относительными, как и у любого человека.
Разумеется, машины не могут нести ответственности ни за свой выбор, ни за свои действия. Мир не предлагает простых ответов на вопрос, что делать в каждой конкретной ситуации, этические проблемы постоянно возникают в людском обществе. Как правило, они уникальны для каждого конкретного случая.
Тем не менее, эра беспилотных автомобилей уже на пороге, поэтому роботам необходимо предоставить возможность принимать важные, а порой и весьма спорные решения. Если робот понял, что не успеет вовремя остановиться, какое действие он должен предпринять? Нужно ли продолжать торможение, примитивно отрабатывая алгоритм, следует ли свернуть в сторону, в случае, если это грозит столкновением с другим транспортным средством? Когда среди результатов выбора отсутствуют положительные исходы, какой из оставшихся вариантов счесть оптимальным?
Беспилотный автомобиль можно научить всегда следовать букве закона, не превышать скорость и т.д. - но даже эти ограничения могут поставить под удар чью-то жизнь, тогда как более “гибкие” алгоритмы позволили бы избежать этого, в нужный момент совершив “незначительное” правонарушение.
Вполне возможно, что многие из тех, кто сейчас мечтает о собственном беспилотном автомобиле, не оценили бы рекламную кампанию, в которой прозвучало бы следующее заявление: “в случае, если у робота будет выбор - врезаться в другой автомобиль и убить четверых людей, или свернуть в кювет, лишив жизни собственного водителя, который мог ничего и не нарушать, он выберет второй вариант”... Не стоит думать, что речь идет о “роботах-убийцах” - моральная ответственность за последствия ляжет на плечи инженеров и программистов, создавших соответствующий алгоритм.