Вы, старушка или собака? Чью жизнь следует спасать автопилоту?
Чем ближе появление самоуправляемых машин на дорогах, тем больше возникает вопросов. И если технологии стремительно развиваются, приближая этот день, то извечные вопросы «кто виноват» (в случае аварии) и «что делать» (если возникает аварийная ситуация) не имеют простых ответов до сих пор.
Как должен поступить автопилот, если у автономного автомобиля на скорости отказали тормоза? Спасти вашу жизнь любой ценой или избежать жертв среди пешеходов? И если ваша жизнь должна остаться неприкосновенной, то кого именно из пешеходов собьет ваш автомобиль?
Жутковатая онлайн-«игра», под названием “Moral Machine”, придуманная исследователями Массачусетского технологического института (MIT), позволяет каждому внести свой вклад в обучение искусственного интеллекта подобным вопросам.
Пользователю необходимо совершить нелегкий выбор: кого именно из людей должен сбить несущийся автономный автомобиль с отказавшими тормозами.
Предлагается выбирать между мужчиной или женщиной, ребенком или стариком, полным или стройным, человеком или животным, преступником или честным человеком, а также работником интеллектуального или физического труда. Ситуация еще больше осложняется тем, что «персонажи» перемешаны в толпе, в которую несется ваш автомобиль.
Однако, в определенных ситуациях «игра» предлагает нарушить закон и поступить иначе.
Цель такого теста, по словам его создателей — собрать мнение народа и помочь искусственному интеллекту поступить правильно.
Впрочем, по мнению экспертов, какие либо выводы на основе таких тестов строить пока рано. В настоящее время, обсуждение безопасности самоуправляемых машин сводится к построению алгоритмов минимизации любых жертв в случае аварии и к дилемме подобного этического выбора пока еще не подступали.
Источник: jalopnik.com