Должен ли беспилотный автомобиль сбить пешехода, чтобы сохранить вашу жизнь?

0

VK

Люди говорят, что в один прекрасный день, возможно, в не столь отдаленном будущем, они хотели бы быть пассажирами беспилотных автомобилей, эдаких внимательных машин, работающих на благо человечества. Перестраиваются осторожно, уступают дорогу пешеходам на зебре, соблюдают безопасную дистанцию.

Новое исследования, однако, указывает на то, что люди на самом деле хотят ездить на беспилотниках, которые в первую очередь заботятся о своих пассажирах. Если компьютер машины должен выбирать между тем, врезаться в стену или переехать кого-то…. Что ж, пешеход, извини!

На этой неделе группа ИТ специалистов и психологов рассказали в журнале Science («Наука») о шести онлайн-опросах жителей США, которые они провели в прошлом году в период с июня по ноябрь. В ходе опросов они спрашивали людей об их мнении, как должны вести себя беспилотные автомобили. Исследователи обнаружили, что респонденты в целом считают, что ПО беспилотника должно думать, прежде всего, о всеобщем благе.

Вроде бы, все в порядке. Но серия смоделированных неприятных ситуаций на дороге, в которых необходимо принять решение – уберечь кого-то или принести себя и жизни пассажиров, которые могут быть членами семьи, в жертву, показала, что люди предпочитают остаться в живых, что не удивительно.

Эта специфическая дилемма роботизированной морали давно показана в научно-фантастических книгах и фильмах. Но в последние годы она стала серьезным вопросом для исследователей, работающих над автономными транспортными средствами, которые должны, по сути, на уровне ПО принимать нравственные решения.

По мере приближения беспилотных автомобилей к реальности это стало серьезным философским вопросом с бизнес-последствиями для производителей. Возможно, производителям стоит создавать беспилотники с настраиваемой степенью нравственности, запрограммированной в зависимости от того, чего хочет потребитель? Должно ли правительство принять на законодательном уровне решение, что все беспилотники должны быть запрограммированы на одни и те же ценности защиты величайшего блага на Земле, даже если это может навредить пассажирам автомобиля?

И что именно является этим величайшим благом?

«Приемлемо ли для АТС (автономное транспортное средство) врезаться в стену для избежания столкновения с мотоциклом, принимая во внимание, что вероятность выживания пассажиров АТС больше, чем у мотоциклиста? Должно ли АТС принимать во внимание возраст пассажиров и пешеходов», пишут Жан-Франсуа Боннефон из Тулузской школы экономики во Франции, Азим Шарифф из Университета штата Орегон и Ийяд Рахван из Лаборатории СМИ в Массачусетском технологическом институте.

В основе этой дискуссии лежит «проблема вагонетки». Впервые ее сформулировал в 1967 году британский философ Филипп Фут. «Проблема вагонетки» — простая, но неприятная с этической точки зрения головоломка.

Представьте себе тяжелую неуправляемую вагонетку, которая несется по рельсам по направлению к пяти рабочим. Их жизнь можно спасти, переключив стрелку на другой путь. Но на этом пути стоит один рабочий. Каковы ваши действия? Что правильнее сделать?

Исследование, опубликованное в журнале «Наука» пытается дать количественную оценку этому философски-затруднительное положению. «Одним отсутствующим компонентом был вопрос: чего люди действительно хотят», говорит д-р Рахван, ученый в области социальной статистики.

Каждая смоделированная ситуация представляла различные варианты: разное количество пешеходов, которых можно спасти, или добавление члена семьи в картину. В одном из исследований ученые обнаружили, что участники, как правило, неохотно принимают государственное регулирование алгоритмов искусственного интеллекта, даже если это будет одним из способов решить или, по крайней мере, попытаться дать ответ на «проблему вагонетки».

Число респондентов в шести исследованиях варьировалось от 182 до 451.

Новое исследование может загнать АТС в философскую и правовую кроличью нору. А так как концепция АТС еще настолько нова, на поиск ответов могут уйти годы. Например, авторы исследования пишут: «Если производитель предлагает разные версии морального алгоритма АТС, и покупатель сознательно выбирает один из них, виноват ли покупатель за последствия решений, принятых алгоритмом?»

Вооруженные силы Соединенных Штатов также пытаются смириться с фактом, что передовые технологии находится на пороге создания беспилотных вооруженных летательных аппаратов, которые могут принимать самостоятельные решения о поражении цели. В 2012 году Пентагон выпустил директиву, которая пыталась провести линию между полуавтономными и полностью автономными вооружениями. Они не запрещены, но они должны быть разработаны таким образом, чтобы обеспечить «соответствующий уровень» человеческого суждения по поводу их применения.

В сопутствующей исследованиям статье, опубликованной в журнале «Наука», гарвардский психолог Джошуа Д. Грин предположил, что наиболее сложными проблемами в принятии АТС решений являются «философские, нежели технические. Перед тем как мы загрузим наши ценности в алгоритм машины, мы сначала должны сами ясно и последовательно определиться, что это за ценности».

Некоторые исследователи утверждают, что обучение машин этике не может быть правильным подходом.

«Если предположить, что цель АТС — заменить людей, то нужно преподавать этику автомобилям», говорит Амитай Этциони, социолог в Университете Джорда в Вашингтоне. «Это скорее должно быть партнерство между человеком и машиной, и человек должен быть тем, кто дает этические рекомендации».

Комментариев нет. Войдите чтобы оcтавить комментарий.

Добавить комментарий

Наверх