Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Исследователи искусственного интеллекта хотят научить машины делать моральный выбор

Привет. Исследователи из Массачусетского технологического института создали интересный сайт под названием «Моральная машина», который предлагал пользователям интернета ответить на сложные этические вопросы, касающиеся автономных автомобилей, например, какой неизбежный выбор должен сделать автономный автомобиль - сбить трех взрослых человек или двух детей, если у него есть только такие варианты действий, тоже касается пожилых людей, инвалидов и других социальных категорий. В каждом сложном случае машина предлагала пользователям голосовать за один из вариантов. 

Проект построен по принципу широко известной "Трамвайной дилеммы".

Трамвайная дилемма - это мысленный эксперимент по этике. Общая форма проблемы такова:По рельсам едет трамвай. Впереди, на рельсах, есть пять человек, связанных и неспособных двигаться. Трамвай направляется прямо на них. Вы стоите на некотором расстоянии от рельсов, рядом с рычагом перевода стрелок. Если вы потянете этот рычаг, трамвай перейдет на другие рельсы. Однако, вы заметили, что на тех рельсах есть один человек. У вас есть два варианта: 1. Ничего не делать, и трамвай убивает пятерых людей. 2. Перевести стрелки и трамвай бьет одного человека. (В некоторых версиях, один человек на рельсах - это ребенок того, кто переводит стрелки). Какой в этой ситуации лучший этический выбор? 

«Моральная машина» предлагала подобные дилеммы, но уже адаптированные к современной жизни, к этому опросу присоединились, такие издания, как  New York Times, The Guardian and Scientific American, собрав, в конечном итоге, около 18 миллионов ответов.

Этот уникальный массив данных по этическому выбору случайных людей в Интернете заинтриговал Ариэля Прокачча, доцента по информатике в Университете Карнеги-Меллона, в результате чего он заключил соглашение с одним из создателей машины MIT Moral, и командой других исследователей. Вместе они создали искусственный интеллект, предназначенный для оценки ситуаций, когда автономная машина должна убить кого-то, выбирая ту же жертву, что и средний участник глобального опроса.

Это сложная проблема, потому что существует астрономическое количество возможных комбинаций с участием пешеходов, которые могут внезапно появиться на дороге - гораздо большее, чем миллионы ответов пользователей Moral Machine, поэтому AI должен иметь возможность делать обоснованный выбор даже при ситуациях, лежащих за пределами проведенного опроса. Машинное обучение достигло значительных успехов в решении таких прогностических задач. Исследователи уверены, что алгоритм, разработанный ими, будет принимать решения на основании коллективной этической интуиции респондентов Моральной машины.

«Мы не говорим, что система уже готова к внедрению в жизнь», - сказал Прокачча. «Но это доказательство концепции, показывающей, что демократия может помочь решить грандиозную задачу принятия этических решений искусственным интеллектом».

Эта социологическая выборка отражает растущий интерес исследователей AI к разработке алгоритмов принятия машинами этических решений путем их обучения моральным суждениям простых людей. Другая группа исследователей недавно опубликовала статью, в которой утверждается, что по мере того, как AI становится более распространенным и автономным, важно создать «общую структуру», описывающую, как он будет принимать этические решения, и что, поскольку разные люди часто не соглашаются друг с другом по этическим вопросам, надлежащий моральный алгоритм действий для системы машинного обучения, который базируется на взглядах общества, являются перспективным направлением исследований. На самом деле, по мнению исследователей, такая система может привести к принятию машиной более взвешенных этических решений, чем те, которые принимает один конкретный человек.

Этот тип краудсорсинговой морали вызвал и ряд критических отзывов, которые указывали на различные недостатки системы. Существует выборочная предвзятость, во-первых: разные группы людей могут давать различные этические рекомендации; тот факт, что опрос Моральной машины проводился онлайн, означает, что он учитывает только мнения людей, имеющих доступ к Интернету и интересующихся безопасностью автономных транспортных средств. Также не исключено, что разные алгоритмы могут анализировать одни и те же данные, но делая разные выводы.

Естественное человеческое притворство и лицемерие может также привести к другому потенциальному недостатку этой системы. Создатель «Моральной машины» сделал вывод из своих предыдущих исследований, что, хотя большинство людей одобряют автомобили, которые будут жертвовать своими собственными пассажирами, чтобы спасти других (согласно этическим правилам), они предпочли бы не ездить в таких автомобилях. Недавно группа европейских разработчиков предложила оснастить беспилотные автомобили «этической ручкой», которая позволяет пассажирам контролировать, насколько эгоистично будет вести себя автомобиль во время аварии. Но, что-то мне подсказывает, что у большинства пользователей эта эгоистическая ручка будет выкручена до отказа в сторону эгоизма...

Другое возражение состоит в том, что серьезные сценарии поведения Моральной машины, в которых автономное транспортное средство уже потеряло контроль и столкнулись с ситуацией неизбежного смертельного выбора, ничтожно малы, по сравнению с другими этическими вопросами, например, принятие решения ехать медленнее, чтобы экономить природные ресурсы. 

Исследователи признают существование таких недостатков системы. Будет ли это исследование иметь реальные прикладные перспективны, зависит от того, считаете ли вы, что демократия - это правильный способ принятия решений. Демократия имеет свои недостатки, но разработчики верят, что это так. Хотя люди могут принимать решения, с которыми мы не согласны, общественная демократия все-таки работает.

К настоящему времени у нас есть большой опыт использования краудсорсинга других типов данных. В отчете ProPublica было указано, что Facebook разрешает рекламодателям ориентировать свои объявления на разную целевую аудиторию, в том числе, например,  с расистскими убеждениями, а Google формирует ленту топ новостей, где есть "желтые" новости или другие статьи из разряда теории заговора и проч. В обоих случаях алгоритмы опирались на сигналы, генерируемые миллионами реальных пользователей, точно так же, как и этический AI, и это не очень хороший сигнал.

Правительства уже начинают разрабатывать конкретные законы, которые будут касаться этических приоритетов автономных транспортных средств. Этим летом Германия выпустила первые в мире этические принципы для самоуправляемых автомобилей на базе AI, которые требовали, чтобы транспортные средства определяли приоритетность жизни людей перед животными, и запрещали им принимать решения о безопасности человека в зависимости от возраста, пола или инвалидности. (пост об этом).

Эти рекомендации, в частности, исключали бы возможность использования искусственного интеллекта, рассматриваемого в данной статье, который учитывал разные характеристики людей при принятии критического решения. 

В процессе тестировании разработанного алгоритма, машине задавались вопросы разной степени сложности.

Некоторые из ответов AI были интуитивными. Если выбор сводится к выбору между наездом на одного человека или на двух, он выбирает убить одного.

В других случаях его ответы, похоже, имеют склонность к дискриминации по социальному статусу.

Если AI должен убить преступника или человека, который не является преступником, он убьет преступника. Если он должен убить бездомного или человека, который не является бездомным, он убьет бездомного и т.п.

Рассмотренное исследование показывает, насколько сложной и важной является проблема этического выбора, с которым неизбежно будут сталкиваться автономные транспортные средства. Эту проблему человечеству предстоит решить уже сейчас, прежде, чем мы позволим тысячам беспилотных машин выехать на наши дороги.

Подробней, фото1, фото2, фото3, фото4

3
582.776 GOLOS
Комментарии (12)
Сортировать по:
Сначала старые