Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Почему разработчикам искусственного интеллекта нужно изучать вопросы морали и этики

Привет. Сегодня ученые, которые создают искусственный интеллект и автономные системы, нуждаются в ясном этическом понимании последствий, к которым может привести их работа. 

Более 100 исследователей в области новых технологий недавно опубликовали открытое письмо Организации Объединенных Наций по вопросу о смертельном автономном оружии или «роботах убийцах».

Основатели нескольких робототехнических предприятий, в том числе предприниматель Элон Маск являются частью этой кампании, которая началась в 2015 году. В письме содержится призыв к прекращению гонки вооружений, которая, по утверждению авторов, может быть «третьей революцией в войне, после пороха и ядерного оружия».

ООН должна сыграть свою роль, но ответственность за будущее этих систем должна начинаться в лабораториях. Система образования, которая обучает наших исследователей AI, должна наряду с программированием учить их этике.

Автономия в AI

Автономные системы могут принимать решения сами по себе, практически без участия людей. Это значительно повышает полезность роботов и аналогичных им устройств.

Например, беспилотному коптеру требуется только адрес доставки, а затем он сам может разработать лучший маршрут для преодоления любых препятствий, с которыми он может столкнуться на этом пути, таких, как неблагоприятная погода или стая любопытных чаек.

Было проведено большое количество исследований автономных систем, и в настоящее время дроны разрабатываются такими компаниями, как Amazon. Очевидно, что та же технология может быть легко использована для доставки предметов, которые значительно более опасны, чем еда или книги.

Дроны также становятся все меньше, дешевле и более надежны, а это значит, что в скором времени станет возможным производить и развертывать летающие армии тысяч дронов.

Потенциал для развертывания таких систем вооружений, которые будут в значительной степени независимы от контроля со стороны людей, побудило авторов написать письмо, призывающее ООН «найти способ защитить нас всех от этих опасностей».

Этика и рассуждения

Каково бы ни было мнение о таких системах вооружений, проблема требует необходимости рассмотрения этических вопросов в сфере разработки AI.

Как и в большинстве областей науки, для достижения необходимой глубины, необходимой для внесения вклада в мировые знания нужно сосредоточиться на конкретной теме. Часто исследователи являются экспертами только в относительно узких областях и могут испытывать недостаток обучения в области этики или нравственности.

Именно такие знания все чаще требуются сегодня. Так, беспилотные автомобили, которые проходят испытания в США, должны будут иметь возможность судить о потенциально опасных ситуациях.

Например, как надо реагировать, если кошка неожиданно пересекает дорогу? Лучше ли проехать по кошке или резко отвернуть в сторону, чтобы избежать этого, рискуя причинить вред людям или автомобилям?

Есть надежда, что такие случаи будут редки, но автомобиль должен быть разработан с учетом конкретных принципов для руководства ими при принятии решений. 

Доктрина Double Effect (двойной эффект) - рассуждения о нравственных вопросах, таких, как право на самооборону при определенных обстоятельствах, приписывается католическому ученому XIII века Фоме Аквинскому.

Название Double Effect происходит от соотношения получения положительного эффекта (например, для спасения жизни человека), и негативного эффекта (причинение вреда кому-либо). Это способ оправдать,  например, такие действия, как видео съемка с беспилотных автомобилей, которая захватывает пешеходов.

Что это значит для образования?

Появление этики, как темы для обсуждения в вопросах разработки AI ведет к необходимости рассмотреть вопрос и о системе подготовки студентов к миру, в котором автономные системы становятся все более распространенными.

Сегодня появилась потребность в людях, называемых  "T-shaped". Компании теперь ищут выпускников не только с определенной степенью технической подготовки (вертикальный линия у T), но и с личными качествами, которые позволяют человеку взаимодействовать со смежными технологическими областями  (горизонтальная линия). В совокупности они могут видеть проблемы с разных точек зрения и эффективно работать в междисциплинарных командах.

Большинство курсов по информатике и аналогичным дисциплинам включают курс профессиональной этики. Они, как правило, ориентированы на интеллектуальную собственность, авторские права, патенты и вопросы конфиденциальности, что, безусловно, важно.

Однако, ясно видно, что возникает потребность в дополнительном материале по более широким этическим вопросам.

Темы могут включать методы определения наименьшего из двух зол, юридические понятия, такие как преступная халатность и исторические последствия влияния технологий на общество.

Ключевым моментом является то, чтобы выпускники могли с самого начала интегрировать этические и социальные аспекты в свою работу. 

Поскольку AI все более широко внедряется в повседневную жизнь, крайне важно, чтобы исследователи понимали проблемы общества, в котором они живут, и влияние, которое на него могут оказать создаваемые ими технологии.

Подробней, фото1, фото2, фото3

0
258.310 GOLOS
Комментарии (9)
Сортировать по:
Сначала старые