Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Как заложить принцип "Не навреди" в Ai-машины?

Привет. Этим вопросом затронут очень широкий спектр проблем в области развития систем искусственного интеллекта. Для ответа на него нам нужно иметь четкое понимание того, как Ai может нам навредить. На мой взгляд, есть ряд негативных сценариев в этом направлении. 

Во-первых, вред может быть причинен машиной в результате допущенной ошибки при работе алгоритма. Учитывая возможность широкого внедрения искусственного интеллекта в систему здравоохранения, в системы жизнеобеспечения, в системы управления беспилотным транспортом и т.п., где цена ошибки может стоит человеческих жизней, такой сценарий причинения вреда выглядит вполне реалистично. 

Что мы можем сделать для его минимизации? 

На этапе становления технологий необходимо неспешно внедрять автономные системы в те области, где существует риск причинения вреда жизни и здоровью, необходимо оставить место для определенного контроля за работой машин со стороны человека, тщательно тестировать каждый узел на всех этапах его адаптации. Это в большей степени технический вопрос, который решается со временем. 

Есть другой сценарий причинения вреда отдельному человеку и даже всему человечеству, о котором сегодня все чаще говорят ученые и исследователи в области искусственного интеллекта первой величины, такие, как Элон Маск, сооснователь Google DeepMind Мустафа Сулейман, Стивен Хокинг и др. Это создание автономного оружия. 

Системы вооружения, функционирующие на базе машинного обучения и автономно принимающие решения о применении оружия ставят под угрозу жизни не только военного персонала, но и гражданских лиц. Кроме того, полностью автономные системы вооружения имеют ряд проблем на поле боя: роботы не могут различать друг и врага, другой вопрос - это пропорциональность применения силы. Это решение о соразмерности силы, которая считается разумной в данной боевой ситуации с учетом возможного нахождения гражданских лиц в местах боевых действий. 

Опасения вызывает возможность выхода из под контроля распространения таких военных технологий и попадание в руки экстремистов или террористических группировок, а также безответственных правительств определенных стран. 

В данном случае причинения вреда со стороны систем искусственного интеллекта будет являться злая воля его создателей или владельцев. Эту проблему предлагают решить на международном уровне, путем запрета ООН на разработку и использование военных автономных систем. 

Существует еще один негативный сценарий развития ситуации, который, в большой степени, пока находится в области конспирологии и научной фантастики, но который также нельзя недооценивать или пренебрегать, о котором также высказывают свое беспокойство приведенные выше исследователи.

Он заключается в достижении системами искусственного интеллекта такого уровня развития и широты его внедрения в нашу жизнь, когда в один из дней он осознает, что люди - это негативный фактор и примет решение по их уничтожению или порабощению. 

Учитывая огромную вычислительную мощность машин, их взаимосвязь по всему миру, возможность постоянного обучения, огромное количество датчиков или сенсоров - устройств фиксации и передачи информации - камеры наблюдения, датчики погоды, GPS датчики, сигналы с мобильных устройств и пр.и пр., а также все данные глобальной сети интернет,  которые Ai будет моментально анализировать и строить прогностические модели. 

В результате человек, по словам Элона Маска, окажется чем-то вроде домашней собачки по сравнению с мощью глобального Ai. Есть ли пути решения данной проблемы? Да, но для этого мировое сообщество должно выработать определенные правила в этой отрасли. Не должно быть бесконтрольного распространения технологий, которые подвергают опасности все человечество. Как и с вопросами контроля за атомным оружием. 

Как решить вопрос с технической стороны? 

Сегодня основными методами развития искусственного интеллекта являются: глубокое машинное обучение и нейронные сети. Принцип их работы заключается в постоянном самообучении Ai. Нейронные сети состоят из множество узлов - нейронов, имеющим входы и выход, которым имеют такой атрибут, как вес и состоят из множества уровней - слоев. Но для их обучения нужны примеры, чтобы понимать "что такое хорошо, а что такое плохо". 

Таким образом, для обучения Ai не должны использоваться примеры, где причинение какого-либо вреда человеку расценивалось бы положительно и увеличивало соответствующие веса узлов-нейронов, а наоборот, воспринималось негативно.

Такую концепцию еще в 1942 году сформулировал Айзек Азимов, описав три закона робототехники, которые гласили: 

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 

Значит именно примеры такого поведения должны программироваться, как безусловно положительные для машины. Но трудность заключается в том, что на сегодняшний день отсутствует какое-либо унифицированное правовое регулирование в данной сфере. Без решения этого вопроса на международном уровне по примеру контроля за атомным оружием, этот вопрос будет оставаться в подвешенном виде.  

Фото1, фото2, фото3

0
35.335 GOLOS
Комментарии (1)
Сортировать по:
Сначала старые