Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Вопросы правового регулирования в сфере автономных систем и искусственного интеллекта

Когда в прошлом месяце в США робот-наблюдатель Knightscope K5 упал в пруд в офисном комплексе, это было не в первый раз, когда такие машины попадали в неприятности. Конечно, робот системы безопасности, похожий на R2D2 из "Звездных войн", который переворачивается и падает в пруд, не представляет большую опасность, однако, более сложные автономные системы с искусственным интеллектом будут затрагивать жизни многих людей.

Итак, как должны регулироваться ситуации, когда роботы и автономные системы ошибаются и кто должен нести ответственность, если в результате ошибки причиняется вред здоровью или имуществу? Если в результате инцидента с машиной погибает человека, как должны квалифицироваться такие действия. Понятно, что машина не может нести ответственность, значит отвечать должен кто-то из людей.

В Российском законодательстве сегодня предусмотрена ответственность за производство либо сбыт товаров и продукции, выполнение работ или оказание услуг, не отвечающих требованиям безопасности (Ст.238 УК РФ). Но достаточно ли будет такого регулирования, когда вопрос будет касаться самообучающихся автоматизированных систем с AI? 

В краткосрочной перспективе, основные трудности будут заключаться в определении ответственности в зависимости от конкретной аварии, действительно ли автономная система совершила ошибку, или ее действия не выходят за рамки нормы, а причина в других факторах? Как определить, правильно ли поступила система, если, например, чтобы избежать столкновения с группой людей, она совершает маневр, в результате которого гибнет один человек? 

Часть исследователей предполагают, что в некоторых случаях ответственность могут нести разработчики системы. В частности, страховые компании будут внимательно следить за этой ситуацией, особенно в области использования беспилотных автомобилей. Для них определение виновного является важным вопросом. В связи с чем, вероятность возникновения судебных споров страховых компаний и разработчиков автономных систем весьма вероятна и пока в этом вопросе остается большое поле для дальнейшего нормотворчества.

Вопрос правового регулирования этой новой для нас отрасли не праздный. Илон Маск и другие ученые заявляют, что бесконтрольное развитие этих технологий представляют для человечества большую угрозу, чем атомное оружие, в связи с чем, они предлагают ввести жесткие нормативные рамки для автономных систем AI на уроне ООН. 

Вероятно, процесс в этом направлении начнется с малого, например, недавние рекомендации британского правительства о борьбе с потенциальными кибератаками на "умные" системы, интегрированные в автомобили или ожидаемый законопроект об автономных и электрических транспортных средствах, который будет представлен позднее в этом году, с целью создания новой структуры для страхования транспортных средств (Великобритания).

Или принятые в Германии  20 рекомендаций для автомобильной промышленности, которые следует учитывать при разработке любых автоматизированных систем управления, свод этических правил.

У некоторых исследователей, опасение вызывает тот факт, что политики недостаточно углубляются в этот вопрос и оставляют много легко используемых лазеек. Проблема заключается еще и в том, что регулирование должно касаться потенциальных угроз, а не уже существующих.

Некоторые аналитики, считают, что государственное регулирование данной сферы может стать барьером на пути развития научно-технического процесса. 

«Правила, которые препятствуют прогрессу, редко бывают хорошими, если мы считаем, что прогресс имеет выгоду для общества», считает Карл Фрейнд, старший аналитик HPC и глубокого обучения в Moor Insights and Strategy. 

И, конечно, большое количество аналитиков, согласны с тем, что эти системы потенциально будут экономить тысячи или даже десятки тысяч жизней каждый год, когда они будут широко развернуты, с очень малой и приемлемой частотой ошибок. По их мнению возможные эксцессы с участием (по вине) автономных систем должны рассматриваться также, как рассматриваются побочные эффекты, вызываемые многими лекарствами. 

И все же, если машина совершит ошибку, как мы будем определять виновного? 

Многие исследователи, такие, как Алан Уинфилд, профессор Robot Ethics в Лаборатории робототехники Bristol, предлагают идею этического черного ящика. Роботы и автономные системы, по его словам, должны быть оснащены эквивалентом регистратора данных полета, чтобы непрерывно регистрировать информацию с датчиков и соответствующие данные внутреннего состояния системы. Идея заключается в том, что она может установить причину, а соответственно и определить виновную сторону в случае аварии, вызванной роботом или машиной с поддержкой AI, что также будет иметь значение для принятия мер в целях исключения подобных ошибок в будущем. 

У нас всегда должна иметься возможность определения того, почему AI принял то или иное решение, это принцип прозрачности, этический принцип, лежащий в основе разработки автономных систем.  

Некоторые юристы, работающие в сфере высоких технологий, считают, что рост технологий искусственного интеллекта действительно вносит большие изменения в нашу жизнедеятельность, но если дело доходит до AI и мошенничества, то такие риски должны быть оценены и сведены к минимуму самими компаниями точно так же, как и любая более привычная нам угроза.

Если мы говорим о будущих гипотетических ситуациях, когда технология станет достаточно умной для совершения мошенничества, эта возможность должна быть установлена и предотвращена. Это означает принятие мер для того, чтобы не одна автономная система в будущем не имела возможности работать без предварительного тщательного изучения и проверки. Таким образом, речь идет о превентивном регулировании и контроле, и если такого контроля не будет, потенциал для вредоносных действий всегда будет иметь место.

Другим серьезным вопросом в этой области является правовое регулирование военных автономных систем.

Такие системы уже давно используются вооруженными силами разных стран. Это крылатые ракеты, беспилотники, роботы-саперы и разведчики и др., но эти системы в наше время значительно улучшаются. Мощность этого оружия повышает вероятность новой гонки вооружений, и их автономность поднимает вопросы на уровень международного права, прав человека и гуманитарного права. 

Учитывая специфику военных АС,  заключающихся в преимущественном их применении при ведении войн между государствами, этот вопрос подлежит регулированию исключительно на международном уровне. Мировым сообществом должны быть разработаны и приняты руководящие нормы и принципы, регулирующие производство и границы использования военных автономных систем. 

Подробней, фото1, фото2, фото3, фото4

4
51.726 GOLOS
Комментарии (1)
Сортировать по:
Сначала старые