Хороши ли законы робототехники Азимова в 2018 году?

Уже 76 лет прошло с тех пор, как знаменитый писатель-фантаст Айзек Азимов составил свои Три Закона робототехники. На то время они должны были выглядеть перспективно. Но насколько хорошо будут соблюдаться эти правила в мире, где искусственный интеллект проник в общество так глубоко, что мы сейчас его даже не видим?

Впервые опубликованные в рассказе «Хоровод», законы Азимова гласили:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

На протяжении столетия эти законы казались неплохим стартовым пунктом для размышлений, когда дело касалось регулирования роботов, — Уилл Смит даже снял фильм об этом. Но эксперты[pdf] считают, что они просто не подходят к современным реалиям ИИ.

Справедливости ради заметим, что во времена Азимова никто не предполагал существования Facebook и Google. Все думали о роботах с оружием и лазерами, а не о рекламе в соцсетях и не об алгоритмах поисковиков.

А сейчас мы находимся на той стадии, когда искусственный интеллект становится обыденным, — до наступления сингулярности, по крайней мере. И, стало быть, мы меньше всего задумываемся над тем, как не позволить роботам убивать нас.

И кажется, что следующим пунктом в обсуждении искусственного интеллекта станет именно его регуляция. Политики всего мира призовут[pdf] лучших мировых экспертов для консультаций на предмет грядущей революции автоматизации.

Итак, каковы же должны быть правила для искусственного интеллекта в невыдуманном мире?

Согласно отчету, который опубликовали на этой неделе Cambridge Consultants, под названием «ИИ: Понимание и использование потенциала», есть пять ключевых областей, в которых необходимо регулирование искусственного интеллекта:

Независимо от того, каким образом устанавливаются правила и кто их устанавливает, мы считаем, что для соблюдения законов и налаживания рабочих процессов важными являются следующие принципы:
  1. Ответственность. Всегда должен быть конкретный человек, который отвечает за последствия поведения автономной системы. Речь идет не только о правовой защите, но и об обеспечении обратной связи, наблюдении за результатами и внесении изменений.
  2. Объяснимость. Должно быть возможным объяснить всем вовлеченным людям (часто неспециалистам), почему поведение системы именно таково.
  3. Точность. Источники ошибок должны быть определены, наблюдаемы, оценены и, если необходимо, должны смягчаться или удаляться.
  4. Прозрачность. Необходимо обеспечить возможность тестировать, обозревать (публично или приватно), критиковать и оспаривать результаты, выданные автономной системой. Результаты проверок и оценки должны быть доступны публично и объяснены.
  5. Справедливость. Способы использования данных должны быть разумны и уважать конфиденциальность. Это поможет избежать предубеждений и предотвратит возникновение других проблемных ситуаций.

Как вы заметили, здесь нет ни слова о том, что ИИ должен воздерживаться от умышленного уничтожения людей. Видимо, потому, что на момент написания машины сами не способны принимать такие решения.

Правила здравого смысла в развитии ИИ должны решать проблемы реального мира. Шансы на то, что алгоритмы эппловского Face ID убьют вас, весьма незначительны, но неэтичный программист, безусловно, может создать ИИ, который вторгнется в ваше приватное пространство с помощью камеры смартфона.

Вот почему любой набор правил для ИИ должен сосредоточиваться на прогнозировании вреда, смягчении рисков и обеспечении приоритета безопасности. К примеру, у Google есть комплект гайдлайнов для работы с машинами, в которых говорится:

Мы выделяем пять проблем, которые, по нашему мнению, очень важны. так как мы используем ИИ в более общих обстоятельствах. Это предмет мышления на перспективу, вопросы для долгосрочных исследований: сегодня второстепенные проблемы, но в будущем они станут важными:
  1. Избегание негативных побочных эффектов. Как мы можем гарантировать, что система ИИ не будет разрушать окружающую среду в процессе выполнения своей работы? Например, робот-уборщик, разбивающий вазу, потому что так он быстрее справится с работой.
  2. Избегание хаков вознаграждения. Как мы можем избежать игры с функцией вознаграждения (reward function)? Например, мы не хотим, чтобы этот робот-уборщик просто прикрывал беспорядок материалами, которые он не видит.
  3. Масштабируемый контроль. Как нам следует эффективно обеспечить, чтобы данная система ИИ уважала те аспекты цели, которые было бы слишком затратно часто оценивать во время обучения? Например, если система получает обратную связь от человека, пока выполняет задание, она должна эффективно использовать эту обратную связь, потому что слишком частые вопросы будут раздражать.
  4. Безопасное изучение. Как мы можем гарантировать, что система не будет делать во время обучения шагов со слишком негативными последствиями? Например, робот-уборщик будет экспериментировать со стратегиями чистки, но очевидно, что он не должен пытаться пройтись мокрой шваброй по электрической розетке.
  5. Устойчивость к сдвигу распределения. Как мы можем обеспечить, чтобы система ИИ вела себя устойчиво в условиях, которые отличаются от тех, в которых она проходила обучение? Например, эвристика, выученная для заводских помещений, может быть недостаточно безопасна для офиса.

Будущее искусственного интеллекта — это не только проблема таких компаний, как Google и Cambridge Consultants, и поскольку машинное обучение внедряется во все большее количество устройств, включая смартфоны и компьютеры, постольку его влияние будет возрастать. Неэтичный код может распространяться в неурегулированном пространстве, особенно с тех пор, как мы узнали, что ИИ может быть разработан для создания более совершенных алгоритмов, чем способны создать люди.

Понятно, что проблемы регуляции и этики в области ИИ имеют мало общего с роботами-убийцами, за исключением машин, разработанных для войны. Взамен того, правительства должны сконцентрироваться на тех опасностях, которые ИИ представляет для отдельных лиц.

И само собой, «не убий человека» — это хорошее правило для всех машин и людей, разумны они или нет.

Tristan Greene

технологиииифутурология
88
5.412 GOLOS
0
В избранное
hellonoi
На Golos с 2018 M01
88
0

Зарегистрируйтесь, чтобы проголосовать за пост или написать комментарий

Авторы получают вознаграждение, когда пользователи голосуют за их посты. Голосующие читатели также получают вознаграждение за свои голоса.

Зарегистрироваться
Комментарии (3)
Сортировать по:
Сначала старые