Четыре закона для Искусственного Интеллекта [50\50]

Даже тот, кто совсем не интересуется фантастикой, наверняка слышал про "три закона робототехники", придуманные американским писателем-фантастом Айзеком Азимовым. На самом деле их не три, а четыре: спустя 40 с лишним лет Азимов добавил "нулевой", то есть наиболее приоритетный закон. Знать их наизусть не обязательно, достаточно понимать, что в них сформулирована своего рода Конституция для роботов, отражающая основные правила поведения.

Долгое время эти законы считались чем-то умозрительным и несерьезным, забавой для подростков-мечтателей. И вот наступил момент, когда регулирование взаимоотношений между человеком и не-человеком стало актуальным.



Рассмотрим простой пример. Парализованный человек участвует в клиническом испытании нейронного интерфейса. Компьютер, подключенный к чипу в мозгу пациента, распознает мысленные команды и передает их роботизированной руке. Допустим, человек испытывает антипатию к одному из ассистентов, и когда рука принимает у того стакан с водой, она сжимает стакан так, что он разбивается и наносит ассистенту вред. Кто может гарантировать, что это была случайность, а не "чересчур вольная" интерпретация компьютером человеческих мыслей? Разумеется, это гипотетическая ситуация, но она демонстрирует, какие проблемы могут возникнуть в будущем.

В настоящее время нейронные интерфейсы выполняют лишь простейшие задачи, такие, как перемещение курсора по экрану или управление автоматизированным инвалидным креслом. Пройдет еще много времени, прежде чем нейротехнологии станут частью нашей повседневной жизни. Но судя по направлению и интенсивности исследований, мы строим общество, где решающее значение будут иметь не физические действия, а намерения и эмоции. Компьютеры смогут считывать не только осознанную мыслительную деятельность человека, но и подспудные психические процессы.

Подобные перспективы сулят максимальное раскрытие человеческого потенциала, но также открывают путь и для различных злоупотреблений - от кражи личных данных до манипуляций огромными массами населения. И в любом случае это приведет к изменению таких, казалось бы, незыблемых понятий, как право на конфиденциальность мыслей или соответствие личности человека его физическому телу.

Задуматься о возможных последствиях необходимо уже сейчас.

В мае 2017 года в Колумбийском университете (Нью-Йорк, США) прошел международный семинар, посвященный этике нейротехнологий и искусственного интеллекта. Участники пришли к выводу, что действующая ныне Хельсинкская декларация устарела. Эта декларация описывает этические принципы, которые необходимо соблюдать при медицинских исследованиях и в частности, при экспериментах на людях. Она была принята в 1964 году и неоднократно пересматривалась, но даже в обновленном виде Хельсинкская декларация не отвечает современным запросам.

Участники семинара обозначили четыре проблемы, которые вызывают у них тревогу.


1. Конфиденциальность и добровольность.

Непосвященный человек даже не представляет, какое огромное количество личной информации он передает уже сейчас, на нынешнем уровне развития технологий. Ученые из Массачусетского технологического института еще в 2015 году обнаружили, что на основе данных о прикосновениях абонента к экрану смартфона можно провести анализ мелкой моторики и выявить ранние стадии болезней Альцгеймера и Паркинсона. А исследования, проведенные в 2017 году, показали, что это можно сделать, даже если человек не трогает экран, - достаточно проанализировать паттерн его повседневных передвижений со смартфоном в кармане.

Что уж говорить об информации, которая будет получена не на основе физической активности человека, а непосредственно из мозга. Алгоритмы, применяемые в таргетировании рекламы, станут еще более изощренными, причем реклама - лишь видимая, наиболее безобидная часть айсберга. Поэтому каждый человек должен иметь право и возможность отказаться от любого нейросетевого контакта. В тех же случаях, когда человек осознанно выражает согласие, он должен быть в явной форме предупрежден, какая конкретно информация будет использована, для каких целей и в чье распоряжение она поступит.


2. Субъектность личности.

Люди, чей мозг подвергается стимуляции через вживленные электроды, иногда жалуются, что теряют собственное Я и начинают чувствовать себя "кем-то другим". Не исключено, что нейротехнологии смогут вторгаться в эту сферу на более глубоком уровне. Снова пример: все знают, что такое "автокоррекция" или "автодополнение" текста. Но как насчет автодополнения мысли? Даже при написании простых слов этот инструмент работает не всегда корректно. При этом очевидно, что наиболее востребованными функциями нейроинтерфейса станут сокращение времени между намерением и действием, а также обеспечение человеку удаленного доступа. В таких условиях максимальная точность при реализации намерений становится крайне важной.


3. Равноправие.

Зачастую люди считают, что их тело или мозг функционирует хуже, чем хотелось бы. Некоторые принимают лекарственные препараты, улучшающие физическое самочувствие или повышающие умственные способности. Внедрение нейротехнологий развяжет настоящую "гонку вооружений" в этой области - если заранее не будут приняты некоторые правила и ограничения. Крайне важно не допустить какой-либо дискриминации, иначе человечество окажется в классической антиутопии, где немногочисленная группа интеллектуалов помыкает бесправной толпой.

Также необходимо учитывать военный аспект, то есть гонку вооружений не метафорическую, а уже буквальную. Ни для кого не секрет, что Управление перспективных исследовательских проектов Министерства обороны США, известное как DARPA (Defense Advanced Research Projects Agency), давно планирует обеспечить солдат и аналитиков "дополнительными умственными способностями". Можно лишь гадать, куда заведет эта дорога в отдаленной перспективе. Поэтому нужно строго регулировать применение нейронных технологий в военных целях. Идеальным решением был бы глобальный мораторий под контролем ООН, такой же жесткий, как и контроль за распространением ядерного оружия.


4. Объективность.

В 2015 году сотрудники компании Google выяснили, что показ одного и того же рекламного объявления о свободных вакансиях стоит меньше, если эта реклама демонстрируется женщинам. Дело в том, что общее количество объявлений о поиске сотрудников-женщин меньше, а значит, конкуренция между рекламодателями в этом сегменте ниже, отсюда и более низкая цена показа, которая формируется алгоритмом автоматически. Аналогичным образом организация ProPublica, занимающаяся журналистскими расследованиями, обнаружила, что алгоритмы, которые используются в правоохранительных органах США, при прогнозировании ошибочно завышают процент рецидивов среди чернокожих преступников. Подобная предвзятость может распространяться и на нейронные устройства.


Участники семинара в Колумбийском университете призвали коллег по всему миру к ответственному поведению при разработке нейронных систем. История показывает, что погоня за прибылью иногда затмевает людям рассудок. И даже если большинство исследователей искренне желают принести обществу пользу, корпоративные интересы могут взять верх. Поэтому на университетском семинаре было принято решение инициировать создание Международной конвенции для четкого определения недопустимых действий в сфере нейротехнологий. Планируется, что при ООН будет создана соответствующая рабочая группа.

Первые три закона робототехники Айзек Азимов сформулировал еще в 40-х годах прошлого века. Минуло уже 70 лет, а эти законы до сих пор не востребованы. Кто-то может сказать, что писатель-фантаст поторопился. Возможно, это так. Но лучше иметь решение проблемы и не иметь самой проблемы, чем наоборот.


По материалам nature.com

Сокращенный перевод @solips

Источник изображения


Голосуя за посты с заголовком 50\50 вы получаете обратно половину стоимости апвоута в GBG.


наукаииaiапвот50-50u75
231
2.279 GOLOS
0
В избранное
Евгений
ЭТО ВСЁ О ЖИЗНИ
231
0

Зарегистрируйтесь, чтобы проголосовать за пост или написать комментарий

Авторы получают вознаграждение, когда пользователи голосуют за их посты. Голосующие читатели также получают вознаграждение за свои голоса.

Зарегистрироваться
Комментарии (5)
Сортировать по:
Сначала старые