Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
chaos.legion
6 лет назад

CCCLIV. ИИ: аморальный убийца

Умное зло — худшее, что может случиться с этим миром. Если уровень «умности» зла во много раз превосходит человеческий — считайте, апокалипсис уже на пороге. Прямо сейчас в разных точках мира ведутся разработки искусственного интеллекта, ориентированного на разрушение и смерть. ООН, мировая научная общественность и прочие сознательные организации, от которых хоть что-то зависит, пытаются предотвратить этот процесс. Но военная сфера с её бюджетами и с её лобби — то ещё цунами…

Везде видит смерть

В Массачусетском технологическом институте создали первого в мире ИИ-психопата. Не по ошибке. Намеренно. Назвали его Норманом, в честь хичкоковского персонажа из фильма «Психо». Нормана отправили обучаться на Reddit, в самую тёмную и грозную часть сайта — где обсуждают смерть. Целью эксперимента было доказать, что «плохим» ИИ делают не сами алгоритмы его обучения, а те данные, которые ему скармливаются в процессе.

Норману показывали кляксы из теста Роршаха. Там, где обычный, стандартно натренированный ИИ видел стаю птиц в кроне дерева, Норман различал человека, получившего смертельный удар тока. Там, где «нейротипический» собрат видел вазу с цветами, Норману мерещился очередной труп — на сей раз застреленный.

Ранее та же команда уже создала Шелли — ИИ-писательницу, сочинившую уже более 200 историй в стиле хоррор. Её тоже «кормили» на Reddit, а именно на r/nosleep. Исследуя рассказы о человеческих кошмарах, Шелли упаковывала сюжетное сырьё в истории наподобие рассказа о беременном мужчине. Ознакомиться с её литературным наследием можно на официальном сайте креативщицы.

Гроза с Востока

Разработки Массачусетского технологического тревожат — но они хотя бы не покидают пределов компьютера. Гораздо более ощутимая угроза наметилась в Азии - регионе, который по традиции держался в стороне от гонки вооружений.

Корейский институт передовых технологий и конгломерат Hanhwa совместно занялись созданием боевых роботов. Это вызвало международную волну протеста среди специалистов по ИИ, которые упрекнули престижный институт в несознательном поведении. Академики в своём гневном обращении подчеркнули: в ООН ищут способы защитить мир от гонки автономных вооружений, способных действовать без вмешательства человека — так что сейчас явно не время выпускать роботов-злодеев. Институту был объявлен бойкот в плане научного сотрудничества до тех пор, пока опасные разработки не будут прекращены.

Китай со своими сверхдержавными амбициями тоже не мог остаться в стороне. В стране активно развивают технологии двойного назначения, которые могут быть использованы как в гражданской, так и в военной сфере. В феврале в честь нового года в Гуаньчжоу состоялось масштабное световое шоу, во время которого по небу летала тысяча дронов. Это смотрелось красиво — если выкинуть из головы мысль о том, что эти же самые дроны могут быть применены для далеко не мирных целей.

Также в регионе уже ждут своего часа бомбы с лазерным наведением, глушители для спутниковой связи, корпускулярно-лучевое оружие, а также разрушительные технологии на основе электромагнитного и микроволнового принципов.

Ранее азиатские бюджеты направлялись на повышение благосостояния населения — этим и объясняется феномен «азиатских тигров». Теперь Китай уверенно ввязывается в гонку вооружений с США. Шансы стать лидером у страны высокие: китайские вузы выпускают наибольшее количество технарей (в мировом масштабе), а по инвестициям в новые технологии наподобие робототехники или виртуальной реальности Китай стабильно входит в тройку самых щедрых стран мира.

Сознательная Америка

США в это же время, как ни странно, сделали в гонке вооружений шаг назад. Google на днях опубликовали список правил, которыми намерены руководствоваться при работе с ИИ. Сундар Пичаи, гендиректор техно-гиганта, уверяет, что это не голословное теоретизирование, а именно что практические инструкции.

Стимулом для публикации послужил скандал, который вызвало сотрудничество Google с американскими военными. В рамках проекта «Специалист» компания взяла на себя анализ изображений с дронов, летающих над местами боевых действий. Это противоречивое решение настолько не понравилось некоторым сотрудникам, что они демонстративно уволились, а случай в целом получил широкий резонанс.

Общественность пришла к выводу, что «Специалист» — лишь первый шаг к масштабному сотрудничеству Google и армии. А это полностью противоречит изначальному девизу компании, «Don’t be evil» («Не сотвори зла»).

Вкратце, свежеиспечённые догмы Google таковы.

  • Быть полезными для общества
  • Избегать создания или усиления несправедливых предрассудков
  • Уделять достаточно внимания тестам на безопасность
  • Отчитываться перед обществом
  • Внедрять принципы защиты личных данных
  • Поддерживать высокие стандарты качества научной работы
  • Ограничивать использование потенциально вредоносных приложений

Google отказываются от использования ИИ в следующих сферах:

  • Вооружения
  • Технологии, способные наносить массовый вред
  • Технологии, позволяющие вести информационную слежку с нарушением общепринятых норм
  • Технологии, противоречащие принципам международного права и правам человека

Эти инструкции могут и должны служить ориентирами для других корпораций, работающих с ИИ. Но не факт, что они реально помогут отвести от мира новые технологичные угрозы, потому что…

Обоюдоострый меч

По-настоящему глобальная проблема кроется не в какой-то конкретной разработке или проекте. Суть в том, что ИИ в принципе можно использовать как для конструктивных, так и для деструктивных целей. Компьютеры, которые научились понимать и прогнозировать поведение людей, не обременены этикой. Им всё равно, хоть лечить, хоть убивать.

Ядерная технология, к примеру, тоже может быть использована и для МРТ, и для бомбы. Но такая технология, во-первых, дорого стоит, а во-вторых, хорошо охраняется — в подворотне ядерную боеголовку не купишь. Сконструировать же дрона-убийцу может фактически любой идейный маньяк. В этом сходство ИИ с технологиями создания биологического оружия — если уж очень приспичит, в отдельно взятой лаборатории можно благополучно наплодить вирусов, «натравленных» на массовое поражение населения.

Остаётся надеяться, что эксперимент Массачусетского технологического института можно развернуть в обратную сторону. Так же, как удалось «воспитать» ИИ-психопата, следует развивать добрый, моральный ИИ. Возможно, он сумеет останавливать своих злобных собратьев в тех случаях, когда человек окажется перед ними бессилен.

Автор: @blackmoon


Если вы желаете попробовать свои силы в качестве нашего автора, то стучитесь по любому из представленных контактов.
Также любой может свободно использовать тег chaos-legion. Посты по этому тегу просматриваются и имеют все шансы быть апнутыми нашим паровозиком суммарной мощностью около 2 000 000 СГ.

Контакты

Чат Легиона Хаоса в телеграм: Scintillam
Личка в телеграм: varwar, lumia, dajana
Тег: chaos-legion


Sequere nobis. Nos scientiam

@chaos.legion

2
338.372 GOLOS
На Golos с September 2017
Комментарии (2)
Сортировать по:
Сначала старые