Специалисты в области ИИ и робототехники обратились в ООН с предупреждением
Темой направленного в ООН письма является беспокойство специалистов, которые хорошо разбираются в этом вопросе, опасностями, связанными с появлением все более интеллектуальных и автономных образов вооружения. Это касается не только разработок автономных роботов, летающих, наземных, надводных и подводных дронов, оснащенных летальным оружием. Это также относится к опасности разработки систем высокоуровневого ИИ в целом. Тема, которую не первый год поднимают такие известные люди, как Стивен Хокинг, Илон Маск и другие.
Это уже не первое такое обращение. Еще в 2015 году было направлено аналогичное обращение в ООН, также посвященное теме "роботов убийц". На этот раз письмо подписал, в частности, Мустафа Сулейман, создатель искина DeepMind компании Alphabet.
Авторы письма сравнивают автономные системы вооружений с ящиком Пандоры, открыть который легко, но который принесет человечеству немало бед. В частности, говорится о том, что таким оружием смогут воспользоваться террористы и деспотичные правители, обратив его не против вражеских армий, а против мирного населения. Предупреждают авторы письма в ООН и о том, что осталось не так много времени для принятия верных решений. Если их не принять сейчас, то гонка вооружений быстро сделает процесс слабо контролируемым.
Глядя на иных современных роботов-андроидов на выставках, трудно поверить, что эти малоподвижные и еще менее интеллектуальные поделки могут представлять для человечества какую-то угрозу. С другой стороны, вполне очевидно, что современные технологии развиваются чрезвычайно быстро и совсем скоро станут представлять реальную опасность для людей. Появляются идеи подводных роботов, которые годами способны "дремать" в затопленных под водой контейнерах, а получив сигнал, примутся, например, охотиться за подлодками и кораблями, опознанными ими как "вражеские". Уже созданы комплексы ПВО, которые способны самостоятельно принимать решение о "враждебности" той или иной цели в воздухе и самостоятельно открывать по ней огонь. Создаются автоматические турели, способные выявлять приближающихся людей и открывать по ним огонь, если запущен соответствующий режим. Немало написано о переделке хобби-беспилотников в мини-бомбардировщики, которыми можно атаковать различные цели, оставаясь в относительной безопасности. Вопрос, когда их начнут применять не только в Сирии или на других "горячих" территориях, - это лишь вопрос времени.
Тема появления враждебного по-отношению к человечеству искусственного интеллекта кажется сегодня чуть более фантастичной. Тем не менее, если внимательно ознакомиться с мнениями некоторых аналитиков, их аргументы представляются мне весьма убедительными. Интересующихся хотел бы отослать к книге Элиезера Юдковского "Искусственный интеллект как позитивный и негативный фактор глобального риска". Она доступна бесплатно, например, в переводе А.В.Турчина.
А вы считаете опасности, связанные с появлением автономных систем вооружения реальными? Или это позволит человечеству воевать, сократив потери людей? Нужен ли какой-то запрет со стороны ООН и будет ли он сдерживать соответствующие разработки?
Мое ощущение - люди мало способны к разумному сдерживанию технологий. Всегда найдутся страны и ученые, готовые изобретать и строить самые опасные устройства, ради мнимого или реального преимущества над другими людьми и странами. Поэтому совсем скоро мы сможем наблюдать появление все более смертоносных и все менее контролируемых человеком устройств.
+ +
Картинка для оформления поста - источник Pixabay
+ +