Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
abloud
7 лет назад

Специалисты в области ИИ и робототехники обратились в ООН с предупреждением

Темой направленного в ООН письма является беспокойство специалистов, которые хорошо разбираются в этом вопросе, опасностями, связанными с появлением все более интеллектуальных и автономных образов вооружения. Это касается не только разработок автономных роботов, летающих, наземных, надводных и подводных дронов, оснащенных летальным оружием. Это также относится к опасности разработки систем высокоуровневого ИИ в целом. Тема, которую не первый год поднимают такие известные люди, как Стивен Хокинг, Илон Маск  и другие. 

Это уже не первое такое обращение. Еще в 2015 году было направлено аналогичное обращение в ООН, также посвященное теме "роботов убийц". На этот раз письмо подписал, в частности, Мустафа Сулейман, создатель искина DeepMind компании Alphabet. 

Авторы письма сравнивают автономные системы вооружений с ящиком Пандоры, открыть который легко, но который принесет человечеству немало бед. В частности, говорится о том, что таким оружием смогут воспользоваться террористы и деспотичные правители, обратив его не против вражеских армий, а против мирного населения. Предупреждают авторы письма в ООН и о том, что осталось не так много времени для принятия верных решений. Если их не принять сейчас, то гонка вооружений быстро сделает процесс слабо контролируемым. 

Глядя на иных современных роботов-андроидов на выставках, трудно поверить, что эти малоподвижные и еще менее интеллектуальные поделки могут представлять для человечества какую-то угрозу. С другой стороны, вполне очевидно, что современные технологии развиваются чрезвычайно быстро и совсем скоро станут представлять реальную опасность для людей. Появляются идеи подводных роботов, которые годами способны "дремать" в затопленных под водой контейнерах, а получив сигнал, примутся, например, охотиться за подлодками и кораблями, опознанными ими как "вражеские". Уже созданы комплексы ПВО, которые способны самостоятельно принимать решение о "враждебности" той или иной цели в воздухе и самостоятельно открывать по ней огонь. Создаются автоматические турели, способные выявлять приближающихся людей и открывать по ним огонь, если запущен соответствующий режим. Немало написано о переделке хобби-беспилотников в мини-бомбардировщики, которыми можно атаковать различные цели, оставаясь в относительной безопасности. Вопрос, когда их начнут применять не только в Сирии или на других "горячих" территориях, - это лишь вопрос времени. 

Тема появления враждебного по-отношению к человечеству искусственного интеллекта кажется сегодня чуть более фантастичной. Тем не менее, если внимательно ознакомиться с мнениями некоторых аналитиков, их аргументы представляются мне весьма убедительными. Интересующихся хотел бы отослать к книге Элиезера Юдковского "Искусственный интеллект как позитивный и негативный фактор глобального риска". Она доступна бесплатно, например, в переводе А.В.Турчина

А вы считаете опасности, связанные с появлением автономных систем вооружения реальными? Или это позволит человечеству воевать, сократив потери людей? Нужен ли какой-то запрет со стороны ООН и будет ли он сдерживать соответствующие разработки? 

Мое ощущение - люди мало способны к разумному сдерживанию технологий. Всегда найдутся страны и ученые, готовые изобретать и строить самые опасные устройства, ради мнимого или реального преимущества над другими людьми и странами. Поэтому совсем скоро мы сможем наблюдать появление все более смертоносных и все менее контролируемых человеком устройств. 

+ +

Картинка для оформления поста - источник Pixabay

+ +

0
9.832 GOLOS
На Golos с July 2017
Комментарии (6)
Сортировать по:
Сначала старые