Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Онтология Суперинтеллекта (часть первая)

Искусственный интеллект, в широком смысле, является попыткой репликации когнитивных способностей человека с помощью компьютерных алгоритмов. На пути от простых калькуляторов до искусственного интеллекта человека (ИИ) и за его пределами возникнут многие этические и социальные проблемы, которые, вероятно, будут препятствовать развитию ИИ. 

Большинство из них этих проблем могут стать экзистенциальной угрозой, которую ИИ и его потенциально превосходящие преемники будут представлять для человечества. Наши отношения с будущими ИИ могут быть сродни нашим отношениям с обезьянами и лошадьми, мы смотрим на последних, как на низших существ, и используем их для нашей пользы или развлечений. 

Наша судьба, как вида, может в какой-то момент стать подчиненной ИИ-повелителям, которые, в зависимости от пути развития, могут быть или доброжелательными или злобными по отношению к нам. Тем не менее, как утверждают многие сторонники и противники ИИ, впереди нас ждет долгий путь, и пока у нас нет ИИ, превосходящего человека. 

До этого опасного момента мы должны двигаться в двух направлениях: во-первых, как убедиться, что получившиеся супер-интеллектуальные агенты не причинят нам вреда, а во-вторых, как предотвратить односторонний сценарий, когда победетелем станет та группа людей или государство, которое первым достигнет создания суперинтеллекта и сможет использовать его в своих целях.   

Начало

Прежде чем предпринимать усилия по созданию общего искусственного интеллекта на человеческом уровне, целый ряд узконаправленных ИИ, вероятно, изменять наш образ жизни и структуру общества кардинальным образом и, возможно, такие изменения будут для нас полностью непредсказуемыми. В частности, компании, использующие узкие ИИ, могут достигать уровня, который поставит их вне конкуренции в результате непропорционального увеличения возможностей, исключив роль человеческого труда из существующей экономической системы. 

Аналогичным образом, деятельность правительств в отношении ИИ и их физических воплощений, таких как роботы или беспилотные транспортные системы, также должны находиться под международным наблюдением. Легко представить масштаб потенциальных угроз от разработки военизированных систем с неограниченной автономией. 

Такая боевая роботизированная система, основанная на ИИ, может быть направлена с целью уничтожения вражеских войск или объектов, но, будучи предоставлена сама себе для принятия решений, может выполнить поставленную задачу самым ужасающим образом. Такие гипотетические сценарии должны сделать понимание общей угрозы для всего человечества абсолютно понятной для всех. Так как не обремененная человеческими этическими нормами и ограничениями супер-автономная военная система на базе искусственного интеллекта может положить конец человечеству намного раньше, чем Суперинтеллект, рожденный в лаборатории безумного ученого!

Сингулярность

Компьютерная техника и программное обеспечение продвигаются темпами, значительно превосходящими другие технологии, созданные человеком. Это может быть связано с их расширяемой природой, улучшения накапливаются в течение нескольких поколений и приводят к созданию более совершенных, быстрых и эффективных вычислительных машин. Однако, экспоненциальный рост вычислительной мощности компьютеров не привел к экспоненциальному росту производительности работников, использующих компьютеры. 

Проще говоря, мы не используем весь потенциал компьютеров. У нас есть наш биологический мозг, который на сегодняшний день более интеллектуальный и гораздо более универсальный по сравнению с любым ИИ. С другой стороны, машины, похоже, улучшаются гораздо быстрее. У них пока нет собственных целей и намерений. Им нужно, чтобы люди разрабатывали свои алгоритмы и программное обеспечение. 

Но вопрос заключается в том, можем ли мы идти в ногу со скоростью совершенствования машин? Или нам когда-нибудь нужно будет создавать машины, которые, в свою очередь, будут создавать лучшие машины. Если текущая тенденция сохранится, взрыв интеллекта произойдет после прохождения рубежа, за которым интеллектуальные машины получат самостоятельную возможность проектировать и создавать машины, значительно превосходящие те, которые делают люди. Этот сценарий называется сингулярностью.

Наше последнее изобретение

Идея заключается в том, что если мы однажды создадим такую суперинтеллектуальную машину, одной из возможностей которой будет - создание все более и более интеллектуальных машин. 

Такая машина может создавать ИИ, чтобы исследовать всевозможные варианты интеллекта, о которых люди даже не задумываются. Это приведет к так называемому интеллектуальному взрыву. Человек останется далеко позади, и, разумеется, ненужно даже говорить, что возможности догнать машины у нас уже не будет. Следовательно, изобретение этой суперинтеллектуальной машины станет последним изобретением, которое мы когда-либо создадим.

Возникнет ли сингулярность?

Возможно, наиболее важным аспектом этого вопроса является наша мотивация, как человечества - создавать все более и более продвинутые интеллектуальные машины. Мы создали компьютеры, которые помогают нам быстрее и эффективнее выполнять задачи. Аналогичным образом, мы создаем интеллектуальные машины, чтобы они могли самостоятельно выполнять задачи намного лучше, чем это делаем мы.

Экономическое давление будет стимулировать темпы развития ИИ для повышения эффективности бизнес процессов в компаниях, при коммерческих операциях, транзакциях, маркетинге и т.д. Во многих отраслях промышленности деятельность, которую традиционно выполняли сотни рабочих, теперь может быть делегирована одному промышленному роботу. 

Роботы, интеллектуальные программные комплексы, виртуальные помощники, независимо от того, как мы их называем, необходимы нам для совершенствования индустриального и цифрового мира, в котором мы живем. 

До сих пор преимущества интеллектуальных машин постоянно перевешивали связанные с ними риски и издержки. Если этот восходящий тренд продолжится, ничто не может помешать нам создавать все более совершенные машины, пока не произойдут глобальные катастрофические события, способные уничтожить весь человеческий род.

Продолжение следует...

Подробней, фото1, фото2, фото3, фото4

2
61.269 GOLOS
Комментарии (4)
Сортировать по:
Сначала старые