AI должен иметь способность сочувствовать, чтобы не представлять экзистенциальной угрозы человечеству
Привет. Идея о том, что компьютер может обладать сознанием, вызывает тревогу. Для искусственно интеллектуальной машины не является естественным ощущать боль, глубокое сожаление или испытывать чувство надежды.
Но некоторые эксперты теперь утверждают, что это именно тот тип искусственного интеллекта (AI), который нам нужно будет развивать, если мы хотим предотвратить экзистенциальную угрозу, создаваемую этой зарождающейся технологией.
Некоторые ученые в области когнитивных технологий считают, что для сведения на нет этой угрозы, любой AI человеческого уровня или искусственный общий интеллект (AGI) должны быть человекоподобными.
Исследователи предполагают, что если силы, ведущие нас к развитию AI человеческого уровня, не останавливать, то есть два варианта. Либо потенциально опасный AGI будет основан на беспощадном процессе оптимизации без моральных ограничений, либо AGI будет базироваться на основе психологической и, возможно, даже неврологической системе, подобной человеческой.
Многие ученые сегодня считают, что предпочтителен второй вариант, в надежде, что это приведет к форме его гармоничного сосуществования с человечеством.
«Конец человеческого рода»
Не так давно Стивен Хокинг, Илон Маск и многие другие ученые подписал открытое письмо, призывающее к дальнейшему изучению AI в целях избежания «потенциальных ловушек» его бесконтрольного развития.
Согласно заявлению Илона Маска, эти скрытые ловушки могут быть «более опасными, чем ядерное оружие», в то время как Хокинг предположил даже, что это может привести к концу человечества.
«Начальные формы искусственного интеллекта, которые у нас уже есть, оказались очень полезными», - сказал Хокинг в декабре 2014 года. «Но я думаю, что создание суперинтеллекта может означать конец человеческого рода».
Насколько далеко мы находимся сегодня от разработки AGI, способного воплотить в реальность эти опасения? По разным прогнозам это может занять от 15 лет до 100 лет.
Независимо от того, возможно ли создать такую технологию в принципе, опасность заключена и в самих силах, которые продвигают технологии по пути создания такого AGI.
Коммерческие компании могут создать «опасные вещи»
Существует опасение, что нынешние социальные, экономические и политические силы, продвигающие разработку AI человеческого уровня, могут, в конечном итоге, привести к разработке более опасного первого варианта AGI.
«Коммерческие компании будут стимулировать производство неограниченных моральными принципами процессов оптимизации, при этом возникает искушение создать опасные вещи», - говорят исследователи, приводя пример компаний или правительств, использующих AGI, для того, чтобы обрушивать рынки или создавать новые автоматизированные и потенциально неконтролируемые военные технологии.
«В военной сфере правительства будут разрабатывать эти технологии на всякий случай, потому, что это делают другие, и этот процесс будет трудно остановить»
Несмотря на эти опасности, многие ученые считают, что было бы преждевременно запрещать любую форму исследования AI, поскольку в настоящее время нет доказательств того, что мы действительно достигнем уровня, представляющего угрозу для человечества. Вместо этого нужно направлять исследования в правильное русло.
Подражание разуму для создания гомеостаза
AGI, ориентированный исключительно на оптимизацию, не обязательно будет злонамерен по отношению к людям. Однако, сам факт, что он может иметь конвергентные инструментальные цели, такие как самосохранение или аккумуляцию ресурсов, уже достаточен для создания потенциально опасных сценариев.
Как отметил теоретик искусственного интеллекта Элиезер Юдовский в 2008 году: "AI не ненавидит и не любит тебя, но ты сделан из атомов, которые он может использовать для чего-то другого."
Исследователи верят, что при создавать некоторой формы гомеостаза в AGI, потенциал AI может быть реализован и без разрушения цивилизации, какой мы ее знаем. Для того, чтобы AGI мог понимать мир так же, как люди, необходимы определенные предпосылки, в том числе способность распознавать других интеллектуальных субъектов, способность строить отношения, способность общаться и сопереживать и т.п.
Одним из способов создания человекоподобной машины является воспроизведение структуры человеческого мозга в цифровом виде. Ученые, тем не менее, все еще не в состоянии воспроизвести мозг технологическим образом.
Проект Human Connectome (HCP) в настоящее время решает одну из самых больших научных задач XXI века - картирование человеческого мозга, направленное на то, чтобы соединить его структуру с функционированием и поведением.
«Наш проект может иметь долгосрочные последствия для развития искусственного интеллекта, поскольку он является одной из многих попыток понять, как структурно организован человеческий мозг и как различные его участки работают вместе в разных ситуациях и при решение разных задач»
До настоящего времени не было прямой связи между картированием мозга и разработкой AI, главным образом потому, что эти две области подходят к проблеме понимания мозга с разных точек зрения и на разных уровнях.
По мере того, как анализ данных проектом HCP продолжается, вполне вероятно, что некоторые исследователи мозга будут включать результаты своих исследований, насколько это возможно, в их вычислительную структуру и алгоритмы.
Является ли этот проект полезным для оказания помощи исследователям AI, еще предстоит выяснить, но вместе с другими инициативами, такими как «Human Brain Project (Проект мозга человека)», он может стать важной основой для разработки человекоподобной машины.
На сегодняшний день мы должны понимать, где таятся опасности, связанные с разработкой AI, но не обращая большого внимания на голливудские фильмы-катастрофы или пугающие сообщения в СМИ, которые, как правило, только запутывают проблему.