Продвинутый ИИ будет сомневаться и оперировать вероятностью
Новые системы искусственного интеллекта будут сомневаться в себе… и принимать более эффективные решения.
В последние годы идея нейросетей была настолько доминирующей, что другие подходы к созданию ИИ оставались практически без изменений. Чтобы двигаться дальше следует заняться развитием новых идей.
Глубокое обучение, которое включает в себя подачу примерных данных в большую и мощную нейронную сеть, за последние несколько лет имело огромный успех, позволяя машинам почти идеально распознавать объекты на изображениях или транскрибировать речь. Однако этих достижений мало, чтобы построить систему, способную эффективно работать в критически сложных ситуациях. Например, во время движения по трассе. Если самоуправляемый автомобиль не осознает свою некомпетентность в некоторых ситуациях, он может совершить фатальную ошибку.
Исследователи сейчас работают над модификациями популярных методов глубокого обучения, чтобы дать возможность программам измерять степень уверенности в прогнозировании и решении задач – просто говоря, знать, когда они должны сомневаться в себе.
Неуверенность является ключевым аспектом человеческого мышления и интеллекта. Добавление ее в программы может сделать их умнее и менее подверженным ошибкам, считает Зобин Гахрамани, выдающийся исследователь ИИ, профессор Кембриджского университета, главный научный советник Uber.
При глубоком обучении способность справляться с вероятностью может сделать ИИ умнее. Например, мы можем помочь программе распознавать вещи с достаточной степенью уверенности только из нескольких примеров, а не из многих тысяч.
Руководствуясь этими принципами, Uber выпустил новый язык программирования Pyro, который объединяет глубокое обучение с вероятностным программированием. Pyro основывается на Python в качестве базового языка, что делает его понятным и знакомым для многих.
Вероятность – это математические рассуждения в условиях неопределенности. Модели, построенные на языке вероятности, могут захватывать сложные ситуации, и понимать, что есть области данных, о которых они ничего не знают. Кроме того, вероятность дает возможность экспертам-людям предоставлять знания системам ИИ в форме предустановленных убеждений.
Определение вероятностных моделей напрямую может быть громоздким, и их реализация подвержена ошибкам. Вероятностные языки программирования решают эти проблемы. Вероятностная программа представляет собой сочетание обычных детерминированных вычислений и случайных выборочных значений.
Edward – еще один язык программирования (библиотека для Python), который охватывает область неопределенности. Он был разработан в Колумбийском университете при финансовой поддержке DARPA и Google. И Pyro, и Edward все еще находятся на ранних стадиях развития, но нетрудно понять, почему в них заинтересованы Uber и Google. Всего же существует более 15 языков вероятностного программирования, перечень с кратким описанием каждого из них можно найти здесь.
Технологическая платформа, которая облегчает заказ такси, использует машинное обучение в бесчисленных областях, от маршрутизации водителей до установления цен и, конечно же, в своих самоуправляемых автомобилях. Компания инвестировала значительные средства в ИИ. В свою очередь, Google в последнее время строит весь свой бизнес вокруг ИИ и глубокого обучения.
Еще один подход, в котором ИИ учат сомневаться, связан с обработкой сигналов человеческого мозга, находящегося в состоянии сомнения. Ученым удалось построить нейросеть, которая моделирует подобное поведение человека.
Чтобы заставить нейросеть испытывать сомнение, ученые взяли записи сигналов магнитной активности коры головного мозга, в тот момент, когда подопытные рассматривали куб Неккера с неопределенным ракурсом. В процессе эксперимента испытуемые должны были принять решение и выбрать один вариант расположения фигуры из нескольких возможных.
Полученными записями обучили нейросеть типа «многослойный персептрон», которая умеет определять состояния, возникающие при восприятии неоднозначных визуальных структур. Впоследствии ученые обнаружили, что при анализе подобных структур нейросеть неоднократно переключала свой отклик.