Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
6 лет назад

Тайна, скрытая в самом сердце искусственного интеллекта

Привет. В прошлом году странный беспилотный автомобиль был выпущен на тихие дороги округа Монмут, Нью-Джерси. Экспериментальная машина, разработанная исследователями chip maker Nvidia, не отличалась от других автономных автомобилей, но она была непохожа на что-либо, продемонстрированное Google, Tesla или General Motors, и она показала растущую мощь искусственного интеллекта. Автомобиль не следовал ни одной инструкции, разработанной инженером или программистом. Вместо этого он полностью полагался на алгоритм, который сам научил себя управлять, наблюдая, как это делает человек.

Но находится даже в таком автомобиле - это немного тревожно, так как не совсем ясно, как AI принимает свои решения. Информация от датчиков автомобиля поступает прямо в огромную сеть искусственных нейронов, которые обрабатывают данные, а затем передают соответствующие команды, необходимые для управления рулевым колесом, тормозами и другими системами. Результат его работы, кажется, соответствует действиям водителя-человека. Но что, если однажды он сделал что-то неожиданное - врежется в дерево или поедет на красный свет? На сегодняшний день, возможно, это трудно будет выяснить. Система настолько сложна, что даже инженеры, которые ее спроектировали, могут не понять причину какого-либо одного конкретного действия. И мы не можем просто спросить его об этом. У нас нет очевидного способа создать такую систему, чтобы она всегда могла объяснить свои действия.

Таинственный интеллект этого автомобиля указывает на надвигающуюся проблему с искусственным интеллектом. Базовая технология AI, известная как глубокое обучение, оказалась очень мощной в решении многих проблем в последние годы, она была широко развернута для таких задач, как субтитры к изображениям, распознавание голоса и перевод текста. Теперь есть надежда, что те же самые методы смогут диагностировать смертельные заболевания, принимать торговые решения на миллионы долларов и делать другие бесчисленные вещи, чтобы преобразовать целые отрасли.

Но этого не произойдет - или не должно произойти - если мы не найдем способов сделать такие методы, как глубокое обучение, более понятными для их создателей и подотчетными для их пользователей. В противном случае будет трудно предсказать, когда могут произойти неудачи-и это неизбежно. Это одна из причин, по которой автомобиль Nvidia все еще в стадии эксперимента.

Исследователями уже используются математические модели, чтобы помочь определить, кто заслуживает условно-досрочного освобождения, кто одобрен для получения кредита, и кого принять на работу. Если бы вы могли получить доступ к этим математическим моделям, можно было бы понять их рассуждения. Но банки, военные, работодатели и другие теперь обращают свое внимание на более сложные подходы к машинному обучению, которые могут сделать автоматизированное принятие решений совершенно непостижимым. Глубокое обучение, наиболее распространенный из этих подходов, представляет собой принципиально иной способ программирования компьютеров. "Это проблема, которая уже актуальна, и она будет гораздо более актуальной в будущем”, - говорит Томми Яаккола, профессор MIT, который работает над приложениями машинного обучения. "Будь то инвестиционное решение, медицинское решение или, может быть, военное решение, Вы не хотите просто полагаться на метод "черного ящика".”

Существуют аргументы в пользу того, что возможность допросить систему AI о том, как она достигла своих выводов, является основополагающим законным правом. Начиная с лета 2018 года, Европейский Союз может потребовать, чтобы компании имели возможность давать пользователям объяснение решений, которые принимают автоматизированных системы. Это может быть невозможно, даже для систем, которые кажутся относительно простыми на первый взгляд, таких как приложения и веб-сайты, которые используют глубокое обучение для показа объявлений или рекомендуют песни. Компьютеры, которые управляют этими службами, запрограммировали свои алгоритмы таким образом, что мы не можем их понять. Даже инженеры, которые создают эти приложения, не могут полностью объяснить их поведение.

Это вызывает умопомрачительные вопросы. По мере развития технологии, мы можем скоро достичь определенного порога, за которым использование AI потребует роста нашего доверия. Конечно, мы, люди, тоже не всегда можем действительно объяснить наши мыслительные процессы, но мы находим способы интуитивно доверять и оценивать решения людей. Будет ли это также возможно с машинами, которые думают и принимают решения иначе, чем люди? Мы никогда раньше не создавали машины, работу которых не понимают даже их создатели. Насколько качественного общения мы можем ожидать от интеллектуальных машин, которые могут быть непредсказуемыми и непостижимыми? Эти вопросы ведут в путешествие к кровоточащему краю исследования алгоритмов AI, от Google до Apple и многих других мест, включая встречу с одним из великих философов нашего времени.

В 2015 году исследовательская группа в больнице Маунт Синай в Нью-Йорке применила глубокое обучение к обширной базе данных пациентов больницы. Этот набор данных содержит сотни переменных для пациентов, взятых из результатов их тестов, посещений врача и т.д. Полученная программа, которую исследователи назвали глубоким пациентом, была обучена с использованием данных около 700 000 человек, и при тестировании на новых записях она оказалась невероятно хорошей в прогнозировании болезни. Без какой-либо экспертной инструкции, глубокий пациент обнаружил закономерности, скрытые в данных больницы, которые, как представляется, указывают, когда люди были на пути к широкому кругу заболеваний, включая рак печени. Есть много методов, которые “довольно хороши” в прогнозировании болезни из записей пациента.

В то же время, глубокий пациент немного озадачивает. AI, кажется, предвидит начало психических расстройств, таких, как шизофрения удивительно хорошо. Но поскольку шизофрения, как известно, трудно предсказуема врачами, Исследователи задались вопросом, как это возможно? Новый инструмент не дает никакого понимания о том, как он это делает. Если что-то вроде глубокого пациента на самом деле собирается помочь врачам, в идеале, он должен дать им обоснование своего прогноза, чтобы заверить их, что он точен и оправдать, скажем, принятие решения об изменении в приеме лекарств, которые кто-то прописывает. Мы можем строить эти модели, но мы не знаем, как они работают.

Искусственный интеллект не всегда был таким. С самого начала существовали две школы мысли о том, насколько понятной или объяснимой должна быть система AI. Многие думали, что имеет смысл строить машины, которые рассуждали в соответствии с правилами и логикой, делая их внутреннюю работу прозрачной для тех, кто хотел бы изучить их код. Другие считали, что интеллект легче возникнет, если машины черпают вдохновение из биологии и учатся, наблюдая и оценивая. Это означало резкий поворот компьютерного программирования. Вместо того, чтобы программист писал команды для решения проблемы, программа создает свой собственный алгоритм, основанный на данных примера и желаемых выходных данных. Методы машинного обучения, которые позже превратились бы в сегодняшние самые мощные системы AI, следовали последнему пути: машина по существу сама программирует свой алгоритм.

Сначала этот подход носил ограниченный практический характер, в 1960-х и 70-х годах он по-прежнему оставался в ограниченным. Затем компьютеризация многих отраслей промышленности и появление больших массивов данных возобновили интерес к этой проблеме. Это вдохновило исследователей на разработку более мощных методов машинного обучения, особенно таких, как искусственная нейронная сеть. К 1990-м годам нейронные сети могли автоматически оцифровывать рукописные символы.

Но это было только в начале этого десятилетия, после нескольких настроек и уточнений глубокие нейронные сети продемонстрировали кардинальные улучшения в автоматизированном восприятии. Глубокое обучение отвечает за сегодняшний взрыв в сфере AI. Это дало компьютерам невероятные возможности, такие, как способность распознавать произнесенные слова почти так же, как человек, умение слишком сложное, чтобы кодировать его вручную. Глубокое обучение изменило компьютерное зрение и значительно улучшило машинный перевод. В настоящее время он используется для руководства всеми видами ключевых решений в медицине, финансах, производстве и за его пределами.

Работа любой технологии машинного обучения по своей сути является более непрозрачной, даже для ученых-компьютерщиков, чем система ручной кодировки. Это не означает, что все будущие методы AI будут одинаково непостижимы. Но по своей природе глубокое обучение-это особенно темный черный ящик.

Вы не можете просто заглянуть внутрь глубокой нейронной сети, чтобы увидеть, как она работает. Рассуждения сети встроены в поведение тысяч моделируемых нейронов, расположенных в десятках или даже сотнях запутанно взаимосвязанных слоев. Нейроны в первом слое получают входной сигнал, например, как интенсивность пикселя в изображении, после этого выполняются вычисления перед тем, как создать выходной сигнал. Эти выходы поданы, в сложную паутину, к нейронам в следующем слое, и так далее, до тех пор пока общий выход не будет произведен. Кроме того, существует процесс, известный как обратное распространение, который настраивает расчеты отдельных нейронов таким образом, что позволяет сети научиться производить желаемый выход.

Множество слоев в глубокой сети позволяют распознавать вещи на разных уровнях абстракции. В системе, предназначенной для распознавания собак, например, нижние слои распознают простые вещи, такие как контуры или цвет; более высокие слои распознают более сложные вещи, такие как мех или глаза; и самый верхний слой идентифицирует все это, как собаку. Такой же подход можно применить, грубо говоря, к другим входам, которые приводят машину к обучению: звуки, которые составляют слова в речи, буквы и слова, которые создают предложения в тексте, или движения рулевого колеса, необходимые для вождения.

В целях возможности подробно объяснить, что происходит в таких системах, были разработаны гениальные стратегии. В 2015 году исследователи из Google изменили алгоритм распознавания изображений на основе глубокого обучения так, что вместо того, чтобы обнаруживать объекты на фотографиях, он генерировал или изменял их. Эффективно запустив алгоритм в обратном направлении, они могут обнаружить функции, которые программа использует для распознавания, скажем, птицы или здания. Полученные изображения, созданные проектом, известным как Deep Dream, представляли собой гротескных, инопланетных животных, выходящих из облаков и растений, и галлюциногенных пагод, расположенных в лесах на горных хребтах. Изображения доказали, что глубокое обучение не обязательно должно быть полностью непостижимым; они показали, что алгоритмы могут отражаться в знакомых визуальных особенностях, таких как птичий клюв или перья. Но кроме того, изображения указывают на то, как отличается глубокое обучение от человеческого восприятия. Исследователи Google отметили, что когда алгоритм генерировал изображения гантели, он также генерировал человеческую руку, держащую её. Машина пришла к выводу, что рука была частью вещи.

Дальнейший прогресс был достигнут с использованием идей, заимствованных из нейронауки и когнитивной науки. Команда исследователей использовала AI оптические иллюзии, чтобы протестировать глубокие нейронные сети. В 2015 году другая группа показала, как определенные изображения могут обмануть такую Сеть в восприятии вещей, которых там на самом деле нет, потому что изображения используют низкоуровневые шаблоны, которые ищет система. 

Один из исследователей также построил инструмент, который действует как зонд, застрявший в мозге. Его инструмент нацелен на любой нейрон в середине сети и ищет изображение, которое активирует его больше всего. Изображения, которые появляются, абстрактны (представьте себе импрессионистский взгляд на фламинго или школьный автобус), подчеркивая таинственную природу перцептивных способностей машины.

                                    

Однако, нам нужно больше, чем просто взгляд на мышление AI, и здесь нет легкого решения. Это взаимодействие вычислений внутри глубокой нейронной сети, которое имеет решающее значение для распознавания образов более высокого уровня и принятия сложных решений, но эти вычисления являются трясиной математических функций и переменных. “Если бы у вас была очень маленькая нейронная сеть, вы могли бы ее понять”, - говорят исследователи. "Но как только она становится очень большой, и у нее есть тысячи единиц на слой и, возможно, сотни слоев, тогда она становится совершенно непостижимой.

Американские военные вкладывают миллиарды в проекты, которые используют машинное обучение для пилотирования автомобилей и самолетов, определения целей и помогают аналитикам анализировать огромные груды разведывательных данных. Здесь больше, чем где-либо еще, даже больше, чем в медицине, есть мало места для алгоритмических тайн, и Министерство обороны США определило объяснимость алгоритмов, как ключевой камень преткновения.

Дэвид Ганнинг (David Gunning), менеджер программ в Агентстве перспективных исследовательских проектов обороны (DARPA), осуществляет надзор над программой Explainable Artificial Intelligence(объяснимый искусственный интеллект). Руководивший ранее проектом DARPA, который в конечном итоге привел к созданию Siri, Ганнинг говорит, что автоматизация проникает в бесчисленные районы военной сферы. Аналитики разведки тестируют машинное обучение, как способ идентификации моделей в огромных объемах данных наблюдения. В настоящее время разрабатываются и тестируются многие автономные наземные транспортные средства и самолеты. Но солдаты, вероятно, не будут чувствовать себя комфортно в роботизированном танке, который не может объяснить свои действия. 

«Часто характер этих систем машинного обучения создает много ложных тревог, поэтому аналитику действительно нужна дополнительная помощь, чтобы понять, почему была сделана та или иная рекомендация»

В марте DARPA выбрала 13 проектов из научных кругов и промышленности для финансирования по программе Ганнинга. Некоторые из них могли бы опираться на работу, возглавляемую профессором Вашингтонского университета Карлосом Уэстрином. Он и его коллеги разработали метод для систем машинного обучения, чтобы обеспечить обоснование их результатов. По сути, при этом методе компьютер автоматически находит несколько примеров из набора данных и обслуживает их в кратком объяснении. Например, система, предназначенная для классификации сообщения электронной почты, поступающего от террориста, может использовать многие миллионы сообщений в процессе обучения и принятия решений. Но, используя подход Вашингтонской команды, он мог выделить определенные ключевые слова, найденные в сообщении. Эта группа исследователей также разработала способы для систем распознавания изображений, чтобы дать представление об их рассуждениях, выделив части изображения, которые были наиболее значительными.

Один из недостатков этого подхода и других подобных ему, таких как Barzilay, заключается в том, что представленные объяснения всегда будут упрощены, что означает, что некоторая жизненно важная информация может быть потеряна на этом пути. Приходится признать, что мы еще далеки от того, чтобы иметь действительно интерпретируемый AI.

Это не обязательно должна быть ситуация с высокими ставками, как диагностика рака или военные маневры, чтобы это стало проблемой. Знание рассуждений AI также будет иметь решающее значение, если технология станет общей и полезной частью нашей повседневной жизни. Том Грубер, который возглавляет команду Siri в Apple, говорит, что объяснимость является ключевым фактором для его команды, поскольку онb пытаются сделать Siri умнее и более способным виртуальным помощником. Грубер не будет обсуждать конкретные планы на будущее Siri, но легко представить, что если вы получите рекомендацию ресторана от Siri, вы захотите узнать, что послужило основой для такого решения. Руслан Салахутдинов, директор по исследованиям AI компании Apple и доцент университета Карнеги-Меллона, рассматривает объяснимость как ядро развивающихся отношений между людьми и интеллектуальными машинами. 

Так же, как многие аспекты человеческого поведения невозможно объяснить подробно, возможно, AI не сможет объяснить все, что он делает. "Даже если кто-то может дать вам разумно звучащее объяснение [для его или ее действий], оно, вероятно, будет неполным, и то же самое вполне может быть справедливо и для AI. 

"Это может быть просто частью природы интеллекта, что только его часть подвергается рациональному объяснению. Некоторые из них просто инстинктивны, или подсознательны, или непостижимы.”

Если это так, то на каком-то этапе нам, возможно, придется просто довериться суждению AI. Аналогичным образом, это решение должно будет включать социальный интеллект. Так же, как общество построено на контракте ожидаемого поведения, нам нужно будет проектировать системы AI, способный уважать и соответствовать нашим социальным нормам. Если мы хотим создать танки-роботы и другие машины для убийства, важно, чтобы их принятие решений соответствовало нашим этическим суждениям.

Подробней, фото1,2, 3, 4, 5

0
0.068 GOLOS
Комментарии (3)
Сортировать по:
Сначала старые