Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Нужно бояться не роботов-убийц, а машин с предубеждениями

Привет. Руководитель подразделения искусственного интеллекта в Google Джон Джаннандреа не беспокоится о супер-интеллектуальных роботах-убийцах. Вместо этого он обеспокоен опасностью, которая может скрываться внутри алгоритмов машинного обучения, используемых для принятия миллионов решений каждую минуту.

«Реальный вопрос безопасности, если вы хотите это так назвать, заключается в том, что если мы вложим в эти системы предвзятые данные, они будут предвзятыми», - сказал Джаннандреа перед недавней конференцией Google о взаимоотношениях между людьми и системами AI.

Проблема отклонений в машинном обучении, скорее всего, скоро станет более значимой, поскольку технология распространяется на такие важные области, как медицина и право, а также потому, что всё больше людей, не имеющих глубокого технического понимания, имеют целью создание AI-машин. Некоторые эксперты предупреждают, что алгоритмические отклонения уже широко распространены во многих отраслях, и что почти никто не пытается его идентифицировать или исправлять.

Важно, чтобы мы были прозрачны в отношении данных, которые мы используем для обучения машин, выявляя в них скрытые предубеждения, иначе мы создаем искаженные системы. Если кто-то пытается продать вам систему "черного ящика" машинного обучения для поддержки принятия медицинских решений, и вы не знаете, как это работает или какие данные были использованы для ее обучения, то доверять ей не стоит.

Модели машинного обучения с использованием "черного ящика" уже оказывают серьезное влияние на жизнь некоторых людей. Система под названием COMPAS, созданная компанией Northpointe, способна предсказать вероятность совершения подсудимыми повторных правонарушений и используется некоторыми судьями для определения того, предоставляется ли заключенному условно-досрочное освобождение или нет. Работы COMPAS хранится в секрете, но исследование, проведенное ProPublica (американская некоммерческая организация, занимающаяся журналистскими расследованиями в общественных интересах), показало, что модель может быть предвзятой против меньшинств.

Однако, проблема не решается простой публикацией сведений о данных обучения алгоритма. Многие из самых мощных новых методов машинного обучения настолько сложны и непрозрачны в своей работе, что они бросают вызов даже самому тщательному их анализу. Чтобы решить эту проблему, исследователи изучают способы заставить эти системы аппроксимировать свою работу для инженеров и конечных пользователей.

Исследователи имеют веские основания для того, чтобы подчеркнуть потенциальную склонность к отклонениям AI. Google входит в число нескольких крупных компаний, рекламирующих возможности своих AI облачных вычислительных платформ для всех видов бизнеса. Эти облачные системы машинного обучения разработаны для наиболее простого их использования, чем их базовые алгоритмы. Такие платформы помогут сделать технологию более доступной для широкого использования, но, также, и увеличить вероятность ошибок. Важно также разрабатывать учебные пособия и инструменты, чтобы помочь менее опытным ученым и инженерам по данным своевременно выявлять и устранять предвзятость из их данных для обучения.

Несколько докладчиков, приглашенных на конференцию, организованную Google, также подчеркнули проблему предвзятости. Так, например, Карри Карахалиос, профессор информатики в Университете штата Иллинойс, представил исследования, в которых подчеркивалось, насколько сложно определить мотивацию принятия решений даже самыми обычными алгоритмами. Он показал, что пользователи обычно не понимают, как Facebook фильтрует сообщения, показанные в ленте новостей. И хотя это может показаться безобидным, это точная иллюстрация того, насколько сложно понять алгоритм.

Алгоритм показа новостей в Facebook может, безусловно, определять общественное восприятие крупных новостных событий, что может формировать определенные предубеждения. Другие алгоритмы, возможно, тоже уже тонко искажают информацию, используемую для оказания медицинской помощи, или при формировании процессуальных решений в уголовном судопроизводстве. Это, безусловно, намного важнее, чем роботы-убийцы, по крайней мере на данный момент.

В последние годы определенная часть исследователей, таких, как Джон Джаннандреа были голосом в противовес заявлениям о рисках, которые несет в себе развитие искусственного интеллекта. Илон Маск, в частности, породил множество сообщений в СМИ о серьезной опасности искусственного интеллекта, большей, чем Северная Корея и атомное оружие.

«Я возражаю против этого предположения о том, что мы перейдем к какой-то сверх-интеллектуальной системе, которая затем сделает людей ненужными. Я понимаю, почему люди обеспокоены этим, но я просто не вижу технологической основы, почему это является неизбежным».

Таким образом, споры на счет потенциальных угроз человечеству, связанных с бурным развитием технологий искусственного интеллекта не утихают. И если часть исследователей, таких, как Марк Цукерберг видят только положительную роль искусственного интеллекта в нашем будущем, а Илон Маск говорит о потенциальном появлении роботов-убийц, то Джон Джаннандреа видит опасности технологии но, которые заключаются не в желании AI поработить нас, а в ошибках машинного обучения, ведущих к решениям, основанным на предубеждениях. Если машины и будут способны причинить нам вред, то только потому, что это мы их так обучили.

Подробней, фото1, фото2, фото3

0
36.321 GOLOS
Комментарии (3)
Сортировать по:
Сначала старые