Возможный сценарий развития хищных социальных систем
Продолжу публиковать свои размышления о правдоподобном возможном будущем и рассмотрю, как может выглядеть реалистичная хищная социальная система, которую я описал в предыдущем посте. Все проще, чем может показаться.
Один из вариантов будущего
Рассмотрим возможный сценарий зарождения похожей системы. Всего один из многих, для демонстрации возможностей.
Предположения:
- есть крупная международная корпорация GoodCorp, продукция которой с высокой вероятноюсть вызывает рак и мучительную смерть
- топ менеджмент был осведомлен о вреде продукции, но отрицает это
- активисты и пострадавшие подозревают топ менеджмент
- информация об этом пока не получила широкого распространения в обществе, но волна в социальных медиа увеличивается
- ставки для топ менеджмента и корпорации очень высоки
- существуют неотличимые от людей чатботы использующие ИИ и машинное обучение
Естесственно, корпорация в своей безграничной неадекватности будет любыми способами пытаться заставить активистов замолчать.
Этот сценарий многократно повторялся в истории. Контекст другой.
Контекст и текущая ситуация с чатботами в 2017
- компании стремятся разработать чатботов, которые будут неотличимы в разговоре с человеком. Новые "умные" чатботы будут не только понимать, что человек сказал, но и генерерировать подходящий по контексту ответ
- 80% брендов будут использовать чатботы для взаимодействия с покупателями к 2020 году; 36% уже используют
- более половины пользователей США в возрасте от 18 до 55 лет уже использовали чатботы
- особенности, которые будут способствовать росту популярности чатботов среди компаний: глобальное присутствие, высокая степень удержания пользователей и способность обращаться к более молодой демографии
- исследование BI Intelligence идентифицировало 4 существующие модели, где активно применяются чатботы: Bots-as-a-Service, нативный контент, партнерский маркетинг и розничные продажи.
- первые боты, которые уже неплохо поддерживают разговор с человеком: Mitsuku, Rose
- бот, который создает сайты Right Click
- бот, который создан для людей, если они испытывают бессоницу, чтобы поговорить на любые темы Insomno bot
- узнает о симптомах и болевых ощущениях, ставит диагнозы Dr A.I.
Цели и методы хищной системы
Место действия:
- социальные сети Facebook, Vkontakte, Twitter
- блоги и комментарии к блогам
- большие и маленькие форумы
- чатрумы телеграма и слэка
Какие у хищных систем могут быть метрики "успеха"?
- Аккаунт лояльный к активистам прекращает публиковать посты или количество постов уменьшается
- Уменьшение количества взаимодействий активистов с медиа, блоггерами и популярными аккаунтами
- Эмоциональный окрас постов активистов становится более отчаянным и фрустрированным
Это не тот вариант будущего, когда такая система разрабатывается специально для GoodCorp.
Нет-нет, берется банальный облачный коммерческий сервис ML/AI, созданный Microsoft или Google, и тренируется.
Что делает такая злонамеренная система созданная с помощью ИИ?
- управляет сотнями аккаунтов в социальных сетях
- создает фейковые аккаунты журналистов, якобы заинтересованных в материалах, но на самом деле просто поглощающих внимание
- постит публичные глупые, агрессивные и оскорбительные комментарии от якобы сторонников активистов
- отравляет расстраивающие личные сообщения активистом
- резко и жестко критикует предложения или инициативы потенциальных союзников активистов от имени сторонников активистов, отталкивая их
- распространяет глупую, явную ложь о корпорации от имени сторонников активистов и сразу же атакует такие посты от имени "разумных и взвешенных сторонников" корпорации
- если активист пытается публично прокомментировать важный вопрос, разрушает возможность обсуждения шумом, флудом и стебом
- создает вебсайты и документы, на которых вроде бы есть доказательства осведомленности топменеджмента, но на самом деле нет и проверить это занимает много времени
- создает фейковые аккаунты активистов на платформах, где нет настоящих и компрометирует их
- спамят ящики, мессенджеры и телефоны
- идеально отслеживает статистику эффективности и адаптирует свое поведение
Не заблуждайтесь, все это массово происходит и сейчас, только управляется человеческими интеллектами. У которых есть явные "недостатки": болтливость, эмпатия, брезгливость.
Искусственные интеллекты сделают атаки дешевыми, масштабируемыми и контролируемыми.
Все плохо, но есть и положительная сторона: использование и развитие хищных систем обнажит степень манипуляций социальными медиа.
Пользователи наконец-то начнут предпринимать активные меры для своей защиты. Или станут подконтрольны хищным системам.