Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Как искусственный интеллект может управлять хакерскими атаками, связанными с вымогательством (ransomware)

Привет. В настоящее время хакеры начинают использовать автоматическое программное обеспечение для проведения широкомасштабных атак. Поскольку индустрия искусственного интеллекта участвует в создании машин следующего поколения, уже не далек тот день, когда AI будет использоваться хакерами для развертывания вымогательских атак по всему миру.

Развитие AI считается приоритетом для правительств и промышленности

Искусственный интеллект стал высококонкурентной отраслью, которая быстро расширяется благодаря инвестициям технологичных корпораций и государственных правительств во всем мире. Перспективы использования современных AI агентов в различных областях имеют преимущества как для сокращения финансовых затрат, так и для выполнения человеческих работ. Это правда, что, хотя большинство отдельных агентов AI будут использоваться для автоматизации простых задач, можно создать интеллектуальную систему, которая имеет возможность принимать критически важные решения, оказывающие серьезное влияние на весь мир.

Хакеры могут воспользоваться развитием Искусственного интеллекта

Сейчас хакерам не потребуется много времени для получения доступа к использованию возможностей технологии в своих преступных целях. Эксперты по безопасности предполагают, что, как только развитие AI достигнет широкого распространения среди потребителей, технология начнет использоваться в преступных целях. 

В настоящее время преступники используют автоматизированное программное обеспечение, которое обычно является модульными фреймворками или скриптами, которые модифицируются и запрограммированы с целью достижения определенного набора предопределенных целей.

Чтобы достичь наивысшего уровня заражения, преступникам необходимо определить такие параметры, как тип атаки и конечные цели. С помощью агента искусственного интеллекта эта задача будет успешно автоматизирована ими. Существует несколько процессов, которые могут разгрузить человеческих операторов:

  • Отбор. Автоматизированные интеллектуальные машины могут использоваться для оценки наиболее вероятных целей, которые могут быть скомпрометированы. Раньше хакеры должны были вручную мониторить сети, используя скрипты и программное обеспечение.
  • Инфильтрация - технические аспекты криминального вторжения в определенный компьютер или сетевой объект могут быть автоматизированы AI. Агенты могут использовать технологию машинного обучения и другие соответствующие методы для эффективного прохождения функций безопасности, реализованных администраторами.
  • Обход. Используя передовые методы, злоумышленник может скрыть заражение, манипулируя системой и отключая активные компоненты безопасности.
  • Саботаж. Как только системы были заражены агентами, они могут использоваться для развертывания компьютерных вирусов всех видов, включая расширенную форму требования выкупа. 

В настоящее время большинство преступных организаций, как используют известные виды вымогательства, так и изменяют исходный код для создания новых способов вымогательства. В последнее время вирус-вымогатель Dharma с расширением .arena вызвал множество заражений в результате массовой рассылки спама. Аналогичным образом AI сможет создавать свои собственные вредоносные программы, потенциально с нуля, внедряя передовые алгоритмы машинного обучения.

Развертывание AI-вымогателей возможно

Компьютерное вымогательство представляет собой одну из самых опасных угроз для компьютерной безопасности в целом. В отчете ENISA за 2016 год говорится, что оно имеет наибольший рост во всех отслеживаемых характеристиках: количество атак, количество жертв, средний выкуп, современные методы заражения, ущерб и преступный оборот. В последние несколько лет большинство инцидентов с безопасностью, по-видимому, происходят именно из-за продвинутых способов компьютерного вымогательства.

Предполагаемый вредоносный AI может использоваться для координации хакерских атак неизмерим большего масштаба, поскольку он может автоматически использовать ресурсы больших бот-сетей. Эксперты по безопасности предполагают, что, вероятно, большая опасность будет заключаться в создании новых вирусных образцов самим искусственным интеллектом. По дизайну они могут анализировать слабые места в созданных человеком вирусах и генерить продвинутые формы требований выкупа, которые могут серьезно повлиять на принятия нужного им решения со стороны потерпевшего. 

К сожалению, для совершенной системы AI не составит труда получить требуемую информацию. Кибербезопасность, как одна из самых динамичных областей в IT зависит от сотрудничества между экспертами по всему миру. В результате большая часть исследований сегодня является общедоступной, и относительно легко получить подробную информацию о том, как проникнуть в целые компьютерные сети.

Как предотвратить потенциальную угрозу злоупотребления возможностями искусственного интеллекта

Чтобы не допустить возникновения таких сценариев, ученые-компьютерщики, государственные учреждения и промышленность в целом должны придумать способ ограничить вредоносное использование технологий искусственного интеллекта. К счастью, пока развитие технологии не достигло этой стадии, и широкомасштабные атаки все еще находятся в сфере научной фантастики. Однако, это может измениться в ближайшие годы.

Одним из возможных способов предотвращения злоупотребления безопасностью AI является разработка протоколов, которые внедряются в «сознание» AI агентов, чтобы исключить нанесение ими вреда другим системам. Точные определения могут быть сформулированы в стандарте, выпущенном организацией или группой, такой как IEEE, аналогично тому, как регулируются интернет-технологии. На практике каждый разработчик, обладающий необходимыми навыками и исходным кодом, может создать агента AI и сделать его полностью работоспособным в соответствии со своими собственными потребностями. Такой сценарий предписывает ситуацию, которая аналогична нынешним данным - как специалисты по безопасности, так и преступники имеют доступ к одной и той же технологии.  Сегодня AI уже используется крупными компаниями, такими как Facebook, в борьбе с преступлениями.

В настоящий момент невозможно сказать, как будет развиваться искусственный интеллект, и сможет ли он быть использован преступниками со злым умыслом. В любом случае те, кто находится на гребне этой волны, по определению будут иметь преимущество перед другой стороной, еще не оседлавшей технологию. Положительный сценарий будет заключаться в том, что развертывание интеллектуальных агентов в приложениях и службах кибербезопасности обеспечивает эффективную и адекватную защиту от потенциальных вымогательств и других связанных с ними угроз.

Подробней, фото1, фото2, фото3

0
43.204 GOLOS
Комментарии (1)
Сортировать по:
Сначала старые