Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Искусственный интеллект, как инструмент для хакерских атак

Привет. Кибератаки в ближайшем будущем могут базироваться на технологиях искусственного интеллекта. На недавней конференции по кибербезопасности 62 профессионала из 100 опрошенных заявили, что считают, что первая кибератака с искусственным интеллектом может произойти в ближайшие 12 месяцев.

Это не означает, что роботы станут хакерами и начнут совершать эти атаки. Скорее всего, искусственный интеллект будет использован в качестве инструмента в руках хакеров для повышения эффективности краж личных данных, DDos атак и взлома паролей. 

Это достаточно опасно, так как при помощи этого вид взлома могут быть похищены деньги, причинен эмоциональный вред и даже причинен вред жизни и здоровью людей. Мощные атаки могут лишить электричества сотен тысяч людей, нарушить работу объектов жизнеобеспечения и даже повлиять на национальную безопасность.

Ученые, изучающие принятие решений в области AI, говорят, что на текущем этапе развития AI интерпретация человеческих действий по-прежнему сложна для машин и что люди не доверяют системам AI, когда надо принимать важные решения. 

Таким образом, в отличие от научной фантастики, вряд ли сегодня AI будет самостоятельно выбирать цели и нападать на них по своей "воле", скорее всего, возможности AI могут быть использованы злоумышленниками при проведении ими кибератак . 

Людям по-прежнему придется создавать системы искусственного интеллекта и запускать их для решения определенных задач. Но, тем не менее, добавление огромных возможностей AI к сегодняшнему миру киберпреступности и миру кибербезопасности приведет к эскалации быстро растущей гонкой вооружений между атакующими и защитниками.

Более быстрые атаки

Отсутствие у машин таких ограничений, как усталость, необходимость в еде и сне, которые есть у человеческих хакеров, даже в случае работы командах, позволяет AI системам осуществлять сложные кибератаки намного эффективней.

На сегодняшний день влияние автоматизации ограничено. Ранее существовали технологии, очень отдаленно похожие на AI, которые на протяжении десятилетий давали вирусным программам возможность саморепликации, распространяющейся с компьютера на компьютер без конкретных человеческих инструкций. 

Кроме того, программисты использовали свои навыки для автоматизации различных элементов взлома. Распределенные атаки, например, включают запуск удаленной программы на нескольких компьютерах или устройствах для подавления серверов. Атака, которая обрушила большие участки Интернета в октябре 2016 года, использовала этот тип подхода. В некоторых случаях обычные атаки становятся доступными как сценарий, который позволяет любому неопытному пользователю выбирать цель и запускать против нее атаку.

AI, тем не менее, может помочь киберпреступникам повысить эффективность атак. Например, нападения с использованием шпионской информации требует, чтобы злоумышленники имели личную информацию о предполагаемых целях, сведения о их счетах в банках или какую медицинскую страховую компанию они используют. Системы AI могут помочь собирать, организовывать и обрабатывать большие базы данных для снятия идентифицирующей информации, что облегчает и ускоряет этот тип взлома. Это снижает затраты хакеров для запуска множества небольших атак, которые остаются незамеченными в течение длительного периода времени (если они вообще будут обнаружены) из-за их более ограниченного воздействия.

Системы AI могут также использоваться для сбора информации из нескольких источников, чтобы идентифицировать людей, которые были бы особенно уязвимы для нападения. Например, кто-то, кто госпитализирован или находится в доме престарелых, может не заметить деньги, пропавшие с их счета. 

Улучшенная адаптация

Вооруженные искусственным интеллектом хакеры будут намного быстрее реагировать на возможное сопротивление специалистов по кибербезопасности. AI может использовать другую уязвимость или начать сканировать новые пути взлома системы, не дожидаясь человеческих инструкций.

Это может означать, что специалисты по кибербезопасности окажутся не в состоянии реагировать со скоростью входящих атак. Это может привести к технологической гонке вооружений, при котором защитники будут разрабатывать помощников AI по выявлению и защите от атак или, возможно, даже с возможностями ответных атак.

Избегайте опасностей

Эксплуатация таких систем полностью автономно может привести к тому, что AI будут атаковать систему, которую не должны атаковать, или причинять непредусмотренный ущерб. Например, программное обеспечение, запущенное злоумышленником, намеревающимся только украсть деньги, может решить настроить таргетинг на больничный компьютер таким образом, чтобы вызвать травму или смерть человека. Потенциал беспилотных летательных аппаратов для автономной работы поднимает аналогичные вопросы безопасности.

Последствия таких атак могут быть значительными, но большинство людей, скорее всего, даже не заметят, когда первая атака AI будет совершена. Для большинства пострадавших результат будет таким же, как и при обычных хакерских атаках, совершенных людьми. Но по мере того как люди продолжают заполнять свои дома, фабрики, офисы и дороги интернет-подключенными роботизированными системами, потенциальные последствия атак при помощи искусственного интеллекта будут только возрастать.

Подробней, фото1, фото2, фото3

10
208.023 GOLOS
Комментарии (4)
Сортировать по:
Сначала старые