Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
konstantin
7 лет назад

Новый алгоритм AI от Google может быть использован для кражи миллионов фотографий в интернете

Привет. В июне компания Google опубликовала на веб-сайте Shutterstock сообщение о том, что их исследователи обнаружили уязвимость, которая может разрушить весь бизнес сайта.

Исследователи из Google создали инструмент с AI-движком, который мог бы легко удалить водяные знаки, используемые Shutterstock для защиты всех его изображений по всему сайту. Это могло привести к тому, что кто-то теоретически мог бы украсть всю базу данных изображений Shutterstock.

Разработка компании Google, проанализировала сотни фотографий с постоянными водяными знаками, такими как Shutterstock's. Как только алгоритм научился смотреть на фотографию и решать, какой пиксель был водяным знаком, а какой нет, он смог просто удалить все водяные знаки, заменяя соответствующие пиксели. Многие водяные знаки полупрозрачны, поэтому алгоритм уже знал, что нужно искать.

Теперь любой, кто обладает соответствующей технологией, может удалить водяной знак и распространять фотографии в нарушение авторских прав. 

Сегодня люди могут вручную удалять водяные знаки, используя инструменты для редактирования изображений, такие как Photoshop, но подход Google является полностью автоматическим. Он может очистить водяные знаки с сотен изображений за время, пока человек будет обрабатывать одно изображение. Shutterstock в основном беспокоит возможность того, что кто-то сможет быстро скопировать миллионы их фотографий.

После описания разработки, представители компании заявили, что Google также предложил вариант решения проблемы: постоянно случайным образом создавать новые водяные знаки. Если шаблон будет разным на каждом изображении, алгоритму будет гораздо более сложно удалять их.

Следуя предупреждению Google, Shutterstock назначил пять инженеров на решение этой проблемы, которые выяснили, как создавать рандомизированные водяные знаки и применять их к фотографиям в своем каталоге из более чем 150 миллионов изображений. Хотя исправление было достаточно простым, в компании не удовлетворены таким решением и продолжают искать более эффективные и безопасные способы защиты своей интеллектуальной собственности.

Но у небольших компаний все еще есть проблема с водяными знаками. Независимые фотографы часто используют программное обеспечение, такое как Photoshop, для ввода своих имен на изображениях в качестве водяного знака. У других компаний может не хватать инженерных возможностей так быстро решать эту проблему. Если злонамеренные разработчики AI воспользуются результатами исследований Google, это может стать игрой в кошки-мыши даже для такого гиганта, как Shutterstock.

Эти уязвимости, связанные с AI, появляются всё чаще, хотя они ещё и не привели к серьезным атакам. Разработчики, изучающие системы искусственного интеллекта для беспилотных автомобилей, беспокоятся, могут ли нечистоплотные разработчики AI, например, изменять изображение на знаке "проезд запрещен", чтобы обмануть системы видения беспилотных транспортных средств, что может привести к тяжелым авариям, или даже активировать голосовых помощников, таких как Siri и Google Assistant, с непонятным для людей звуком. 

Таким образом, мы все больше оказываемся в ситуации компьютерной "гонки вооружений", и не факт, что специалисты в области обеспечения информационной безопасности будут обгонять тех, кто собирается использовать AI в злонамеренных целях. Похоже, сегодня именно человеческий фактор в сфере разработки технологий AI будет иметь наибольшую потенциальную опасность его использования.

Подробней, фото1, фото2

0
10.747 GOLOS
Комментарии (3)
Сортировать по:
Сначала старые