Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
lisak
6 лет назад

Искусственный интеллект, который обнаруживает обман

Привет. Возможность узнать, когда человек лжет, является значимой частью обычной жизни, но в судебном заседании это играет намного более серьезную роль. Человек может уверять, что будет говорит только правду, но не факт, что он будет соблюдать свое обещание, и возможность идентифицировать эту ложь может буквально стать определяющей при вынесении приговора - виновен ли человек или нет.

Для решения этой задачи исследователи создали алгоритм Deception Analysis and Reasoning Engine (DARE) (алгоритм определения лжи), который работает на основе технологии искусственного интеллекта (AI) для идентификации лжи в пробных видеороликах из зала суда. Ученые представили свой алгоритм, идентифицирующий ложь в своей новой работе, которая все еще должна быть проверена экспертами.

Алгоритм учился определять и распознавать человеческую мимику, положение губ и проч, а, кроме того, определять звуковые нюансы, указывающие на ложь. После этого алгоритм был проверен при помощи определенных обучающих образцов видео, на которых профессиональные актеры произносили монологи, где либо лгали, либо говорили правду.

По результатам тестирования было установлено, что алгоритм выполняет поиск обмана лучше, чем среднестатистический человек. Фишка заключалась в том, что механизм визуализации искусственного интеллекта значительно превосходит человеческий в идентификации самых мелких деталей, таких, как мимика и проч.

Вывод 

Несмотря на то, что уже существующие механизмы распознавания обмана могут также очень точно давать оценку сказанного человеком, они, все-таки, не так применимы в залах суда. Например, так называемый детектор лжи в суде просто неприменим.

Ученые тестировали свой алгоритм также и в коллективных играх, таких как "Мафия", в которых можно получить богатые данные о корреляции обмана, выражения лица и других поведенческих моделей людей. 

Вместе с тем, по словам некоторых экспертов, этот алгоритм следует применять очень осторожно.

В случае использования алгоритма для решения судьбы человека, необходимо принимать во внимание вероятность неточности в действиях AI и ошибках, допущенных, при его обучении в результате использования неточных данных для обучения. 

В любом случае, исследования в этом направлении продолжаются и вместе с повышением точности работы алгоритма, количество приложений на его основе будет увеличиваться.

Подробней, фото

0
640.567 GOLOS
На Golos с February 2017
Комментарии (4)
Сортировать по:
Сначала старые