Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
swanherzen
6 лет назад

Искусственный интеллект и системы безопасности

Все чаще и чаще наталкиваюсь на статьи и новости по развитию искусственного интеллекта, что, впрочем, не удивительно. Все вокруг нас сейчас, что составляет индустрию развлечений, рабочую деятельность и даже сферы услуг, подвязано, хоть к примитивному, но искусственному интеллекту. Появляются беспилотные автомобили, которые научены распознавать разметку, расстояние и прочие сигналы. Роботы, программируемые под выполнение хирургической операции любой сложности. Роботы-официанты и прочие.

Сейчас встает вопрос о замене как можно большего пространства роботами там, где на данный момент работают люди. Считается, что человек может ошибиться, а машина никогда. Но так ли это?

Сегодня я с целью зайти на ГОЛОС, включая компьютер, столкнулся с тем, что он попросту начал выдавать ошибки системы, долго загружался, потом как выяснилось конфликтовать между различными программами. Можно ли это оправдать тем, что оборудованию ни один год, что-то выходит из строя, несовершенное программное обеспечение или недостаточно ресурсов для многозадачности в том понимании в каком развивается прогресс сейчас? Конечно, можно. Но сколь прогресс не шел вперед, каждое новое поколение, калькулятора, компьютера, суперкомпьютера уходит в прошлое и остается в числе тех, чьи ресурсы не удовлетворили разработчиков усовершенствованных систем.

Искусственный интеллект, не те же ли компьютеры, что рано или поздно устареют и потребуется более обновленная версия, для достижения большей результативности?

Сегодня многие люди вспоминают случаи, когда компьютер (как ни странно, но и здесь компьютер), систем безопасности противоракетной обороны, разных стран, выдавал на радаре сигнал, свидетельствующий о ядерной атаке извне и кому, как ни человеку, приходилось принимать серьезное решение, ошибка ли это или нет и от этого решения зависело, будет ли ответный удар. Сейчас, в связи с этим, многие задаются этичным вопросом, смог бы искусственный интеллект в данном случае, принять подобное решение? Я не стану углубляться в фантастические подробности, наподобие намеренного уничтожения всего живого на планете машинами и подобное. Но будь подключены эти системы к ИИ, какова вероятность, что он распознал бы, что это ошибка и не совершил бы ответную ошибку?

Или совершил бы?

Источник изображения
<к предыдущему посту
Спасибо за
подписку ))

0
0.332 GOLOS
На Golos с June 2017
Комментарии (5)
Сортировать по:
Сначала старые