Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
lisak
6 лет назад

Решения о жизни и смерти, которые должны будут принимать AI машины

Насколько комфортно для нас оставляеть решения о жизни и смерти роботам? В то время как машины могут переработать все данные, они должны быть запрограммированы людьми, чтобы использовать эти данные. Это означает, что мы, как люди, должны работать над этими сценариями, чтобы инструктировать машины о том, как принимать решения в отношении вопросов жизни и смерти. От автономных автомобилей и дронов до роботов-врачей, мы оказываемся в точке, где ИИ рассматриваются вопросы жизни и смерти.

Моральная машина MIT

Во-первых, решения, которые мы предоставляем принимать машинам, не кажутся такими уж тревожными. Тем не менее, исследователи из MIT Media Lab дают нам представление о своей моральной машине, самом обширном глобальном исследовании этики, когда-либо проводимом, О некоторых этических соображениях, с которыми нужно будет столкнуться, как только автономные транспортные средства окажутся на дороге. Должен ли автономный автомобиль нарушать закон, чтобы избежать столкновения с пешеходом? Что, если этот акт подвергнет пассажиров автомобиля опасности? Чья жизнь важнее? Изменится ли ответ, если пешеход переходил дорогу незаконно? На эти вопросы сложно ответить, и редко бывает консенсус в отношении того, что является моральным ответом, особенно в разных культурах.

Принятие решений автономными автомобилями

Хотя ожидается, что автономные транспортные средства сократят число несчастных случаев на наших дорогах на 90%, согласно отчету McKinsey & Company, аварии все еще возможны, и нам нужно подумать о том, как программировать машины. Кроме того, нам необходимо определить, кто несет ответственность за то, как программировать устройства, будь то потребители, политики, рынок, страховые компании или кто-то другой. Если автономный автомобиль сталкивается с препятствием, едущим по дороге, он может реагировать различными путями: оставаться на курсе и рискуя столкнуться с машиной, когда, в конечном итоге гибнут пассажиры. Принимать ли решение о том, какую полосу занимать в зависимости от людей в транспортном средстве? Возможно, человек, которого нужно убить, является родителем или известным ученым. Что делать, если в машине есть дети? Возможно, решение о том, как избежать препятствия, должно быть сделано просто "бросанием монетки", случайным выбором вариантов. Это все дилеммы, которые нам необходимо решать при создании и разработке автономных систем. Еще одна деталь в алгоритмах принятия решений должна включать несчастные случаи, которые могут привести к потере конечностей, умственных способностей и других нарушений.

Военные беспилотники, определяющие цели

С объявлением американской армией, что она разрабатывает беспилотники, которые могут обнаруживать цели, используя искусственный интеллект, перспектива принятия машинами решений, кого убить уже не является сюжетом из научной фантастики, но скоро станет реальностью. В настоящее время беспилотные летательные аппараты контролируются и пилотируются людьми, которые в конечном итоге принимают окончательные решения о том, где будет сброшена бомба или выпущена ракета. Международное гуманитарное право допускает нападения на объекты "двойного назначения", которые создают товары гражданского и военного назначения. Когда дроны вступают в бой, будут ли технологические компании и сотрудники считаться допустимыми целями? Ключевая особенность автономных систем заключается в том, что они становятся лучше с течением времени на основе полученных данных и обратной связи. Возможно ли, что по мере совершенствования технологии автономных беспилотных летательных аппаратов нам нужно будет определить приемлемую стадию саморазвития, чтобы избежать создания машины-убийцы?

Последствия при вызове робо-доктора

Много было написано о медицинских прорывах, которые системы искусственного интеллекта могут совершить при диагностировании заболеваний и при создании персонализированных планов лечения и протоколов лекарственных средств. Потенциал ИИ для помощи в сложных случаях экстраординарен, но что происходит, когда ваш человеческий врач и ваш робо-док расходятся во мнениях? Вы доверяете им однинаково? Будут ли страховые компании отрицать покрытие, если Вы не будете придерживаться того, что система AI рекомендует вам? Когда следует делегировать критические медицинские решения алгоритмам ИИ и кто в конечном итоге получает окончательное решение—врачи, пациенты или машины? По мере того, как машины становятся лучше в принятии медицинских решений, мы можем попасть в точку, где программисты или врачи не смогут понять процесс принятия решений машиной. Чем больше мы отказываемся от наших медицинских знаний и контроля ИИ, тем труднее становится обнаружить ошибки в принятии решений ИИ.

Источник

0
256.953 GOLOS
На Golos с February 2017
Комментарии (4)
Сортировать по:
Сначала старые