Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
akonomia
6 лет назад

Алгоритмы и социальное неравенство

Когда дело доходит до таких вопросов, как нанять кого-то на работу, дать ипотечный кредит или даже идентифицировать как подозреваемого в преступлении, человеческая предвзятость может иметь далеко идущие последствия. И поскольку все больше отраслей промышленности обращаются к технологиям — и, в частности, к алгоритмам — для снижения издержек и повышения эффективности, возникает новое соображение: могут ли алгоритмы давать более справедливые результаты?

Алгоритмы должны быть защищены от ошибок человеческого уклона. Но, несмотря на их, по-видимому, нейтральную математическую природу, алгоритмы не обязательно более объективны, чем люди. Фактически, без надлежащих издержек и противовесов их использование могло бы увековечить и даже усугубить социальное неравенство.

«Предпосылкой для принятия алгоритмических решений является тонна данных», — говорит футурист и комментатор CBC Джесси Хирш, недавно завершивший работу в области медиапроизводства, уделяя особое внимание алгоритмическим средствам и прозрачности. Любая организация с большим количеством данных в своем распоряжении, вероятно, использует алгоритмы для сортировки этой информации, ее организации и в конечном итоге принятия решений на ее основе.

Мы уже знаем, что наши временные рамки Facebook организованы на основе того, что алгоритм считает наиболее актуальным для нас. И мы можем считать само собой разумеющимся тот факт, что Netflix использует алгоритмы, чтобы помочь рассказать, какие фильмы или телешоу мы хотим смотреть дальше.

Но то, что может удивить некоторых людей, это то, как многие другие отрасли и сектора уже используют алгоритмы для принятия решений. И это не просто тривиальные решения, а те, которые имеют сложные социальные последствия и потенциально могут оказать глубокое влияние на жизнь людей — от найма и финансового кредитования до уголовного правосудия.

По словам Хирша, организации все чаще обращаются к алгоритмам, которые помогают принимать решения о таких вещах, как страховые тарифы, кредитные баллы, заявки на трудоустройство. Импульс для обращения к алгоритмам ясен. Но нужно, чтобы эти системы были справедливыми. Получение работы должно основываться на заслугах, а не по полу, и получение кредита должно основываться на таких факторах, как ваша кредитная история, а не на вашем цвете кожи.

Техно-утопическая вера заключается в том, что алгоритм может быть более объективным, поскольку он не несет в себе весь человеческий багаж предубеждений или предрассудков. В конце концов, это всего лишь код и данные. «В то время как люди часто желают доверять математическим моделям, полагая, что это уберет человеческое влияние от уравнения, мышление алгоритмов как объективное является ошибкой», — говорит математик Кэти О'Нил, автор новой книги «Оружие математического уничтожения».

По словам Хирша, наше стремление верить компьютеризованным системам может предложить лекарство от преодоления человеческих недостатков и «отражает мифологию технологий и наше стремление придать этим системам власть, которую они не заслуживают». По сути, исследования показывают, что алгоритмы могут фактически акцентировать влияние предрассудков. Без контекстной осведомленности или понимания существующих социальных предубеждений алгоритмы считают все введенные данные равными и точными. Но, как указывает Хирш, алгоритм будет смещен, когда «данные, которые питают алгоритм, смещены».

Поэтому, когда система учится на основе по своей природе предвзятой модели, она может, в свою очередь, включать скрытые предрассудки. Алгоритмы информируются нашими собственными предрассудками и убеждениями от проектирования самого алгоритма до данных, которые он вводит.

Подробнее,фото1,фото2

Text.ru - 100.00%

0
1.437 GOLOS
На Golos с December 2017
Комментарии (1)
Сортировать по:
Сначала старые