RoTM Согласно опубликованному сегодня отчету британского аналитического центра, искусственный интеллект и автоматизация на рабочем месте рискуют создать новые формы предвзятости и несправедливости, усиливая неравенство в сфере труда.

В результате двухлетних исследований в документе Fabian Society «Совместное будущее: рабочие и технологии в 2020-е годы» говорится, что автоматизация технологий создает повышенные риски для исторически неблагополучных групп.

Среди других доказательств он привел алгоритмы машинного обучения, которые учитывают решения о приеме на работу на основе устаревших и дискриминационных данных.

«Алгоритмы и ИИ используются для принятия судьбоносных решений о найме и продвижении на рабочем месте, копируя виды предубеждений, мешающих принятию решений людьми», авторы сказали.

Далее упоминается хорошо известный случай, когда Amazon была вынуждена отказаться от своего программного обеспечения для найма ИИ потому что он использовал прошлые данные, чтобы научиться отвергать женщин-программистов.

«Но подобные коммерческие пакеты используются все чаще и чаще», — говорится в сообщении. «Эти алгоритмы должны исключать информацию о поле, расе и других характеристиках, подпадающих под действие законов о равенстве, но мы слышали, как они используют предположительно несвязанные данные, которые на самом деле коррелируют, например, где кто-то живет».

В отчете, поддержанном профсоюзом Community, говорится, что Unilever и Vodafone были среди фирм, заявивших, что они используют технологию распознавания лиц для сравнения физических реакций респондентов с чертами, предположительно связанными с успехом на работе. Но другие эксперты утверждают, что выражения человеческого лица слишком разнообразны, особенно в разных культурах и среди некоторых людей с ограниченными возможностями, чтобы эти методы были точными и недискриминационными.

Читайте также:
Google очищает вредоносные приложения Android с миллионами загрузок

«Без вмешательства предвзятые технологии рискуют лишить обездоленные группы доступа к изменяющемуся рынку труда; гарантируя, что в краткосрочной перспективе они столкнутся с дополнительными препятствиями для трудоустройства из-за рецессии COVID-19, а в более долгосрочной перспективе они не увидят преимуществ инновации », — говорится в отчете, который последовал за расследованием, проведенным депутатом от лейбористской партии и председателем специального комитета по внутренним делам Иветт Купер.

Смещение в алгоритмах машинного обучения

Отчет был опубликован после того, как эксперты неоднократно заявляли, что наборы данных, используемые для обучения многих моделей машинного обучения, используемых программным обеспечением для распознавания изображений и искусственного интеллекта, смещены в сторону белых лиц, что делает их склонными к предвзятости и с большей вероятностью дискриминируют людей. цвета.

Анима Анандкумар, профессор компьютерных наук в Калифорнийском технологическом институте и директор исследовательской группы Nvidia по машинному обучению, также указала на проблемы гендерного предубеждения в компьютерном зрении, например, отметив, что «при обрезке изображений в Twitter и других платформах, таких как Google News, часто делается акцент на женском торсе. а не их головы «.

В июне инструмент, известный как PULSE с использованием StyleGAN, обученный на 70 000 изображений, взятых с Flickr, продемонстрировал расовую предвзятость, стремящуюся генерировать изображения белых людей.

Сообщается, что в июле этого года полиция Детройта произвела два незаконных ареста на основе распознавания лиц, когда подозреваемые были неправильно идентифицированы с помощью программного обеспечения.

Читайте также:
Как удалить все оповещения на Apple Watch

Проведенный в ноябре правительством Великобритании обзор предвзятости в процессе принятия алгоритмических решений показал, что было «хорошо установлено, что существует риск того, что алгоритмические системы могут привести к предвзятым решениям, причем, возможно, самой большой основной причиной является кодирование существующих человеческих предубеждений в алгоритмические». системы «.

Он рекомендовал большую прозрачность в том, как создаются модели, а также учет компаний, которые создают модели. В частности, в нем говорилось, что необходимы дополнительные инструкции по обеспечению того, чтобы инструменты найма, например, «не подвергали непреднамеренной дискриминации группы людей, особенно при обучении на исторических или текущих данных о занятости». Вы можете найти обзор здесь.

Вовлекайте людей

В более широком смысле, Фабианское общество пришло к выводу, что внедрение автоматизации на рабочем месте, вероятно, непропорционально повлияет на обездоленные группы населения, и утверждало, что эти эффекты усугубляются пандемией COVID-19.

В отчете предлагается ряд решений, включая инвестиции в обучение и навыки. В нем также говорится, что работодатели должны принять «партнерство на рабочем месте» и привлекать работников и профсоюзы к принятию решений, связанных с технологиями.

В отчете говорится, что, несмотря на непропорционально большое влияние автоматизации, рабочие действительно приветствуют новые технологии на рабочем месте, отмечая, что ИТ во многих случаях помогали компаниям продолжать работать во время пандемии.

Но, как слишком хорошо знают многие опытные ИТ-специалисты, конструкция технологии и способ ее внедрения имеют решающее значение.

«Людей возмущает необходимость использовать плохо спроектированные технологии, которые трудно использовать, ломаются или допускают ошибки. Рабочие ценят новую технологию, когда считают ее« подходящей для работы », и не любят, когда она не работает, не подходит или неправильно понимается менеджерами. «завершился отчет. ®

Читайте также:
Boeing потратит более 2,5 млрд долларов на урегулирование обвинения в мошенничестве в связи с безопасностью 737 Max • Реестр