Вкратце Прохожие в Нью-Йорке были ошеломлены на этой неделе, когда полицейские покинули государственный жилой комплекс, а за ними поспешили мужчина в наручниках и собака-робот.

Четвероногая машина, показанная ниже, была построена Boston Dynamics и с октября отправлялась на места совершения преступлений по всему американскому мегаполису. в соответствии в Gothamist.

Полиция заявила, что они привезли робо-собаку с собой во время домашнего инцидента, хотя она не использовалась. Сообщается, что мужчине наложили наручники за хранение оружия. Непонятно, как собачьи устройства Boston Dynamics могут действительно помочь полицейским управлениям и что для них имеет в виду полиция Нью-Йорка, хотя мы можем представить, как их отправляют в комнату или здание с прикрепленными камерами, чтобы оценить ситуацию до того, как налетят полицейские.

Тем не менее, он привлек внимание жителей Большого Яблока. Некоммерческая организация The Surveillance Technology Oversight Project (STOP), базирующаяся в Нью-Йорке и занимающаяся вопросами конфиденциальности, осудила использование этой технологии. «Полиция Нью-Йорка превращает плохую научную фантастику в реальную жизнь», — сказал его исполнительный директор Альберт Фокс Кан. сказал в заявлении. «Нет причин, по которым наш город должен тратить 70 000 долларов на еще один инвазивный инструмент наблюдения».

Иск подан после незаконного ареста по распознаванию лиц

Отец подал в суд на полицейское управление Детройта после того, как алгоритмы машинного обучения ошибочно определили его как вора и арестовали.

Читайте также:
Пользователи, которые сразу обновились до Windows 10, попали в ловушку

По данным Американского союза гражданских свобод, такое гражданское дело возбуждено впервые. В прошлом году Роберт Уильямс был задержан офицерами и провел ночь за решеткой за преступление, которого не совершал. Его обвинили в краже часов из магазина, и его неточно опознали как преступника, когда полиция провела изображение вора с камер видеонаблюдения в магазине с помощью технологии распознавания лиц.

«Я пришел с работы и был арестован на подъездной дорожке на глазах у моей жены и дочерей, которые в слезах наблюдали за тем, как компьютер сделал ошибку», — сказал Уильямс. сказал в заявлении. «Этого никогда не должно было случиться, и я хочу убедиться, что этот болезненный опыт никогда не случится ни с кем другим».

ACLU и Инициатива судебного разбирательства по гражданским правам Юридической школы Мичиганского университета объединились, чтобы подать в суд на DPD от имени Уильямса. В иске утверждается, что права Уильямса в соответствии с Четвертой поправкой были нарушены и что его незаконный арест нарушает Закон о гражданских правах Эллиотта-Ларсена штата Мичиган. Юристы добиваются возмещения убытков и прекращения неправомерного использования технологий искусственного интеллекта полицейскими.

Запретить алгоритмы определения пола, заявляют активисты ЛГБТК +

Группы за цифровые права и ЛГБТ призвали Европейскую комиссию запретить все модели распознавания лиц, которые предсказывают пол.

All Out, Access Now и Reclaim Your Face объединились, чтобы предупредить общественность о потенциальном вреде таких технологий незадолго до того, как ЕС опубликует правовые рекомендации для систем ИИ на следующей неделе. Петиции, поданные этими организациями, уже получили десятки тысяч подписей, Gay Times первый сообщил.

Читайте также:
Новое приложение YouTube для Android поможет "криворуким" операторам

«В связи с тем, что правительства, полиция и корпорации по всему миру все чаще используют искусственный интеллект для прогнозирования пола и сексуальной ориентации путем анализа вашего имени, вашей внешности и звучания или ваших движений, квир-люди рискуют стать объектом чрезмерного наблюдения, несправедливого преследования и дискриминации », — сказал Юрий Гуайана, старший менеджер по рекламным кампаниям All Out.

Модели распознавания лиц часто обучаются бинарным гендерным ярлыкам — мужскому или женскому — и не могут представить квир, небинарные и трансфолковые люди, которые не идентифицируют себя с этими двумя категориями. Программное обеспечение часто изучает предвзятые особенности, такие как связь макияжа с женским телом или короткие волосы с мужским, и менее точны, когда люди не соответствуют норме.

Ответственное машинное обучение в Twitter

Twitter запустил новую инициативу по ответственному машинному обучению для мониторинга и отслеживания эффектов алгоритмов, развернутых на его платформе социальных сетей.

Он специально рассматривает потенциальные предубеждения в гендерном и расовом представительстве в своем алгоритме обрезки изображений, а также справедливость его временных рамок и рекомендаций по содержанию.

Команда по этике, прозрачности и подотчетности машинного обучения пообещала обнародовать результаты своих исследований, чтобы лучше информировать пользователей, инженеров и ученых о своих технологиях. «Мы поделимся своими знаниями и передовым опытом, чтобы улучшить коллективное понимание этой темы в отрасли, помочь нам улучшить наш подход и привлечь нас к ответственности», — говорится в сообщении. сказал, На этой неделе.

Проект все еще находится на начальной стадии, хотя группа надеется поделиться своими выводами в исследовательских статьях и сообщениях в блогах. ®

Читайте также:
Новые модули пытаются сделать NoSQL Redis более универсальной базой данных °