Реклама
Home Softnews Канада советует Clearview AI не царапать лица наших граждан для узнавания —...

Канада советует Clearview AI не царапать лица наших граждан для узнавания — удалите эти изображения • The Register

Реклама


Канадский надзор за конфиденциальностью обнаружил, что Clearview AI «явно нарушает» законы страны о конфиденциальности, и приказал стартапу по распознаванию лиц прекратить соскабливать изображения канадцев и удалить все существующие фотографии этих граждан.

Реклама

Управление комиссара по вопросам конфиденциальности Канады начало официальное расследование действий выскочки, в результате чего Clearview прекратила продажу своего программного обеспечения канадской полиции.

«Огромная коллекция Clearview из миллионов изображений без согласия или ведома отдельных лиц для целей маркетинга служб распознавания лиц не соответствует законодательству Квебека о конфиденциальности или биометрическим данным», сказал Дайан Пойтрас, президент Квебекской комиссии по доступу к информации, правительственной организации, участвовавшей в расследовании.

Стартапу сказали прекратить фотографировать людей для обучения своего программного обеспечения для распознавания лиц, удалить все фотографии, полученные от людей в Канаде, и не продавать свои услуги канадским клиентам. Однако компания Clearview из Нью-Йорка утверждала, что у нее нет «реальной и существенной связи» со страной, поэтому не следует соблюдать ее законы, и что согласие не требовалось для очистки фотографий, поскольку они все равно общедоступно.

Ваши фотографии Flickr использовались для обучения модели распознавания лиц?

Исследователи искусственного интеллекта создали онлайн-инструмент, который позволяет людям проверять, использовались ли их селфи для тайного обучения программ распознавания лиц.

Exposing.ai, созданный разработчиком и художником Адамом Харви и Лиз О’Салливан, технологическим директором группы по защите конфиденциальности Surveillance Technology Oversight Project, просмотрел наборы данных для обучения ИИ, созданные на основе скрапинга фотографий, лицензированных Creative Commons, на сайте обмена фотографиями Flickr . Они отслеживали URL-адрес для каждой фотографии и помещали его в базу данных, и пользователи могут просматривать данные, выполняя поиск по определенному URL-адресу, хэштегу изображения или имени пользователя Flickr.

Читайте также:
Microsoft разрабатывает особенный Skype

Если есть совпадение, то изображение присутствует по крайней мере в одном из шести наборов данных, используемых для обучения машин распознаванию лиц. «Люди должны понимать, что некоторые из их самых интимных моментов были превращены в оружие», — говорит О’Салливан. сказал NYT. «Вероятность причинения вреда казалась слишком большой».

Вы можете использовать инструмент здесь.

Список грязных, непристойных, непристойных и нецензурных слов, которые исследователи ИИ используют для фильтрации данных

Лучший способ предотвратить создание в моделях машинного обучения текста или изображений, которые являются слишком колоритными и непристойными, — это не обучать программное обеспечение на данных, которые, ну, слишком колоритны или непристойны.

Один из способов, с помощью которого исследователи делают это, — это автоматически проверять любые данные, которые содержат или относятся к предметным областям с рейтингом x, которых они хотят избежать в своих моделях. Войдите в список грязных, непослушных, непристойных и нецензурных слов, известный как LDNOOBW, удобный контрольный список, содержащий непристойные слова, и теперь общий на GitHub.

Список, созданный в первую очередь людьми из Shutterstock, компании по производству стоковых изображений, на данный момент содержит сотни слов на многих языках, а теперь используется другими технологическими компаниями, такими как Slack и Google, Wired. сообщил.

Colossal Clean Crawled Corpus, популярный набор текстовых данных, используемый для обучения больших языковых моделей, использует LDNOOBW для фильтрации веб-страниц, содержащих эти слова. Идея заключается в том, что такие слова, как «Busty» или «курчавой», скорее всего, связаны с порнографических сайтов и блокированы от обучающих данных. Но некоторые критики считают, что цензура некоторых слов означает, что эти алгоритмы не будут знать о некоторых человеческих сексуальных предпочтениях, которые традиционно недопредставлены.

Читайте также:
AWS создает «новую систему дизайна с открытым исходным кодом» с помощью React °

Вам нужен алгоритм искусственного интеллекта, который поможет вам писать код на работе?

Kite, стартап, специализирующийся на создании инструментов автозаполнения для программистов с помощью машинного обучения, теперь имеет поддержку специально для разработчиков на работе. Другими словами, теперь компании могут платить за корпоративную лицензию на использование программного обеспечения на работе.

Это стоит 40 долларов на пользователя в месяц, что на 10 долларов больше, чем лицензия для физических лиц. Студентам разрешено использовать его бесплатно.

Корпоративная версия, известная как Kite Team Server, более мощная и работает на серверах GPU, а не CPU. Программное обеспечение также можно обучить на проприетарной кодовой базе компании, чтобы предлагать предложения на основе пользовательского кода.

Генеральный директор Адам Смит рассказал Реестр, код этого пользователя всегда остается конфиденциальным.

«Kite Team Server настраивает модели машинного обучения на графическом процессоре за межсетевым экраном компании. Kite Team Server обеспечивает конфиденциальность и безопасность кода, защищая его от брандмауэра ». Ни один из входов и выходов, генерируемых его инструментами, не хранится на его серверах и не используется совместно.

Вы можете прочитать об этом подробнее здесь. ®

Реклама

NO COMMENTS