Вкратце Корейский стартап AI подвергся критике после того, как он извлек личные сообщения от своих пользователей, которые содержали личную и конфиденциальную информацию, для обучения чат-бота.

Люди оценили приложение Scatter Labs «Наука любви» в Google Play Store до одной звезды. плохие отзывы по вопросу. Приложение использует машинное обучение для анализа текстов, которыми обмениваются на KakaoTalk, популярной службе обмена сообщениями. Scatter Labs годами собирала разговоры людей, чтобы обучить своего собственного чат-бота, известного как Ли Люда.

Однако Lee Luda был временно закрыт в прошлом месяце после того, как он извергал разжигание ненависти и личные личные данные людей. Бот назвал лесбиянок отвратительными и слил настоящие номера телефонов.

Более того, компания загрузила данные обучения Ли Люды на GitHub, чтобы получить дополнительную информацию, согласно на корейский новостной сайт онлайн Pulse. С тех пор данные были удалены, и пользователи пришли в ярость, что их сообщения были очищены.

Scatter Labs не ответили на наши запросы о комментариях.

Остерегайтесь дорогих учебных курсов по программированию ИИ

Человек, претендующий на роль руководителя проекта AI Fluency, организации, продающей то, что выглядит как курс машинного обучения для начинающих за 1280 долларов (~ 926 фунтов стерлингов), хотел, чтобы мы дали «код скидки» для Рег читатели. «Мы хотели предложить специальную скидку в размере 485 долларов США для всех студентов Реестр, — сообщил нам представитель организации Мэтт Хэнсон в электронном письме на этой неделе. — Ранее цена курса составляла 1280 долларов США — со скидкой 795 долларов США (~ 502 фунта стерлингов) ».

Читайте также:
Что в Fedora 34? GNOME 40, ускоренный Wayland, PipeWire Audio, улучшенная поддержка Flatpak и многое другое °

Однако беглый взгляд на сайт должен вызвать тревогу. Мало информации о преподавателях, которые предположительно являются выпускниками престижных институтов: Массачусетского технологического института, Стэнфордского университета, Гарвардского университета и Оксфордского университета. Кто бы ни разработал веб-сайт, также украл изображение того, что выглядит как класс Zoom из общедоступного сообщения Medium.

снимок экрана

Не очень хороший вид. Нажмите, чтобы увеличить. Источник: AI Fluency

Когда мы связались с Юджином Корсунским, доцентом кафедры инженерии в Дартмутском университете, изображенном в правом верхнем углу изображения, он сказал, что никогда не слышал об AI Fluency и не давал ему разрешения на использование своей фотографии. Картинка теперь заменена другим общим изображением встречи, взятым с веб-сайта Zoom.

AI Fluency утверждает, что существует с 2015 года, но веб-сайт был создан 27 декабря 2020 года. Также нет общедоступной информации, подтверждающей, что компания существует так долго. Поначалу Хэнсон хотел поговорить с нами, но после того, как мы задали вопросы об инструкторах и компании, он замолчал.

Машинное обучение — это сложная область для освоения и привлекательная, учитывая зарплаты инженеров. Онлайн-курсы популярны, но будьте осторожны с теми, которые утверждают, что они могут соединить вас с экспертами и сделать вас более трудоспособным. Для этого потребуется гораздо больше, чем несколько уроков, особенно если вы новичок.

Университеты нуждаются в большей вычислительной мощности для изучения массовых языковых моделей, таких как GPT-3.

Способность GPT-3 генерировать расистские, сексистские выражения, а также ложную информацию встревожила разработчиков, особенно с учетом того, что OpenAI стремится коммерциализировать свой инструмент генерации текста.

Читайте также:
Что Apple позаимствовала у Android

Какое влияние окажет эта модель на наше общество, когда станет доступной? Исследователи из OpenAI, Стэнфордского института искусственного интеллекта, ориентированного на человека, и других университетов провели встречу, чтобы обсудить, как технология может повлиять на такие области, как Интернет и экономика. Обсуждение было сжато в бумага [PDF] на arXiv.

Эксперты обеспокоены тем, что эта модель может автоматизировать некоторые задачи и задания, связанные с чтением и письмом, и возможно, что авторы контента или студенческие эссе могут быть заменены машинно-сгенерированным текстом. Они также были обеспокоены его потенциалом выплевывать огромные объемы поддельного текста в форме твитов, новостных статей или пропаганды, которые трудно проверить.

Также посмотрите этот жуткий разговор пользователя Reddit утверждал пришла из GPT-3, где машина, как сообщается, рассказывает о радостях убийства. ®