Google разрабатывает выключатель ИИ
Есть две непримиримых стороны в дебатах относительно будущего искусственного интеллекта. В «бум» углу такие компании, как Google, Facebook, Amazon и Microsoft, настойчиво инвестирующие в технологию, чтобы сделать системы ИИ все более и более умными. А в углу «гибели» – знаменитые мыслители, такие как Элон Маск и Стивен Хокинг, которые сказали, что ИИ похож на “вызов демона”.
- Новый брат Siri, Viv, может быть следующим шагом в эволюции ИИ
- Doom будет следующим большим испытанием для ИИ
Теперь, один из самых усовершенствованных комплектов оборудования ИИ, DeepMind Google, принимает меры по обеспечению безопасности в случае, если человеческим операторам понадобиться “взять под свой контроль робота, который неправильно себя ведет [что] может привести к необратимым последствиям”, как я предполагаю, включающим уничтожение всего человечества.
Опубликованный документ является результатом совместных усилий DeepMind Google и Института Будущего Человечества Оксфордского университета. Директор-основатель Ник Бостром был красноречив о возможных опасностях разработки ИИ в течение многих десятилетий и написал целые книги, обсуждая последствия суперинтеллектуальных роботов.
Этот конкретный документ, озаглавленный “Safely Interruptible Agents”, исследует, как выключить ИИ, если он начнет делать что-то, чего не хочет человек-оператор. Документ переполнен математикой, которая не будет понятна 99 процентам из нас, и в основном описывает методы для создания того, что документ называет “большая красная кнопка” в ИИ.
Исследователи видели те же фильмы, что и вы. Вы знаете, те фильмы, где робот научился игнорировать команду отключения. Они подготовлены к этому.
Это может походить на излишество или бесполезное ограничение, считать, что самое впечатляющее достижение человечества в ИИ – использование его в настольных играх.
Как только искусственный интеллект достигнет человеческого уровня, замкнется петля положительной обратной связи, которая даст развитию дальнейший импульс. ИИ смогут помочь построить лучшие ИИ, которые в свою очередь помогут создать еще лучшие ИИ и т.д.
Лучше перестраховаться, чем потом жалеть.