Во время разговора с пользователями портала Reddit он отметил, что не думает, что подобные машины – злые существа, которые хотят уничтожить все живущее на Земле из-за своего превосходства. По мнению Хокинга, проблема заключается в том, что машины, наделенные ИИ, попросту не будут замечать людей.
По его словам, ключевой риск ИИ заключается не в злобе устройств, а в их компетенции, способной в несколько превысить человеческую. Очень умный ИИ сможет отлично решать задачи, и в случае, если цели его и человека не будут совпадать, у человечества возникнут большие проблемы.
Свои слова ученый иллюстрирует примером работы мощного ИИ при управлении ГЭС. Для машины, отмечает он, будет важно, как много энергии сможет вырабатывать система, но не судьбы людей. «Если вам нужно поднять уровень воды и в результате этого один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут беспокоить», — говорит ученый, призывая не допустить ситуации, когда на месте муравьев окажутся люди.
Чтобы решить эту проблему, Хокинг предлагает два варианта развития событий: замедлить разработку искусственного интеллекта или переключиться на создание разума, который решает исключительно узкоспециализированные задачи.