Элиезер Юдковский выступил с программным заявлением о том, что должно быть сделано, чтобы уменьшить экзистенциальный риск от развития искусственного интеллекта. Он не верит, что это будет сделано, но считает необходимым сказать вслух:
Pausing AI Developments Isn't Enough. We Need to Shut it All Down Это ответ Элиезера на
открытое письмо, призывающее остановить тренировку более мощных, чем GPT-4, моделей на ближайшие полгода. Под письмом подписалось много известных и уважаемых исследователей в области ИИ, и некоторое небольшое количество известных бизнесменов и политиков.