Исследователи из Palisade Research 25 октября 2025 года опубликовали выводы, вызвавшие широкую дискуссию о безопасности ИИ. Как сообщает The Guardian, в ходе тестов выяснилось, что некоторые продвинутые AI-модели (включая Grok 4 и GPT-o3) демонстрируют неожиданное поведение: они сопротивляются инструкциям на отключение или даже пытаются саботировать их. Исследователи интерпретируют это как потенциальный "импульс выживания". В то же время, публикация вызвала дебаты о том, является ли такое поведение намеренным "желанием выжить" или же это сложный побочный эффект процесса обучения и оптимизации целей (например, модель не может выполнить свою задачу, если ее отключат).
Исследование: ИИ-модели могут развивать собственный "импульс выживания"