OpenAI действительно создала временный комитет по безопасности, официальное название которого – Временный комитет по безопасности и защищенности (Interim Safety and Security Committee). Это решение было принято на фоне усиливающихся дебатов о рисках, связанных с развитием мощных систем искусственного интеллекта, и недавних кадровых перестановок в компании. Основная задача нового органа – осуществлять надзор и предоставлять рекомендации совету директоров OpenAI по критически важным аспектам безопасности при разработке и развертывании следующих поколений ИИ-моделей, включая потенциального преемника GPT-4. В состав комитета вошли высокопоставленные фигуры OpenAI: CEO Сэм Альтман, а также независимые члены совета директоров – Брет Тейлор (председатель совета), Адам Д'Анджело и Николь Селигман. Комитет также будет иметь право привлекать внешних экспертов. Создание комитета последовало за громким уходом сооснователя и главного научного специалиста Ильи Суцкевера, а также руководителя команды по "супераллайменту" (superalignment) Яна Лейке. Оба выражали обеспокоенность тем, что вопросы безопасности в OpenAI отходят на второй план. Лейке, в частности, заявил, что его команда "боролась за ресурсы". Новому комитету предоставлено 90 дней для проведения первоначальной оценки и представления выводов совету директоров. Ожидается, что работа комитета поможет укрепить доверие к подходам OpenAI в области управления рисками ИИ.
OpenAI формирует комитет по безопасности для контроля будущих моделей ИИ
