OpenAI Forma Comité de Seguridad para Supervisar Futuros Modelos de IA

OpenAI Forma Comité de Seguridad para Supervisar Futuros Modelos de IA

OpenAI ha establecido efectivamente un Comité Interino de Seguridad y Protección, una medida que surge en medio de un intenso debate sobre los riesgos asociados con la inteligencia artificial avanzada y recientes salidas de alto perfil. El mandato principal de este comité es supervisar y proporcionar recomendaciones a la junta directiva de OpenAI sobre aspectos críticos de seguridad relacionados con el desarrollo y despliegue de sus modelos de IA de próxima generación, incluido el posible sucesor de GPT-4. El comité está compuesto por figuras clave de OpenAI: el CEO Sam Altman, junto con miembros independientes de la junta directiva como Bret Taylor (Presidente de la Junta), Adam D'Angelo y Nicole Seligman. También está facultado para consultar a expertos externos. Esta iniciativa sigue a las significativas dimisiones del cofundador y Científico Jefe Ilya Sutskever, y de Jan Leike, quien colideró el equipo de superalineación. Ambos habían expresado preocupación de que las consideraciones de seguridad en OpenAI estuvieran siendo eclipsadas por el impulso hacia capacidades de IA más potentes. Leike mencionó que su equipo había estado "luchando por recursos". Al comité se le ha otorgado un plazo de 90 días para llevar a cabo su revisión inicial y presentar sus hallazgos a la junta, con el objetivo de reforzar la confianza en el enfoque de OpenAI para la gestión de riesgos de la IA.

« Volver a la Lista de Noticias