OpenAI Codex CLI
Integraciones
- GitHub (Codex Cloud)
- VS Code (Puente nativo)
- Linear
- Model Context Protocol (MCP)
- Estándar de Habilidades de Agente
Detalles de precios
- Incluido en ChatGPT Plus (20 $/mes) y Pro (200 $/mes).
- Los niveles Business/Enterprise incluyen controles administrativos avanzados y opciones de Cero Retención de Datos.
Recursos útiles
- 🔗 developers.openai.com › Codex
- 🔗 help.openai.com › 12642688-using-credits-for-flexible-usage-in-chatgpt-freegopluspro-sora
- 🔗 help.openai.com › 11487671-flexible-pricing-for-the-enterprise-edu-and-business-plans
- 🔗 platform.openai.com › Pricing
- 🔗 platform.openai.com › Pricing
- 🔗 platform.openai.com › Pricing
- 🔗 platform.openai.com › Pricing
- 🔗 platform.openai.com › Libraries
- 🔗 platform.openai.com › Docs-mcp
- 🔗 platform.openai.com › Latest-model
Características
- Binario Rust nativo con instalación sin dependencias
- GPT-5.2-Codex con tecnología de compactación de contexto
- Portabilidad de Habilidades de Agente (agentskills.io)
- Sandboxing a nivel de sistema operativo (Landlock/seccomp/sandbox-exec)
- Model Context Protocol (MCP) para recuperación de contexto externo
Descripción
Codex CLI v0.80: Evolución agentica del terminal
A partir de enero de 2026, Codex CLI ha completado su transición a una arquitectura Rust independiente, integrando el Model Context Protocol (MCP) para una profunda conciencia del entorno. El sistema ahora utiliza GPT-5.2-Codex, con compactación nativa de contexto para tareas de ingeniería de largo alcance 📑.
Orquestación y arquitectura de sandbox
La CLI funciona como coordinador local, proponiendo planes de ejecución multi-paso en una interfaz de usuario de terminal (TUI) en sandbox antes de aplicar cualquier cambio en el disco 📑.
- Aislamiento nativo: La ejecución segura se garantiza mediante Landlock y seccomp en Linux, y sandbox-exec en macOS, proporcionando una barrera a nivel de hardware durante pruebas automatizadas y scripts 📑.
- Integración de la API de respuestas: Utiliza el endpoint 'responses' de 2026, que soporta persistencia de sesión en el servidor y transmisión semántica de eventos para diferencias de código en tiempo real 📑.
- Habilidades de agente (agentskills.io): Implementa el estándar de habilidades multiplataforma, permitiendo a los desarrolladores compartir scripts de automatización modulares (por ejemplo, endurecimiento de CI/CD, migraciones SQL) entre entornos de equipo 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Inteligencia contextual y privacidad
Mediante el uso de MCP, Codex CLI extrae metadatos de la documentación local, tickets de Jira y esquemas de bases de datos para fundamentar su razonamiento sin transmitir datos sensibles en bruto a la nube 🧠.
- Compactación de contexto: GPT-5.2-Codex utiliza resumen recursivo de la caché KV, manteniendo la lógica de razonamiento para ventanas de contexto de más de 400K con un 30% menos de sobrecarga de tokens 📑.
- Gestión local del historial: Las transcripciones de sesión cifradas se almacenan en
~/.codex/sessions/, garantizando la recuperación del estado incluso tras fallos del terminal 📑.
Directrices de evaluación
Los responsables técnicos deben aplicar approval_mode = "manual" en config.toml para todos los repositorios cercanos a producción. Verificar que las Habilidades de Agente personalizadas estén firmadas para evitar la ejecución de lógica de automatización maliciosa. Las organizaciones que utilicen pasarelas LLM locales deben garantizar la compatibilidad con el esquema de la API de respuestas basado en eventos 📑.
Ventajas y desventajas de la herramienta
Ventajas
- Generación de comandos complejos
- Automatización de scripts
- Explicación de comandos
- Sugerencias contextuales
- Prototipado rápido
Desventajas
- Dependencia de la API
- Ingeniería de prompts requerida
- Revisión de resultados necesaria