El agentic coding evoluciona a gran velocidad y está transformando cómo los desarrolladores colaboran con la IA para generar código. En lugar de depender de IDEs pesados, muchos vuelven a interfaces de línea de comandos ligeras y flexibles. Desde la llegada de Claude Code hemos visto una ola de nuevos CLIs de código como Gemini CLI, Qwen Code y otros, pero casi todos comparten una gran limitación: están atados a un único proveedor de modelos.
Codex CLI rompe ese patrón. Es el primer CLI verdaderamente universal, capaz de ejecutar cualquier modelo en la nube u open source, local o remoto, mediante una única interfaz unificada. Se acabó alternar entre CLIs o cambiar de contexto mental según el modelo. Con Codex CLI configuras proveedores una vez y alternas entre ellos con facilidad usando providers, perfiles o servidores MCP.
Es una etapa temprana, pero abre un abanico de posibilidades para el agentic coding en el corto plazo.
Codex CLI es la respuesta de OpenAI a la ola de asistentes de código tipo Claude Code y Gemini CLI. La idea es un único agente para todo tu código, y se nota en la experiencia. Con una única instalación obtienes un CLI ligero y potente que lleva la IA de programación directamente al terminal.
Instalación con Node.js
Comando: npm i -g @openai/codex
Instalación en macOS con Homebrew
Comando: brew install codex
Uso inicial
Entra en el directorio del proyecto y lanza
Comando: codex
Desde ahí Codex CLI se integra de forma natural en tu flujo de trabajo sin depender de un IDE o del navegador.
Modelos en la nube vs modelos open source
OpenAI ha publicado modelos open source como gpt-oss-20b y gpt-oss-120b, además de sus modelos cloud de última generación.
Por defecto, Codex CLI se conecta a modelos en la nube como GPT de última generación. Son ideales para prototipado rápido, pero conllevan costes de API, límites de uso y necesidad de conexión permanente.
La novedad real es que Codex también soporta modelos open source autogestionados. Con la opción --oss o un perfil configurado puedes ejecutar inferencia local con proveedores como Ollama, LM Studio o MLX.
Ejemplo básico
Comando: codex --oss
Por defecto, comprobará si tienes gpt-oss-20b instalado en Ollama. Para especificar otro modelo
Comando: codex --oss -m gpt-oss:120b
Ventajas de ejecutar modelos locales
- Ejecutar LLMs potentes en tu equipo sin enviar datos a servidores externos
- Evitar el vendor lock in alternando proveedores o modelos cuando lo necesites
- Optimizar privacidad, velocidad y coste manteniendo la flexibilidad del flujo
En resumen, Codex te da libertad para elegir entre modelos cloud punteros y modelos OSS locales desde el mismo CLI.
Configuración de Codex con config.toml
Al instalar Codex CLI se crea el directorio ~/.codex en tu sistema. Si no existe el archivo ~/.codex/config.toml créalo manualmente.
En ese archivo defines proveedores y perfiles para distintos modelos. Algunas opciones aún no están totalmente documentadas, pero puedes explorar el código fuente de Codex para más detalles. También es posible configurar servidores MCP en el mismo archivo.
Configuración para Ollama
Asumiendo que ya descargaste un modelo y tienes Ollama en ejecución, añade a ~/.codex/config.toml
[model_providers.ollama]
name = Ollama
base_url = https://localhost:11434/v1
[profiles.gpt-oss-120b-ollama]
model_provider = ollama
model = gpt-oss:120b
Lanza Codex con el perfil
Comando: codex --oss --profile gpt-oss-120b-ollama
Configuración para LM Studio
En LM Studio carga un modelo y levanta el servidor en el puerto 1234 por defecto. Puedes usar la interfaz o el CLI
Comando: lms ls
Comando: lms load qwen/qwen3-coder-30b
Comando: lms server start
Config para gpt-oss-120b
[model_providers.lms]
name = LM Studio
base_url = https://localhost:1234/v1
[profiles.gpt-oss-120b-lms]
model_provider = lms
model = gpt-oss:120b
Config para qwen3-coder-30b
[model_providers.lm_studio]
name = LM Studio
base_url = https://localhost:1234/v1
[profiles.qwen3-coder-30b-lms]
model_provider = lm_studio
model = qwen/qwen3-coder-30b
Lanzar perfiles
Comando: codex --profile gpt-oss-120b-lms
Comando: codex --profile qwen3-coder-30b-lms
Configuración para MLX
En Apple Silicon puedes usar MLX para una inferencia más rápida. Instala el paquete
Comando: pip install mlx-lm
Inicia un servidor local
Comando: mlx_lm.server --model SuperagenticAI/gpt-oss-20b-8bit-mlx --port 8888
Actualiza tu configuración en ~/.codex/config.toml
[model_providers.mlx]
name = MLX LM
base_url = https://localhost:8888/v1
[profiles.gpt-oss-20b-8bit-mlx]
model_provider = mlx
model = SuperagenticAI/gpt-oss-20b-8bit-mlx
Ejecuta con el perfil
Comando: codex --profile gpt-oss-20b-8bit-mlx
Demo en video Ver demostración
Context length
Con modelos locales, el tamaño de contexto puede ser un reto en proyectos grandes y conviene ajustarlo
- Ollama usa el comando interno set parameter num_ctx
- LM Studio pasa la bandera --context-length al comando lms load
- MLX ajusta parámetros al lanzar el modelo o el servidor
Por qué ejecutar modelos locales
- Privacidad tu código nunca sale de tu máquina
- Control de costes sin facturas de API en tareas largas
- Flexibilidad cambia de modelo sin esperar soporte de API
- Resiliencia funciona sin conexión o en entornos restringidos
Combinando Codex CLI con Ollama, LM Studio y MLX obtienes lo mejor de ambos mundos una experiencia unificada y la libertad de elegir entre inferencia cloud y local.
Desde Q2BSTUDIO impulsamos a las organizaciones con aplicaciones a medida y software a medida, integrando inteligencia artificial y agentes IA en los flujos de desarrollo y en la automatización de procesos. Somos especialistas en ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio y power bi, ofreciendo ia para empresas con foco en escalabilidad, rendimiento y privacidad. Si buscas potenciar tus productos con IA te invitamos a conocer nuestros servicios de inteligencia artificial, y si necesitas un partner para construir plataformas robustas multiplataforma descubre nuestro enfoque de desarrollo de software a medida alineado con tus objetivos de negocio.
Conclusión Codex CLI marca un cambio en la interacción con modelos de código asistido, permitiendo gestionar desde un solo CLI tanto APIs cloud de OpenAI como modelos OSS de vanguardia en local. Si te importa la flexibilidad, la privacidad y el control de costes, merece la pena configurarlo hoy mismo con tus proveedores locales favoritos.