POLITICA DE COOKIES

Q2BSTUDIO.COM utiliza cookies técnicas, analíticas, de sesión y de publicidad con la finalidad de prestar un mejor servicio. No obstante, necesitamos su consentimiento explícito para poder utilizarlas. Así mismo puede cambiar la configuración de las cookies u obtener más información aquí .

Codex CLI: Ejecutando GPT-OSS y Modelos Locales de Codificación con Ollama, LM Studio y MLX

Codex CLI: Guía para ejecutar GPT-OSS y modelos locales de codificación con Ollama, LM Studio y MLX

Publicado el 02/09/2025

El agentic coding evoluciona a gran velocidad y está transformando cómo los desarrolladores colaboran con la IA para generar código. En lugar de depender de IDEs pesados, muchos vuelven a interfaces de línea de comandos ligeras y flexibles. Desde la llegada de Claude Code hemos visto una ola de nuevos CLIs de código como Gemini CLI, Qwen Code y otros, pero casi todos comparten una gran limitación: están atados a un único proveedor de modelos.

Codex CLI rompe ese patrón. Es el primer CLI verdaderamente universal, capaz de ejecutar cualquier modelo en la nube u open source, local o remoto, mediante una única interfaz unificada. Se acabó alternar entre CLIs o cambiar de contexto mental según el modelo. Con Codex CLI configuras proveedores una vez y alternas entre ellos con facilidad usando providers, perfiles o servidores MCP.

Es una etapa temprana, pero abre un abanico de posibilidades para el agentic coding en el corto plazo.

Codex CLI es la respuesta de OpenAI a la ola de asistentes de código tipo Claude Code y Gemini CLI. La idea es un único agente para todo tu código, y se nota en la experiencia. Con una única instalación obtienes un CLI ligero y potente que lleva la IA de programación directamente al terminal.

Instalación con Node.js

Comando: npm i -g @openai/codex

Instalación en macOS con Homebrew

Comando: brew install codex

Uso inicial

Entra en el directorio del proyecto y lanza

Comando: codex

Desde ahí Codex CLI se integra de forma natural en tu flujo de trabajo sin depender de un IDE o del navegador.

Modelos en la nube vs modelos open source

OpenAI ha publicado modelos open source como gpt-oss-20b y gpt-oss-120b, además de sus modelos cloud de última generación.

Por defecto, Codex CLI se conecta a modelos en la nube como GPT de última generación. Son ideales para prototipado rápido, pero conllevan costes de API, límites de uso y necesidad de conexión permanente.

La novedad real es que Codex también soporta modelos open source autogestionados. Con la opción --oss o un perfil configurado puedes ejecutar inferencia local con proveedores como Ollama, LM Studio o MLX.

Ejemplo básico

Comando: codex --oss

Por defecto, comprobará si tienes gpt-oss-20b instalado en Ollama. Para especificar otro modelo

Comando: codex --oss -m gpt-oss:120b

Ventajas de ejecutar modelos locales

- Ejecutar LLMs potentes en tu equipo sin enviar datos a servidores externos

- Evitar el vendor lock in alternando proveedores o modelos cuando lo necesites

- Optimizar privacidad, velocidad y coste manteniendo la flexibilidad del flujo

En resumen, Codex te da libertad para elegir entre modelos cloud punteros y modelos OSS locales desde el mismo CLI.

Configuración de Codex con config.toml

Al instalar Codex CLI se crea el directorio ~/.codex en tu sistema. Si no existe el archivo ~/.codex/config.toml créalo manualmente.

En ese archivo defines proveedores y perfiles para distintos modelos. Algunas opciones aún no están totalmente documentadas, pero puedes explorar el código fuente de Codex para más detalles. También es posible configurar servidores MCP en el mismo archivo.

Configuración para Ollama

Asumiendo que ya descargaste un modelo y tienes Ollama en ejecución, añade a ~/.codex/config.toml

[model_providers.ollama]

name = Ollama

base_url = https://localhost:11434/v1

[profiles.gpt-oss-120b-ollama]

model_provider = ollama

model = gpt-oss:120b

Lanza Codex con el perfil

Comando: codex --oss --profile gpt-oss-120b-ollama

Configuración para LM Studio

En LM Studio carga un modelo y levanta el servidor en el puerto 1234 por defecto. Puedes usar la interfaz o el CLI

Comando: lms ls

Comando: lms load qwen/qwen3-coder-30b

Comando: lms server start

Config para gpt-oss-120b

[model_providers.lms]

name = LM Studio

base_url = https://localhost:1234/v1

[profiles.gpt-oss-120b-lms]

model_provider = lms

model = gpt-oss:120b

Config para qwen3-coder-30b

[model_providers.lm_studio]

name = LM Studio

base_url = https://localhost:1234/v1

[profiles.qwen3-coder-30b-lms]

model_provider = lm_studio

model = qwen/qwen3-coder-30b

Lanzar perfiles

Comando: codex --profile gpt-oss-120b-lms

Comando: codex --profile qwen3-coder-30b-lms

Configuración para MLX

En Apple Silicon puedes usar MLX para una inferencia más rápida. Instala el paquete

Comando: pip install mlx-lm

Inicia un servidor local

Comando: mlx_lm.server --model SuperagenticAI/gpt-oss-20b-8bit-mlx --port 8888

Actualiza tu configuración en ~/.codex/config.toml

[model_providers.mlx]

name = MLX LM

base_url = https://localhost:8888/v1

[profiles.gpt-oss-20b-8bit-mlx]

model_provider = mlx

model = SuperagenticAI/gpt-oss-20b-8bit-mlx

Ejecuta con el perfil

Comando: codex --profile gpt-oss-20b-8bit-mlx

Demo en video Ver demostración

Context length

Con modelos locales, el tamaño de contexto puede ser un reto en proyectos grandes y conviene ajustarlo

- Ollama usa el comando interno set parameter num_ctx

- LM Studio pasa la bandera --context-length al comando lms load

- MLX ajusta parámetros al lanzar el modelo o el servidor

Por qué ejecutar modelos locales

- Privacidad tu código nunca sale de tu máquina

- Control de costes sin facturas de API en tareas largas

- Flexibilidad cambia de modelo sin esperar soporte de API

- Resiliencia funciona sin conexión o en entornos restringidos

Combinando Codex CLI con Ollama, LM Studio y MLX obtienes lo mejor de ambos mundos una experiencia unificada y la libertad de elegir entre inferencia cloud y local.

Desde Q2BSTUDIO impulsamos a las organizaciones con aplicaciones a medida y software a medida, integrando inteligencia artificial y agentes IA en los flujos de desarrollo y en la automatización de procesos. Somos especialistas en ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio y power bi, ofreciendo ia para empresas con foco en escalabilidad, rendimiento y privacidad. Si buscas potenciar tus productos con IA te invitamos a conocer nuestros servicios de inteligencia artificial, y si necesitas un partner para construir plataformas robustas multiplataforma descubre nuestro enfoque de desarrollo de software a medida alineado con tus objetivos de negocio.

Conclusión Codex CLI marca un cambio en la interacción con modelos de código asistido, permitiendo gestionar desde un solo CLI tanto APIs cloud de OpenAI como modelos OSS de vanguardia en local. Si te importa la flexibilidad, la privacidad y el control de costes, merece la pena configurarlo hoy mismo con tus proveedores locales favoritos.

Fin del artículo, inicio de la diversión
Construyendo software juntos

Dando vida a tus ideas desde 2008

Diseñamos aplicaciones móviles y de escritorio innovadoras que cumplen con tus requisitos específicos y mejoran la eficiencia operativa.
Más info
Cuéntanos tu visión
Sea cual sea el alcance, podemos convertir tu idea en realidad. Envíanosla y charlemos sobre tu proyecto o una colaboración futura.
Contáctanos
artículos destacados
Live Chat
Enviado correctamente.

Gracias por confiar en Q2BStudio