mirror of
https://github.com/anomalyco/opencode.git
synced 2026-04-28 12:39:43 +00:00
291 lines
18 KiB
Text
291 lines
18 KiB
Text
---
|
|
title: Zen
|
|
description: Lista seleccionada de modelos proporcionada por OpenCode.
|
|
---
|
|
|
|
import config from "../../../../config.mjs"
|
|
export const console = config.console
|
|
export const email = `mailto:${config.email}`
|
|
|
|
OpenCode Zen es una lista de modelos probados y verificados proporcionada por el equipo de OpenCode.
|
|
|
|
:::note
|
|
OpenCode Zen está actualmente en beta.
|
|
:::
|
|
|
|
Zen funciona como cualquier otro proveedor en OpenCode. Inicias sesión en OpenCode Zen y obtienes
|
|
tu API key. Es **completamente opcional** y no necesitas usarlo para usar
|
|
OpenCode.
|
|
|
|
---
|
|
|
|
## Contexto
|
|
|
|
Existe una gran cantidad de modelos, pero solo unos pocos de
|
|
estos modelos funcionan bien como agentes de coding. Además, la mayoría de los proveedores están
|
|
configurados de forma muy diferente; por eso obtienes un rendimiento y una calidad muy distintos.
|
|
|
|
:::tip
|
|
Probamos un grupo selecto de modelos y proveedores que funcionan bien con OpenCode.
|
|
:::
|
|
|
|
Así que, si estás usando un modelo a través de algo como OpenRouter, nunca puedes estar
|
|
seguro de si estás obteniendo la mejor versión del modelo que quieres.
|
|
|
|
Para solucionar esto, hicimos un par de cosas:
|
|
|
|
1. Probamos un grupo selecto de modelos y hablamos con sus equipos sobre cómo
|
|
ejecutarlos de la mejor manera.
|
|
2. Luego trabajamos con algunos proveedores para asegurarnos de que se estuvieran sirviendo
|
|
correctamente.
|
|
3. Por último, evaluamos la combinación de modelo/proveedor y elaboramos
|
|
una lista que creemos que vale la pena recomendar.
|
|
|
|
OpenCode Zen es un gateway de AI que te da acceso a estos modelos.
|
|
|
|
---
|
|
|
|
## Cómo funciona
|
|
|
|
OpenCode Zen funciona como cualquier otro proveedor en OpenCode.
|
|
|
|
1. Inicias sesión en **<a href={console}>OpenCode Zen</a>**, agregas tus datos de facturación
|
|
y copias tu API key.
|
|
2. Ejecutas el comando `/connect` en la TUI, seleccionas OpenCode Zen y pegas tu API key.
|
|
3. Ejecuta `/models` en la TUI para ver la lista de modelos que recomendamos.
|
|
|
|
Se te cobra por solicitud y puedes agregar créditos a tu cuenta.
|
|
|
|
---
|
|
|
|
## Endpoints
|
|
|
|
También puedes acceder a nuestros modelos a través de los siguientes endpoints de API.
|
|
|
|
| Modelo | Model ID | Endpoint | AI SDK Package |
|
|
| --------------------- | --------------------- | -------------------------------------------------- | --------------------------- |
|
|
| GPT 5.5 | gpt-5.5 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.5 Pro | gpt-5.5-pro | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.4 | gpt-5.4 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.4 Pro | gpt-5.4-pro | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.4 Mini | gpt-5.4-mini | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.4 Nano | gpt-5.4-nano | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.3 Codex | gpt-5.3-codex | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.3 Codex Spark | gpt-5.3-codex-spark | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.2 | gpt-5.2 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.2 Codex | gpt-5.2-codex | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.1 | gpt-5.1 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.1 Codex | gpt-5.1-codex | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.1 Codex Max | gpt-5.1-codex-max | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5 | gpt-5 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5 Codex | gpt-5-codex | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| GPT 5 Nano | gpt-5-nano | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` |
|
|
| Claude Opus 4.7 | claude-opus-4-7 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Opus 4.6 | claude-opus-4-6 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Opus 4.5 | claude-opus-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Opus 4.1 | claude-opus-4-1 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Sonnet 4.6 | claude-sonnet-4-6 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Sonnet 4.5 | claude-sonnet-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Sonnet 4 | claude-sonnet-4 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Haiku 4.5 | claude-haiku-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Claude Haiku 3.5 | claude-3-5-haiku | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Gemini 3.1 Pro | gemini-3.1-pro | `https://opencode.ai/zen/v1/models/gemini-3.1-pro` | `@ai-sdk/google` |
|
|
| Gemini 3 Flash | gemini-3-flash | `https://opencode.ai/zen/v1/models/gemini-3-flash` | `@ai-sdk/google` |
|
|
| Qwen3.6 Plus | qwen3.6-plus | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Qwen3.5 Plus | qwen3.5-plus | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiniMax M2.5 Free | minimax-m2.5-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| GLM 5.1 | glm-5.1 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| GLM 5 | glm-5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Kimi K2.6 | kimi-k2.6 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Big Pickle | big-pickle | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Ling 2.6 Flash | ling-2.6-flash | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Hy3 Preview Free | hy3-preview-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Nemotron 3 Super Free | nemotron-3-super-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
|
|
El [identificador del modelo](/docs/config/#models) en tu configuración de OpenCode
|
|
usa el formato `opencode/<model-id>`. Por ejemplo, para GPT 5.5, usarías
|
|
`opencode/gpt-5.5` en tu configuración.
|
|
|
|
---
|
|
|
|
### Modelos
|
|
|
|
Puedes obtener la lista completa de modelos disponibles y sus metadatos desde:
|
|
|
|
```
|
|
https://opencode.ai/zen/v1/models
|
|
```
|
|
|
|
---
|
|
|
|
## Precios
|
|
|
|
Admitimos un modelo de pago por uso. A continuación se muestran los precios **por 1M tokens**.
|
|
|
|
| Modelo | Entrada | Salida | Lectura en caché | Escritura en caché |
|
|
| --------------------------------- | ------- | ------- | ---------------- | ------------------ |
|
|
| Big Pickle | Free | Free | Free | - |
|
|
| MiniMax M2.5 Free | Free | Free | Free | - |
|
|
| Ling 2.6 Flash Free | Free | Free | Free | - |
|
|
| Hy3 Preview Free | Free | Free | Free | - |
|
|
| Nemotron 3 Super Free | Free | Free | Free | - |
|
|
| MiniMax M2.7 | $0.30 | $1.20 | $0.06 | $0.375 |
|
|
| MiniMax M2.5 | $0.30 | $1.20 | $0.06 | $0.375 |
|
|
| GLM 5.1 | $1.40 | $4.40 | $0.26 | - |
|
|
| GLM 5 | $1.00 | $3.20 | $0.20 | - |
|
|
| Kimi K2.5 | $0.60 | $3.00 | $0.10 | - |
|
|
| Kimi K2.6 | $0.95 | $4.00 | $0.16 | - |
|
|
| Qwen3.6 Plus | $0.50 | $3.00 | $0.05 | $0.625 |
|
|
| Qwen3.5 Plus | $0.20 | $1.20 | $0.02 | $0.25 |
|
|
| Claude Opus 4.7 | $5.00 | $25.00 | $0.50 | $6.25 |
|
|
| Claude Opus 4.6 | $5.00 | $25.00 | $0.50 | $6.25 |
|
|
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
|
|
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
|
|
| Claude Sonnet 4.6 | $3.00 | $15.00 | $0.30 | $3.75 |
|
|
| Claude Sonnet 4.5 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
|
|
| Claude Sonnet 4.5 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
|
|
| Claude Sonnet 4 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
|
|
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
|
|
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
|
|
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
|
|
| Gemini 3.1 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0.20 | - |
|
|
| Gemini 3.1 Pro (> 200K tokens) | $4.00 | $18.00 | $0.40 | - |
|
|
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
|
|
| GPT 5.4 | $2.50 | $15.00 | $0.25 | - |
|
|
| GPT 5.4 Pro | $30.00 | $180.00 | $30.00 | - |
|
|
| GPT 5.4 Mini | $0.75 | $4.50 | $0.075 | - |
|
|
| GPT 5.4 Nano | $0.20 | $1.25 | $0.02 | - |
|
|
| GPT 5.3 Codex Spark | $1.75 | $14.00 | $0.175 | - |
|
|
| GPT 5.3 Codex | $1.75 | $14.00 | $0.175 | - |
|
|
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
|
|
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
|
|
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
|
|
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
|
|
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
|
|
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
|
|
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
|
|
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
|
|
| GPT 5 Nano | Free | Free | Free | - |
|
|
|
|
Puede que notes _Claude Haiku 3.5_ en tu historial de uso. Este es un [modelo de bajo costo](/docs/config/#models) que se usa para generar los títulos de tus sesiones.
|
|
|
|
:::note
|
|
Las comisiones de tarjeta de crédito se trasladan al costo (4.4% + $0.30 por transacción); no cobramos nada más allá de eso.
|
|
:::
|
|
|
|
Los modelos gratuitos:
|
|
|
|
- MiniMax M2.5 Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
|
|
- Ling 2.6 Flash Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
|
|
- Hy3 Preview Flash Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
|
|
- Nemotron 3 Super Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
|
|
- Big Pickle es un modelo stealth que es gratuito en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
|
|
|
|
<a href={email}>Contáctanos</a> si tienes alguna pregunta.
|
|
|
|
---
|
|
|
|
### Recarga automática
|
|
|
|
Si tu saldo baja de $5, Zen recargará automáticamente $20.
|
|
|
|
Puedes cambiar el monto de la recarga automática. También puedes desactivar por completo la recarga automática.
|
|
|
|
---
|
|
|
|
### Límites mensuales
|
|
|
|
También puedes establecer un límite de uso mensual para todo el workspace y para cada
|
|
miembro de tu equipo.
|
|
|
|
Por ejemplo, supongamos que estableces un límite de uso mensual de $20. Zen no usará
|
|
más de $20 en un mes. Pero si tienes habilitada la recarga automática, Zen podría terminar
|
|
cobrándote más de $20 si tu saldo baja de $5.
|
|
|
|
---
|
|
|
|
### Modelos obsoletos
|
|
|
|
| Modelo | Fecha de retirada |
|
|
| ---------------- | ----------------- |
|
|
| MiniMax M2.1 | March 15, 2026 |
|
|
| GLM 4.7 | March 15, 2026 |
|
|
| GLM 4.6 | March 15, 2026 |
|
|
| Gemini 3 Pro | March 9, 2026 |
|
|
| Kimi K2 Thinking | March 6, 2026 |
|
|
| Kimi K2 | March 6, 2026 |
|
|
| Qwen3 Coder 480B | Feb 6, 2026 |
|
|
|
|
---
|
|
|
|
## Privacidad
|
|
|
|
Todos nuestros modelos están alojados en US. Nuestros proveedores siguen una política de zero-retention y no usan tus datos para el entrenamiento de modelos, con las siguientes excepciones:
|
|
|
|
- Big Pickle: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
|
|
- MiniMax M2.5 Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
|
|
- Ling 2.6 Flash Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
|
|
- Hy3 Preview Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
|
|
- Nemotron 3 Super Free (endpoints gratuitos de NVIDIA): Se ofrece bajo los [NVIDIA API Trial Terms of Service](https://assets.ngc.nvidia.com/products/api-catalog/legal/NVIDIA%20API%20Trial%20Terms%20of%20Service.pdf). Solo para uso de prueba, no para producción ni datos sensibles. NVIDIA registra los prompts y las salidas para mejorar sus modelos y servicios. No envíes datos personales ni confidenciales.
|
|
- OpenAI APIs: Las solicitudes se conservan durante 30 días de acuerdo con [OpenAI's Data Policies](https://platform.openai.com/docs/guides/your-data).
|
|
- Anthropic APIs: Las solicitudes se conservan durante 30 días de acuerdo con [Anthropic's Data Policies](https://docs.anthropic.com/en/docs/claude-code/data-usage).
|
|
|
|
---
|
|
|
|
## Para equipos
|
|
|
|
Zen también funciona muy bien para equipos. Puedes invitar a compañeros de equipo, asignar roles, seleccionar
|
|
los modelos que usa tu equipo y más.
|
|
|
|
:::note
|
|
Los workspaces son actualmente gratuitos para equipos como parte de la beta.
|
|
:::
|
|
|
|
Gestionar tu workspace es actualmente gratuito para equipos como parte de la beta. Compartiremos
|
|
más detalles sobre los precios pronto.
|
|
|
|
---
|
|
|
|
### Roles
|
|
|
|
Puedes invitar a compañeros de equipo a tu workspace y asignar roles:
|
|
|
|
- **Admin**: Gestiona modelos, miembros, API keys y facturación
|
|
- **Member**: Gestiona solo sus propias API keys
|
|
|
|
Los admins también pueden establecer límites mensuales de gasto para cada miembro para mantener los costos bajo control.
|
|
|
|
---
|
|
|
|
### Acceso a modelos
|
|
|
|
Los admins pueden habilitar o deshabilitar modelos específicos para el workspace. Las solicitudes realizadas a un modelo deshabilitado devolverán un error.
|
|
|
|
Esto resulta útil en los casos en los que quieres deshabilitar el uso de un modelo que
|
|
recopila datos.
|
|
|
|
---
|
|
|
|
### Bring your own key
|
|
|
|
Puedes usar tus propias API keys de OpenAI o Anthropic mientras sigues accediendo a otros modelos en Zen.
|
|
|
|
Cuando usas tus propias keys, los tokens te los factura directamente el proveedor, no Zen.
|
|
|
|
Por ejemplo, tu organización podría ya tener una key para OpenAI o Anthropic
|
|
y quieres usarla en lugar de la que proporciona Zen.
|
|
|
|
---
|
|
|
|
## Objetivos
|
|
|
|
Creamos OpenCode Zen para:
|
|
|
|
1. **Benchmark** de los mejores modelos/proveedores para agentes de coding.
|
|
2. Tener acceso a las opciones de **más alta calidad** y no degradar el rendimiento ni enrutar a proveedores más baratos.
|
|
3. Trasladar cualquier **bajada de precio** vendiendo al costo; así que el único margen es para cubrir nuestras comisiones de procesamiento.
|
|
4. Que no haya **lock-in** al permitirte usarlo con cualquier otro agente de coding. Y permitirte siempre usar también cualquier otro proveedor con OpenCode.
|