mirror of
https://github.com/anomalyco/opencode.git
synced 2026-04-28 12:39:43 +00:00
Some checks are pending
deploy / deploy (push) Waiting to run
docs-locale-sync / sync-locales (push) Waiting to run
generate / generate (push) Waiting to run
nix-eval / nix-eval (push) Waiting to run
nix-hashes / compute-hash (blacksmith-4vcpu-ubuntu-2404-arm, aarch64-linux) (push) Waiting to run
nix-hashes / compute-hash (blacksmith-4vcpu-ubuntu-2404, x86_64-linux) (push) Waiting to run
nix-hashes / compute-hash (macos-15-intel, x86_64-darwin) (push) Waiting to run
nix-hashes / compute-hash (macos-latest, aarch64-darwin) (push) Waiting to run
nix-hashes / update-hashes (push) Blocked by required conditions
publish / build-electron (map[host:windows-2025 platform_flag:--win --arm64 target:aarch64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-electron (map[bun_install_flags:--os=darwin --cpu=x64 host:macos-26-intel platform_flag:--mac --x64 target:x86_64-apple-darwin]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-ubuntu-2404 platform_flag:--linux target:aarch64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-ubuntu-2404 platform_flag:--linux target:x86_64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-windows-2025 platform_flag:--win target:x86_64-pc-windows-msvc]) (push) Blocked by required conditions
publish / version (push) Waiting to run
publish / build-cli (push) Blocked by required conditions
publish / sign-cli-windows (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-4vcpu-ubuntu-2404 target:x86_64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-4vcpu-windows-2025 target:x86_64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-8vcpu-ubuntu-2404-arm target:aarch64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-tauri (map[host:macos-latest target:aarch64-apple-darwin]) (push) Blocked by required conditions
publish / build-tauri (map[host:macos-latest target:x86_64-apple-darwin]) (push) Blocked by required conditions
publish / build-tauri (map[host:windows-2025 target:aarch64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-electron (map[bun_install_flags:--os=darwin --cpu=arm64 host:macos-26 platform_flag:--mac --arm64 target:aarch64-apple-darwin]) (push) Blocked by required conditions
publish / publish (push) Blocked by required conditions
storybook / storybook build (push) Waiting to run
test / unit (linux) (push) Waiting to run
test / unit (windows) (push) Waiting to run
test / e2e (linux) (push) Waiting to run
test / e2e (windows) (push) Waiting to run
typecheck / typecheck (push) Waiting to run
194 lines
9.2 KiB
Text
194 lines
9.2 KiB
Text
---
|
||
title: Go
|
||
description: Abbonamento a basso costo per modelli di programmazione aperti.
|
||
---
|
||
|
||
import config from "../../../../config.mjs"
|
||
export const console = config.console
|
||
export const email = `mailto:${config.email}`
|
||
|
||
OpenCode Go è un abbonamento a basso costo — **5 $ per il primo mese**, poi **10 $/mese** — che ti offre un accesso affidabile ai popolari modelli di programmazione aperti.
|
||
|
||
:::note
|
||
OpenCode Go è attualmente in beta.
|
||
:::
|
||
|
||
Go funziona come qualsiasi altro provider in OpenCode. Ti abboni a OpenCode Go e
|
||
ottieni la tua chiave API. È **completamente facoltativo** e non hai bisogno di usarlo per
|
||
utilizzare OpenCode.
|
||
|
||
È progettato principalmente per gli utenti internazionali, con modelli ospitati negli Stati Uniti, nell'Unione Europea e a Singapore per un accesso globale stabile.
|
||
|
||
---
|
||
|
||
## Contesto
|
||
|
||
I modelli aperti sono diventati davvero validi. Ora raggiungono prestazioni vicine a quelle dei modelli proprietari per le attività di programmazione. E poiché molti provider possono fornirli in modo competitivo, di solito sono molto più economici.
|
||
|
||
Tuttavia, ottenere un accesso affidabile e a bassa latenza può essere difficile. I provider
|
||
variano per qualità e disponibilità.
|
||
|
||
:::tip
|
||
Abbiamo testato un gruppo selezionato di modelli e provider che funzionano bene con OpenCode.
|
||
:::
|
||
|
||
Per risolvere questo problema, abbiamo fatto un paio di cose:
|
||
|
||
1. Abbiamo testato un gruppo selezionato di modelli aperti e parlato con i loro team su come
|
||
eseguirli al meglio.
|
||
2. Abbiamo quindi collaborato con alcuni provider per assicurarci che venissero forniti
|
||
correttamente.
|
||
3. Infine, abbiamo eseguito dei benchmark sulla combinazione modello/provider e abbiamo stilato
|
||
un elenco che ci sentiamo di raccomandare.
|
||
|
||
OpenCode Go ti dà accesso a questi modelli a **5 $ per il primo mese**, poi a **10 $/mese**.
|
||
|
||
---
|
||
|
||
## Come funziona
|
||
|
||
OpenCode Go funziona come qualsiasi altro provider in OpenCode.
|
||
|
||
1. Accedi a **<a href={console}>OpenCode Zen</a>**, ti abboni a Go e
|
||
copi la tua chiave API.
|
||
2. Esegui il comando `/connect` nella TUI, selezioni `OpenCode Go` e incolli
|
||
la tua chiave API.
|
||
3. Esegui `/models` nella TUI per vedere l'elenco dei modelli disponibili tramite Go.
|
||
|
||
:::note
|
||
Solo un membro per workspace può abbonarsi a OpenCode Go.
|
||
:::
|
||
|
||
L'elenco attuale dei modelli include:
|
||
|
||
- **GLM-5**
|
||
- **GLM-5.1**
|
||
- **Kimi K2.5**
|
||
- **Kimi K2.6**
|
||
- **MiMo-V2-Pro**
|
||
- **MiMo-V2-Omni**
|
||
- **MiMo-V2.5-Pro**
|
||
- **MiMo-V2.5**
|
||
- **MiniMax M2.5**
|
||
- **Qwen3.5 Plus**
|
||
- **Qwen3.6 Plus**
|
||
- **MiniMax M2.7**
|
||
- **DeepSeek V4 Pro**
|
||
- **DeepSeek V4 Flash**
|
||
|
||
L'elenco dei modelli potrebbe cambiare man mano che ne testiamo e aggiungiamo di nuovi.
|
||
|
||
---
|
||
|
||
## Limiti di utilizzo
|
||
|
||
OpenCode Go include i seguenti limiti:
|
||
|
||
- **Limite di 5 ore** — 12 $ di utilizzo
|
||
- **Limite settimanale** — 30 $ di utilizzo
|
||
- **Limite mensile** — 60 $ di utilizzo
|
||
|
||
I limiti sono definiti in valore in dollari. Questo significa che il conteggio effettivo delle richieste dipende dal modello utilizzato. Modelli più economici come MiniMax M2.5 consentono più richieste, mentre modelli più costosi come GLM-5.1 ne consentono di meno.
|
||
|
||
La tabella seguente fornisce una stima del conteggio delle richieste in base a pattern di utilizzo tipici di Go:
|
||
|
||
| Model | richieste ogni 5 ore | richieste a settimana | richieste al mese |
|
||
| ------------------ | -------------------- | --------------------- | ----------------- |
|
||
| GLM-5.1 | 880 | 2,150 | 4,300 |
|
||
| GLM-5 | 1,150 | 2,880 | 5,750 |
|
||
| Kimi K2.5 | 1,850 | 4,630 | 9,250 |
|
||
| Kimi K2.6 | 1,150 | 2,880 | 5,750 |
|
||
| MiMo-V2-Pro | 1,290 | 3,225 | 6,450 |
|
||
| MiMo-V2-Omni | 2,150 | 5,450 | 10,900 |
|
||
| MiMo-V2.5-Pro | 1,290 | 3,225 | 6,450 |
|
||
| MiMo-V2.5 (≤ 256K) | 2,150 | 5,450 | 10,900 |
|
||
| MiniMax M2.7 | 3,400 | 8,500 | 17,000 |
|
||
| MiniMax M2.5 | 6,300 | 15,900 | 31,800 |
|
||
| Qwen3.6 Plus | 3,300 | 8,200 | 16,300 |
|
||
| Qwen3.5 Plus | 10,200 | 25,200 | 50,500 |
|
||
| DeepSeek V4 Pro | 3,450 | 8,550 | 17,150 |
|
||
| DeepSeek V4 Flash | 31,650 | 79,050 | 158,150 |
|
||
|
||
Le stime si basano sui pattern medi di richieste osservati:
|
||
|
||
- GLM-5/5.1 — 700 di input, 52.000 in cache, 150 token di output per richiesta
|
||
- Kimi K2.5/K2.6 — 870 di input, 55.000 in cache, 200 token di output per richiesta
|
||
- DeepSeek V4 Pro — 750 di input, 82.000 in cache, 290 token di output per richiesta
|
||
- DeepSeek V4 Flash — 790 di input, 68.000 in cache, 280 token di output per richiesta
|
||
- MiniMax M2.7/M2.5 — 300 di input, 55.000 in cache, 125 token di output per richiesta
|
||
- Qwen3.5 Plus — 410 di input, 47.000 in cache, 140 token di output per richiesta
|
||
- Qwen3.6 Plus — 500 di input, 57.000 in cache, 190 token di output per richiesta
|
||
- MiMo-V2-Pro — 350 di input, 41.000 in cache, 250 token di output per richiesta
|
||
- MiMo-V2-Omni — 1000 di input, 60.000 in cache, 140 token di output per richiesta
|
||
- MiMo-V2.5-Pro — 350 di input, 41.000 in cache, 250 token di output per richiesta
|
||
- MiMo-V2.5 — 1000 di input, 60.000 in cache, 140 token di output per richiesta
|
||
|
||
Puoi monitorare il tuo utilizzo attuale nella **<a href={console}>console</a>**.
|
||
|
||
:::tip
|
||
Se raggiungi il limite di utilizzo, puoi continuare a usare i modelli gratuiti.
|
||
:::
|
||
|
||
I limiti di utilizzo potrebbero cambiare man mano che raccogliamo dati sull'utilizzo iniziale e feedback.
|
||
|
||
---
|
||
|
||
### Utilizzo oltre i limiti
|
||
|
||
Se hai anche dei crediti nel tuo saldo Zen, puoi abilitare l'opzione **Use balance**
|
||
nella console. Quando è abilitata, Go ripiegherà sul tuo saldo Zen
|
||
dopo che avrai raggiunto i limiti di utilizzo invece di bloccare le richieste.
|
||
|
||
---
|
||
|
||
## Endpoint
|
||
|
||
Puoi anche accedere ai modelli Go tramite i seguenti endpoint API.
|
||
|
||
| Modello | ID Modello | Endpoint | Pacchetto AI SDK |
|
||
| ----------------- | ----------------- | ------------------------------------------------ | --------------------------- |
|
||
| GLM-5.1 | glm-5.1 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| GLM-5 | glm-5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| Kimi K2.6 | kimi-k2.6 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| DeepSeek V4 Pro | deepseek-v4-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| DeepSeek V4 Flash | deepseek-v4-flash | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiMo-V2-Pro | mimo-v2-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiMo-V2-Omni | mimo-v2-omni | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiMo-V2.5-Pro | mimo-v2.5-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiMo-V2.5 | mimo-v2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||
| Qwen3.6 Plus | qwen3.6-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
||
| Qwen3.5 Plus | qwen3.5-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
||
|
||
Il [model id](/docs/config/#models) nella tua OpenCode config
|
||
utilizza il formato `opencode-go/<model-id>`. Ad esempio, per Kimi K2.6, useresti
|
||
`opencode-go/kimi-k2.6` nella tua configurazione.
|
||
|
||
---
|
||
|
||
### Modelli
|
||
|
||
Puoi recuperare l'elenco completo dei modelli disponibili e i relativi metadati da:
|
||
|
||
```
|
||
https://opencode.ai/zen/go/v1/models
|
||
```
|
||
|
||
---
|
||
|
||
## Privacy
|
||
|
||
Il piano è pensato principalmente per gli utenti internazionali, con modelli ospitati negli US, nell’EU e a Singapore per un accesso globale stabile. I nostri provider seguono una politica di zero-retention e non utilizzano i tuoi dati per l’addestramento dei modelli.
|
||
|
||
---
|
||
|
||
## Obiettivi
|
||
|
||
Abbiamo creato OpenCode Go per:
|
||
|
||
1. Rendere la programmazione con l'IA **accessibile** a più persone tramite un abbonamento a basso costo.
|
||
2. Fornire un accesso **affidabile** ai migliori modelli di programmazione aperti.
|
||
3. Curare modelli che sono **testati e valutati tramite benchmark** per l'uso con gli agenti di programmazione.
|
||
4. Non avere **nessun lock-in**, permettendoti di utilizzare anche qualsiasi altro provider con OpenCode.
|