mirror of
https://github.com/anomalyco/opencode.git
synced 2026-04-28 20:49:55 +00:00
doc: qwen3.5 & 3.6
This commit is contained in:
parent
8d89c3417b
commit
6a7ca45ae6
36 changed files with 277 additions and 164 deletions
|
|
@ -67,6 +67,8 @@ L'elenco attuale dei modelli include:
|
|||
- **MiMo-V2-Pro**
|
||||
- **MiMo-V2-Omni**
|
||||
- **MiniMax M2.5**
|
||||
- **Qwen3.5 Plus**
|
||||
- **Qwen3.6 Plus**
|
||||
- **MiniMax M2.7**
|
||||
|
||||
L'elenco dei modelli potrebbe cambiare man mano che ne testiamo e aggiungiamo di nuovi.
|
||||
|
|
@ -85,17 +87,19 @@ I limiti sono definiti in valore in dollari. Questo significa che il conteggio e
|
|||
|
||||
La tabella seguente fornisce una stima del conteggio delle richieste in base a pattern di utilizzo tipici di Go:
|
||||
|
||||
| | GLM-5.1 | GLM-5 | Kimi K2.5 | MiMo-V2-Pro | MiMo-V2-Omni | MiniMax M2.7 | MiniMax M2.5 |
|
||||
| --------------------- | ------- | ----- | --------- | ----------- | ------------ | ------------ | ------------ |
|
||||
| richieste ogni 5 ore | 880 | 1.150 | 1.850 | 1.290 | 2.150 | 14.000 | 20.000 |
|
||||
| richieste a settimana | 2.150 | 2.880 | 4.630 | 3.225 | 5.450 | 35.000 | 50.000 |
|
||||
| richieste al mese | 4.300 | 5.750 | 9.250 | 6.450 | 10.900 | 70.000 | 100.000 |
|
||||
| | GLM-5.1 | GLM-5 | Kimi K2.5 | MiMo-V2-Pro | MiMo-V2-Omni | MiniMax M2.7 | MiniMax M2.5 | Qwen3.6 Plus | Qwen3.5 Plus |
|
||||
| --------------------- | ------- | ----- | --------- | ----------- | ------------ | ------------ | ------------ | ------- | ------- |
|
||||
| richieste ogni 5 ore | 880 | 1.150 | 1.850 | 1.290 | 2.150 | 14.000 | 20.000 | 3,300 | 10,200 |
|
||||
| richieste a settimana | 2.150 | 2.880 | 4.630 | 3.225 | 5.450 | 35.000 | 50.000 | 8,200 | 25,200 |
|
||||
| richieste al mese | 4.300 | 5.750 | 9.250 | 6.450 | 10.900 | 70.000 | 100.000 | 20,500 | 50,500 |
|
||||
|
||||
Le stime si basano sui pattern medi di richieste osservati:
|
||||
|
||||
- GLM-5/5.1 — 700 di input, 52.000 in cache, 150 token di output per richiesta
|
||||
- Kimi K2.5 — 870 di input, 55.000 in cache, 200 token di output per richiesta
|
||||
- MiniMax M2.7/M2.5 — 300 di input, 55.000 in cache, 125 token di output per richiesta
|
||||
- Qwen3.5 Plus — 410 input, 47,000 cached, 140 output tokens per request
|
||||
- Qwen3.6 Plus — 500 input, 57,000 cached, 190 output tokens per request
|
||||
- MiMo-V2-Pro — 350 di input, 41.000 in cache, 250 token di output per richiesta
|
||||
- MiMo-V2-Omni — 1000 di input, 60.000 in cache, 140 token di output per richiesta
|
||||
|
||||
|
|
@ -130,6 +134,8 @@ Puoi anche accedere ai modelli Go tramite i seguenti endpoint API.
|
|||
| MiMo-V2-Omni | mimo-v2-omni | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||||
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||||
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||||
| Qwen3.6 Plus | qwen3.6-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
||||
| Qwen3.5 Plus | qwen3.5-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
||||
|
||||
Il [model id](/docs/config/#models) nella tua OpenCode config
|
||||
utilizza il formato `opencode-go/<model-id>`. Ad esempio, per Kimi K2.5, useresti
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue