mirror of
https://github.com/anomalyco/opencode.git
synced 2026-04-29 21:19:48 +00:00
Some checks failed
generate / generate (push) Waiting to run
nix-eval / nix-eval (push) Waiting to run
nix-hashes / compute-hash (blacksmith-4vcpu-ubuntu-2404-arm, aarch64-linux) (push) Waiting to run
nix-hashes / compute-hash (blacksmith-4vcpu-ubuntu-2404, x86_64-linux) (push) Waiting to run
nix-hashes / compute-hash (macos-15-intel, x86_64-darwin) (push) Waiting to run
nix-hashes / compute-hash (macos-latest, aarch64-darwin) (push) Waiting to run
nix-hashes / update-hashes (push) Blocked by required conditions
publish / build-electron (map[host:windows-2025 platform_flag:--win --arm64 target:aarch64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-electron (map[bun_install_flags:--os=darwin --cpu=x64 host:macos-26-intel platform_flag:--mac --x64 target:x86_64-apple-darwin]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-ubuntu-2404 platform_flag:--linux target:aarch64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-ubuntu-2404 platform_flag:--linux target:x86_64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-electron (map[host:blacksmith-4vcpu-windows-2025 platform_flag:--win target:x86_64-pc-windows-msvc]) (push) Blocked by required conditions
publish / version (push) Waiting to run
publish / build-cli (push) Blocked by required conditions
publish / sign-cli-windows (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-4vcpu-ubuntu-2404 target:x86_64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-4vcpu-windows-2025 target:x86_64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-tauri (map[host:blacksmith-8vcpu-ubuntu-2404-arm target:aarch64-unknown-linux-gnu]) (push) Blocked by required conditions
publish / build-tauri (map[host:macos-latest target:aarch64-apple-darwin]) (push) Blocked by required conditions
publish / build-tauri (map[host:macos-latest target:x86_64-apple-darwin]) (push) Blocked by required conditions
publish / build-tauri (map[host:windows-2025 target:aarch64-pc-windows-msvc]) (push) Blocked by required conditions
publish / build-electron (map[bun_install_flags:--os=darwin --cpu=arm64 host:macos-26 platform_flag:--mac --arm64 target:aarch64-apple-darwin]) (push) Blocked by required conditions
publish / publish (push) Blocked by required conditions
storybook / storybook build (push) Waiting to run
test / unit (linux) (push) Waiting to run
test / unit (windows) (push) Waiting to run
test / e2e (linux) (push) Waiting to run
test / e2e (windows) (push) Waiting to run
typecheck / typecheck (push) Waiting to run
deploy / deploy (push) Has been cancelled
docs-locale-sync / sync-locales (push) Has been cancelled
182 lines
15 KiB
Text
182 lines
15 KiB
Text
---
|
|
title: Go
|
|
description: การสมัครสมาชิกราคาประหยัดสำหรับโมเดลโอเพนซอร์สเพื่อการเขียนโค้ด
|
|
---
|
|
|
|
import config from "../../../../config.mjs"
|
|
export const console = config.console
|
|
export const email = `mailto:${config.email}`
|
|
|
|
OpenCode Go คือการสมัครสมาชิกในราคาประหยัด — **$5 สำหรับเดือนแรก** จากนั้น **$10/เดือน** — ซึ่งให้คุณเข้าถึงโมเดลโอเพนซอร์สยอดนิยมสำหรับการเขียนโค้ดได้อย่างเสถียร
|
|
|
|
:::note
|
|
OpenCode Go ขณะนี้อยู่ในช่วงเบต้า
|
|
:::
|
|
|
|
Go ทำงานเหมือนกับผู้ให้บริการ (provider) รายอื่นๆ ใน OpenCode คุณสามารถสมัครสมาชิก OpenCode Go และรับ API key ของคุณ บริการนี้เป็น**ทางเลือกเพิ่มเติม** และคุณไม่จำเป็นต้องใช้มันเพื่อใช้งาน OpenCode
|
|
|
|
บริการนี้ออกแบบมาเพื่อผู้ใช้ในระดับสากลเป็นหลัก โดยมีโมเดลโฮสต์อยู่ในสหรัฐอเมริกา สหภาพยุโรป และสิงคโปร์ เพื่อการเข้าถึงทั่วโลกที่เสถียร
|
|
|
|
---
|
|
|
|
## Background
|
|
|
|
โมเดลแบบเปิด (Open models) ได้รับการพัฒนาจนมีประสิทธิภาพดีมาก ตอนนี้ประสิทธิภาพในการเขียนโค้ดใกล้เคียงกับโมเดลแบบปิด (proprietary models) แล้ว และเนื่องจากมีผู้ให้บริการหลายรายสามารถให้บริการแข่งขันกันได้ จึงทำให้มีราคาถูกกว่ามาก
|
|
|
|
อย่างไรก็ตาม การเข้าถึงโมเดลเหล่านี้อย่างเสถียรและมีค่า Latency ต่ำนั้นอาจเป็นเรื่องยาก ผู้ให้บริการแต่ละรายมีคุณภาพและความพร้อมในการให้บริการแตกต่างกันไป
|
|
|
|
:::tip
|
|
เราได้ทดสอบกลุ่มโมเดลและผู้ให้บริการที่คัดเลือกมาเพื่อให้ทำงานร่วมกับ OpenCode ได้เป็นอย่างดี
|
|
:::
|
|
|
|
เพื่อแก้ปัญหานี้ เราได้ดำเนินการดังต่อไปนี้:
|
|
|
|
1. เราทดสอบกลุ่มโมเดลแบบเปิดที่คัดเลือกมาและพูดคุยกับทีมผู้พัฒนาเกี่ยวกับวิธีการรันโมเดลเหล่านี้ให้ดีที่สุด
|
|
2. จากนั้นเราได้ทำงานร่วมกับผู้ให้บริการบางรายเพื่อให้แน่ใจว่าการให้บริการเป็นไปอย่างถูกต้อง
|
|
3. สุดท้าย เราได้ทำการวัดประสิทธิภาพ (benchmark) ของการทำงานร่วมกันระหว่างโมเดลและผู้ให้บริการ จนได้รายชื่อที่เรามั่นใจในการแนะนำ
|
|
|
|
OpenCode Go ให้คุณเข้าถึงโมเดลเหล่านี้ได้ในราคา **$5 สำหรับเดือนแรก** จากนั้น **$10/เดือน**
|
|
|
|
---
|
|
|
|
## How it works
|
|
|
|
OpenCode Go ทำงานเหมือนกับผู้ให้บริการรายอื่นๆ ใน OpenCode
|
|
|
|
1. ลงชื่อเข้าใช้ที่ **<a href={console}>OpenCode Zen</a>**, สมัครสมาชิก Go และคัดลอก API key ของคุณ
|
|
2. รันคำสั่ง `/connect` ใน TUI, เลือก `OpenCode Go`, และวาง API key ของคุณ
|
|
3. รัน `/models` ใน TUI เพื่อดูรายชื่อโมเดลที่ใช้งานได้ผ่าน Go
|
|
|
|
:::note
|
|
มีเพียงสมาชิกหนึ่งคนต่อ workspace เท่านั้นที่สามารถสมัครสมาชิก OpenCode Go ได้
|
|
:::
|
|
|
|
รายชื่อโมเดลในปัจจุบันประกอบด้วย:
|
|
|
|
- **GLM-5**
|
|
- **GLM-5.1**
|
|
- **Kimi K2.5**
|
|
- **Kimi K2.6**
|
|
- **MiMo-V2-Pro**
|
|
- **MiMo-V2-Omni**
|
|
- **MiMo-V2.5-Pro**
|
|
- **MiMo-V2.5**
|
|
- **MiniMax M2.5**
|
|
- **Qwen3.5 Plus**
|
|
- **Qwen3.6 Plus**
|
|
- **MiniMax M2.7**
|
|
- **DeepSeek V4 Pro**
|
|
- **DeepSeek V4 Flash**
|
|
|
|
รายชื่อโมเดลอาจมีการเปลี่ยนแปลงเมื่อเราทำการทดสอบและเพิ่มโมเดลใหม่ๆ
|
|
|
|
---
|
|
|
|
## Usage limits
|
|
|
|
OpenCode Go มีขีดจำกัดดังต่อไปนี้:
|
|
|
|
- **ขีดจำกัดต่อ 5 ชั่วโมง** — การใช้งานมูลค่า $12
|
|
- **ขีดจำกัดรายสัปดาห์** — การใช้งานมูลค่า $30
|
|
- **ขีดจำกัดรายเดือน** — การใช้งานมูลค่า $60
|
|
|
|
ขีดจำกัดถูกกำหนดเป็นมูลค่าดอลลาร์ ซึ่งหมายความว่าจำนวน request จริงของคุณจะขึ้นอยู่กับโมเดลที่คุณใช้งาน โมเดลที่ราคาถูกกว่าอย่าง MiniMax M2.5 จะสามารถส่ง request ได้มากกว่า ในขณะที่โมเดลที่มีราคาสูงกว่าอย่าง GLM-5.1 จะส่งได้น้อยกว่า
|
|
|
|
ตารางด้านล่างแสดงจำนวน request โดยประมาณตามรูปแบบการใช้งานปกติของ Go:
|
|
|
|
| Model | requests ต่อ 5 ชั่วโมง | requests ต่อสัปดาห์ | requests ต่อเดือน |
|
|
| ------------------ | ---------------------- | ------------------- | ----------------- |
|
|
| GLM-5.1 | 880 | 2,150 | 4,300 |
|
|
| GLM-5 | 1,150 | 2,880 | 5,750 |
|
|
| Kimi K2.5 | 1,850 | 4,630 | 9,250 |
|
|
| Kimi K2.6 | 1,150 | 2,880 | 5,750 |
|
|
| MiMo-V2-Pro | 1,290 | 3,225 | 6,450 |
|
|
| MiMo-V2-Omni | 2,150 | 5,450 | 10,900 |
|
|
| MiMo-V2.5-Pro | 1,290 | 3,225 | 6,450 |
|
|
| MiMo-V2.5 (≤ 256K) | 2,150 | 5,450 | 10,900 |
|
|
| MiniMax M2.7 | 3,400 | 8,500 | 17,000 |
|
|
| MiniMax M2.5 | 6,300 | 15,900 | 31,800 |
|
|
| Qwen3.6 Plus | 3,300 | 8,200 | 16,300 |
|
|
| Qwen3.5 Plus | 10,200 | 25,200 | 50,500 |
|
|
| DeepSeek V4 Pro | 3,450 | 8,550 | 17,150 |
|
|
| DeepSeek V4 Flash | 31,650 | 79,050 | 158,150 |
|
|
|
|
การประมาณการอ้างอิงจากรูปแบบการใช้งาน request โดยเฉลี่ยที่สังเกตพบ:
|
|
|
|
- GLM-5/5.1 — 700 input, 52,000 cached, 150 output tokens ต่อ request
|
|
- Kimi K2.5/K2.6 — 870 input, 55,000 cached, 200 output tokens ต่อ request
|
|
- DeepSeek V4 Pro — 750 input, 82,000 cached, 290 output tokens ต่อ request
|
|
- DeepSeek V4 Flash — 790 input, 68,000 cached, 280 output tokens ต่อ request
|
|
- MiniMax M2.7/M2.5 — 300 input, 55,000 cached, 125 output tokens ต่อ request
|
|
- Qwen3.5 Plus — 410 input, 47,000 cached, 140 output tokens ต่อ request
|
|
- Qwen3.6 Plus — 500 input, 57,000 cached, 190 output tokens ต่อ request
|
|
- MiMo-V2-Pro — 350 input, 41,000 cached, 250 output tokens ต่อ request
|
|
- MiMo-V2-Omni — 1000 input, 60,000 cached, 140 output tokens ต่อ request
|
|
- MiMo-V2.5-Pro — 350 input, 41,000 cached, 250 output tokens ต่อ request
|
|
- MiMo-V2.5 — 1000 input, 60,000 cached, 140 output tokens ต่อ request
|
|
|
|
คุณสามารถติดตามการใช้งานปัจจุบันของคุณได้ใน **<a href={console}>console</a>**
|
|
|
|
:::tip
|
|
หากคุณใช้งานถึงขีดจำกัดแล้ว คุณยังสามารถใช้งานโมเดลฟรีต่อไปได้
|
|
:::
|
|
|
|
ขีดจำกัดการใช้งานอาจมีการเปลี่ยนแปลงเมื่อเราได้เรียนรู้จากการใช้งานในช่วงแรกและรับฟังข้อเสนอแนะ
|
|
|
|
---
|
|
|
|
### Usage beyond limits
|
|
|
|
หากคุณมีเครดิตในยอดเงินคงเหลือของ Zen ด้วย คุณสามารถเปิดใช้งานตัวเลือก **Use balance** ใน console เมื่อเปิดใช้งาน Go จะหันไปใช้ยอดเงินคงเหลือใน Zen ของคุณหลังจากที่คุณใช้งานถึงขีดจำกัดแล้วแทนที่จะบล็อก request
|
|
|
|
---
|
|
|
|
## Endpoints
|
|
|
|
คุณสามารถเข้าถึงโมเดลของ Go ผ่าน API endpoints ต่อไปนี้ได้เช่นกัน
|
|
|
|
| Model | Model ID | Endpoint | AI SDK Package |
|
|
| ----------------- | ----------------- | ------------------------------------------------ | --------------------------- |
|
|
| GLM-5.1 | glm-5.1 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| GLM-5 | glm-5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| Kimi K2.6 | kimi-k2.6 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| DeepSeek V4 Pro | deepseek-v4-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| DeepSeek V4 Flash | deepseek-v4-flash | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiMo-V2-Pro | mimo-v2-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiMo-V2-Omni | mimo-v2-omni | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiMo-V2.5-Pro | mimo-v2.5-pro | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiMo-V2.5 | mimo-v2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
|
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
|
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
|
| Qwen3.6 Plus | qwen3.6-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
|
| Qwen3.5 Plus | qwen3.5-plus | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/alibaba` |
|
|
|
|
[model id](/docs/config/#models) ใน OpenCode config ของคุณจะใช้รูปแบบ `opencode-go/<model-id>` ตัวอย่างเช่น สำหรับ Kimi K2.6 คุณจะใช้ `opencode-go/kimi-k2.6` ใน config ของคุณ
|
|
|
|
---
|
|
|
|
### Models
|
|
|
|
คุณสามารถดึงรายการโมเดลทั้งหมดที่พร้อมใช้งานและ metadata ของมันได้จาก:
|
|
|
|
```
|
|
https://opencode.ai/zen/go/v1/models
|
|
```
|
|
|
|
---
|
|
|
|
## Privacy
|
|
|
|
แพลนนี้ออกแบบมาสำหรับผู้ใช้ทั่วโลกเป็นหลัก โดยโฮสต์โมเดลไว้ใน US, EU และ Singapore เพื่อให้เข้าถึงได้อย่างเสถียรจากทั่วโลก ผู้ให้บริการของเราปฏิบัติตามนโยบาย zero-retention และไม่นำข้อมูลของคุณไปใช้ในการฝึกโมเดล
|
|
|
|
---
|
|
|
|
## Goals
|
|
|
|
เราสร้าง OpenCode Go เพื่อ:
|
|
|
|
1. ทำให้การเขียนโค้ดด้วย AI **เข้าถึงได้** สำหรับผู้คนจำนวนมากขึ้นด้วยการสมัครสมาชิกในราคาประหยัด
|
|
2. มอบการเข้าถึงโมเดลโอเพนซอร์สสำหรับการเขียนโค้ดที่ดีที่สุดได้อย่าง**เสถียร**
|
|
3. คัดสรรโมเดลที่ผ่าน**การทดสอบและวัดประสิทธิภาพ**สำหรับการใช้งาน coding agent แล้ว
|
|
4. **ไม่ผูกขาดการใช้งาน (no lock-in)** โดยอนุญาตให้คุณใช้งานผู้ให้บริการรายอื่นๆ ร่วมกับ OpenCode ได้เช่นกัน
|