mirror of
https://github.com/illian64/llm-translate.git
synced 2026-04-29 04:09:56 +00:00
* Prepare for docker, documentation. * Prepare for docker, documentation. * Prepare for docker, documentation. --------- Co-authored-by: APodoinikov <APodoynikov@detmir.ru>
18 lines
1.8 KiB
Markdown
18 lines
1.8 KiB
Markdown
# Плагин перевода: nllb-200
|
||
|
||
Модели для этого плагина не нужно загружать самостоятельно, они будут загружены автоматически при старте плагина.
|
||
|
||
## Параметры плагина
|
||
|
||
* **cuda** - `true` - использовать видеокарту (быстрее), `false` - использовать cpu (медленнее).
|
||
|
||
* **cuda_device_index** - если в системе несколько видеокарт, можно выбрать ту, в которую будет загружена модель.
|
||
Номер и имя видеокарты указывается при старте приложения в логе, вида `INFO GPU #0: NVIDIA GeForce RTX 4090`.
|
||
`0` - указываемый в параметре номер.
|
||
|
||
* **model** - В этом параметре нужно указать путь к модели. Список моделей [здесь](https://huggingface.co/facebook/models?search=nllb),
|
||
Например, выбрали модель https://huggingface.co/facebook/nllb-200-3.3B - тогда значение параметра будет `facebook/nllb-200-3.3B`.
|
||
|
||
* **text_split_params** - этот параметр переопределяет глобальные параметры (подробнее [здесь](../options.md)),
|
||
и задает разбивку текста по предложениям. Очень рекомендуется разбивать именно так,
|
||
потому что при отправке нескольких предложений сразу, очень велика вероятность, что часть предложений будет потеряна моделью.
|