#4329 能否使用ollama安装的本地大模型

2409:896d* Posted at: 2 hours ago 👁11

能否使用ollama安装的本地大模型

1 Replies

可以使用 Ollama 安装的本地大模型作为翻译渠道。
配置方法如下:

  1. 确保 Ollama 已安装并启动(默认 API 地址 http://localhost:11434/v1)。
  2. 在 pyVideoTrans 主界面,点击顶部菜单 翻译设置本地大模型设置
  3. 翻译渠道选择 兼容AI/本地模型,然后在设置面板中填写:

    • API 地址http://localhost:11434/v1(若部署在其它机器请替换 IP 和端口)。
    • 模型名称:输入你在 Ollama 中拉取的模型名,例如 qwen:latestllama3:8b 等。
    • API Key:若无要求可留空或随意填写(如 ollama),只要 Ollama 服务本身未设置鉴权即可。
  4. 保存设置后,在翻译视频时选择 兼容AI/本地模型 渠道即可生效。

注意:本地小模型(如 7B)可能翻译质量有限,若遇到结果包含空白行或提示词,建议调整模型或改用更智能的在线大模型。

请查阅相关文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource