#1642 在翻译 srt 字幕时,添加了术语表,为什么没有按照术语表的设置翻译?

38.150* Posted at: 4 months ago 👁206

在翻译 srt 字幕时,添加了术语表,为什么没有按照术语表的设置翻译?

11 Replies

术语表未生效,通常是由于翻译引擎不支持或设置问题。请按以下步骤排查:

  1. 确认翻译渠道:目前术语表功能主要适配于 OpenAI ChatGPT、DeepSeek、Gemini、Claude 等大型语言模型(LLM)。如果您使用的是 Google、微软、百度等传统翻译引擎,术语表将不会生效。
  2. 检查术语表格式

    • 格式应为 原文=替换文,每行一条。
    • 确保没有多余的空格或特殊字符。
    • 例如:CPU=中央处理器
  3. 验证API密钥:如果您使用的是上述LLM,请确保在“翻译设置”中填入了正确且有效的API密钥。
  4. 尝试强制重译:在翻译SRT的主界面,勾选“清理已生成”选项,然后重新执行翻译任务。

如果以上步骤仍无法解决,请告知您使用的是哪个翻译渠道,以便提供更精确的解决方案。

使用Google 翻译

使用 Google 翻译时,术语表功能不会生效。

术语表功能目前仅支持 OpenAI ChatGPT、DeepSeek、Gemini、Claude 等大型语言模型(LLM)。Google 翻译等传统翻译引擎不具备遵循自定义术语指令的能力。

解决方案:

  1. 更换翻译渠道:在翻译设置中,将翻译渠道切换到上述任一支持的 LLM(如 DeepSeek),并配置好相应的 API 密钥。
  2. 翻译后手动替换:如果必须使用 Google 翻译,您可以在翻译完成后,使用文本编辑器的“查找和替换”功能,根据您的术语表手动修改字幕文件。

如果您决定更换为 LLM 渠道,请确保在“翻译设置”中填写正确的 API 密钥。

上述 LLM 哪个是免费的?

在 pyVideoTrans 中,DeepSeek 目前提供免费的翻译服务。

使用步骤:

  1. 在软件主界面的“翻译”设置中,选择“DeepSeek”作为翻译渠道。
  2. 点击“翻译设置”按钮。
  3. 在 DeepSeek 的配置项中,填入您的 API Key。
  4. 获取免费 API Key:

    • 访问 DeepSeek 开放平台官网。
    • 注册并登录账号。
    • 在控制台中创建 API Key,目前新用户拥有免费额度。

重要提示:

  • 使用 DeepSeek 后,您的术语表功能即可生效。
  • 请留意各平台的免费额度政策可能发生变化,建议关注官方公告。

有没有长期免费的?

目前没有能保证长期、稳定且完全免费的 LLM 翻译渠道。

原因如下:
提供高质量翻译的 LLM 服务需要巨大的算力成本,因此所有服务商最终都会转向付费或严格限制免费额度。所谓的“免费”通常指:

  1. 新用户赠额:注册后赠送一定量的 tokens,用完即止。
  2. 低频免费接口:可能存在速率和并发限制,不适合批量翻译。

当前可用的免费或低成本方案:

  1. DeepSeek(当前最佳选择)

    • 目前免费额度较为慷慨,足够个人日常使用。
    • 即使未来收费,其定价也极有可能远低于 OpenAI 等厂商。
  2. 自建本地模型

    • 这是实现 真正长期免费 的唯一方式。
    • 操作方法:在 pyVideoTrans 的“翻译设置”中,选择“Local LLM”。
    • 要求:需要您自行在本地部署一个开源的大语言模型(如 Qwen、Llama 等),并对硬件(尤其是显存)有较高要求。
  3. 传统免费引擎

    • 如 Google、微软翻译,它们免费但不支持术语表功能。

建议:
对于个人用户,首选 DeepSeek。请及时关注其官方政策,并善用免费额度。如果您的翻译需求量大且持续,应提前做好使用付费API或部署本地模型的准备。

CUDA数据类型怎么设置

CUDA数据类型的设置取决于您在显存、速度和精度之间的权衡。设置位置:在软件顶部菜单栏,点击 工具/选项 -> 高级选项 -> 找到【语音识别参数】区域 -> 修改 CUDA数据类型。选项说明:float32:最高精度,但显存占用最大,速度最慢。float16:推荐选择。在保证较高精度的同时,显存占用和速度均有显著优化。int8:最低精度,显存占用最小,速度最快,但识别准确度可能下降。default:由软件自动选择。最佳实践:如果您的显卡显存充足(例如 ≥ 8GB),建议选择 float16,在速度和精度间取得平衡。如果处理长视频或使用大型模型(如 large-v3)时提示显存不足,请切换到 int8。一般情况下,不建议选择 default,手动指定更可控。注意:此设置仅影响使用 faster-whisper(本地) 等支持 CUDA 加速的本地语音识别模型。

AI翻译温度好像不起作用

AI翻译的温度参数(temperature)设置不起作用,通常是因为您使用的翻译渠道不支持此参数。原因与解决方案:确认翻译渠道:温度参数是大型语言模型(LLM)特有的高级参数,仅对 OpenAI ChatGPT、DeepSeek、Gemini、Claude 等 AI 渠道有效。如果您使用的是 Google、微软、百度等传统翻译引擎,该设置无效。检查设置位置:温度参数在 菜单 - 工具/选项 - 高级选项 - 字幕翻译调整 区域,名为 AI翻译模型温度值。默认值为 0.2。验证API调用:即使使用了AI渠道,如果API密钥无效或网络连接失败,翻译请求根本不会发送,温度设置自然也不会生效。请确保API配置正确且可访问。调整参数范围:温度值有效范围通常在 0.0 到 2.0 之间。0.0 输出最确定但可能呆板,更高的值(如 0.8)输出更具创造性但可能不稳定。请尝试设置为一个明显不同的值(如 0.8)进行测试。如果您确认使用的是AI渠道但温度仍无效,请检查日志文件(软件根目录/logs/)中是否有相关错误信息。

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource