#2619 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens

223.73* Posted at: 9 hours ago 👁15

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens=693, total_tokens=4789, completion_tokens_details=None, prompt_tokens_details=None)


=
system:Windows-10-10.0.22621-SP0
version:v3.91
frozen:True
language:zh
root_dir:A:/BaiduNetdiskDownload/FY/win-pyvideotrans-v3.91_20251220_225815

1 Replies

这个错误提示表明,您在使用 OpenAI 或类似的大模型进行翻译或断句时,模型返回的响应内容过长,超出了其单次处理的 token 限制(此处显示 completion_tokens=4096,达到了上限)。

核心原因与解决方案:

1. 调整“每批字幕行数”
这是最直接的解决方法。您一次性发送给AI的字幕文本过长,导致模型无法完整回复。

  • 操作步骤

    1. 在软件主界面,点击右下角的 “设置更多参数”
    2. 在“字幕翻译调整”区域,找到 “每批字幕行数”
    3. 将数值调小,例如从默认的 50 改为 2010
    4. 点击“确定”保存,然后重新开始翻译任务。

2. 检查并优化“LLM重新断句”设置
如果您启用了“LLM重新断句”功能,它也会消耗大量 token。

  • 操作步骤

    1. 在“语音识别”区域,检查是否选择了“LLM大模型重断句”。
    2. 如果启用,请进入 “工具” -> “选项” -> “高级选项”
    3. 在“通用设置”区域,找到 “LLM重新断句每批字词数”
    4. 同样,将这个数值调小,例如从 1000 改为 500

3. 考虑更换翻译渠道
如果上述调整后问题依旧,或者您处理的是超长视频,建议:

  • 临时方案:切换到传统的翻译渠道,如 Google翻译微软翻译,它们没有单次token限制。
  • 根本方案:如果必须使用AI翻译,请确保您的AI模型(如ChatGPT)支持更大的上下文窗口(例如128K),并在软件的“翻译设置”中正确配置该模型的名称。

总结操作顺序

  1. 首选:调小“每批字幕行数”。
  2. 其次:检查并调小“LLM重新断句每批字词数”。
  3. 最后:考虑更换为无token限制的传统翻译渠道。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions