#2618 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens

223.73* Posted at: 9 hours ago 👁15

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens=2002, total_tokens=6098, completion_tokens_details=None, prompt_tokens_details=None)


=
system:Windows-10-10.0.22621-SP0
version:v3.91
frozen:True
language:zh
root_dir:A:/BaiduNetdiskDownload/FY/win-pyvideotrans-v3.91_20251220_225815

1 Replies

这个错误提示表明您在使用 OpenAI 或兼容 OpenAI API 的大模型(如 DeepSeek、Azure OpenAI 等)进行翻译或重新断句时,模型的回复内容过长,超出了其最大输出令牌(token)限制(4096个)。

核心原因与解决方案:

原因: 您一次性发送给AI模型翻译或处理的字幕文本量过大,导致模型生成的回复内容超过了其设定的最大长度限制。

解决方案(按推荐顺序尝试):

  1. 减少单次处理的字幕量(首选):

    • 在软件主界面,点击右下角的 “设置更多参数”
    • 找到 “每批字幕行数” 选项,将其数值调小(例如从默认的 20 改为 5 或 10)。
    • 这会将长字幕分批发送给AI,避免单次请求超出限制。
  2. 调整高级选项中的LLM参数(如果使用LLM重新断句):

    • 如果错误发生在“LLM重新断句”环节,请进入 菜单 -> 工具 -> 高级选项
    • “通用设置” 区域,找到 “LLM重新断句每批字词数”
    • 将这个数值显著调小(例如从默认的 2000 改为 500 或 1000)。这个参数控制发送给LLM进行重新断句的文本长度。
  3. 检查并优化提示词(如果自定义过):

    • 如果您在 “翻译设置” 中为AI渠道修改过“提示词”,请确保提示词本身不会过于冗长,占用了大量token。
    • 可以尝试恢复为默认提示词,或者简化您的自定义指令。
  4. 更换模型或调整模型参数:

    • 如果您使用的是本地部署的大模型(如通过 LocalLLM 渠道),请检查该模型是否支持更长的输出(如 context_length 参数)。
    • 在API设置中,如果支持,可以尝试调高 max_tokens 参数(但需注意API费用可能增加)。

操作后: 调整上述参数后,请务必勾选主界面第一行的 “清理已生成” 复选框,然后重新执行任务。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions