#1887 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8092, prompt_tokens

120.229* Posted at: 18 hours ago 👁7

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8092, prompt_tokens=5821, total_tokens=13913, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=448), prompt_cache_hit_tokens=448, prompt_cache_miss_tokens=5373)


=
system:Windows-10-10.0.26100-SP0
version:v3.86
frozen:False
language:zh
root_dir:D:/Study/projects_for_fun/Video_trans/pyvideotrans
Python: 3.10.18 (main, Jun 29 2025, 16:15:18) [MSC v.1944 64 bit (AMD64)]

1 Replies

这个错误提示表明在使用 OpenAI 的 API 进行翻译时,返回的翻译结果内容过长,超出了模型的处理限制。这通常发生在视频字幕内容非常多,或者您设置的“LLM重新断句每批字词数”过大时。

请按以下步骤解决:

  1. 减少单次翻译量

    • 在软件主界面,点击菜单栏的 工具 -> 选项 -> 高级选项
    • 在“字幕翻译调整”区域,找到 “每批字幕行数”,将数值调小(例如从默认的 50 改为 20 或 10)。
    • 同时,确保 “发送完整字幕” 选项是取消勾选状态。如果勾选,会将整个字幕文件作为上下文发送,极易触发此限制。
  2. 调整 LLM 断句设置(如果您启用了此功能):

    • 在高级选项的“通用设置”区域,找到 “LLM重新断句每批字词数”
    • 将这个数值显著调小(例如从 2000 改为 500)。这个参数控制发送给大模型进行重新断句的文本长度,过大就会导致上述错误。
  3. 检查翻译模型

    • 如果您使用的是 OpenAI 的 gpt-3.5-turbo 等旧模型,其上下文窗口较小。可以尝试在“翻译设置”中切换到 gpt-4o-minigpt-4o,它们拥有更大的上下文处理能力。
  4. 分段处理

    • 如果视频非常长,字幕文件巨大,上述调整后仍报错,可以考虑将视频拆分成多个较短的部分分别处理。

完成调整后,请务必在主界面勾选 “清理已生成”,然后重新开始翻译任务。

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions