#2224 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens

183.187* Posted at: 2 days ago 👁24

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=4096, prompt_tokens=808, total_tokens=4904, completion_tokens_details=None, prompt_tokens_details=None)


=
system:Windows-10-10.0.19045-SP0
version:v3.91
frozen:True
language:zh
root_dir:D:/win-videotrans-v3.84

1 Replies

这个错误提示表明您在使用 OpenAI 或兼容 OpenAI API 的渠道(如 DeepSeek、Azure、硅基流动等)进行翻译或 LLM 断句时,AI 模型的回复内容长度超过了其最大输出限制(4096 tokens)。

核心原因: 您一次性发送给 AI 模型进行翻译或断句的文本量过大。

解决方案:

  1. 减少单次翻译量(最有效):

    • 在软件主界面,点击右下角的 “设置更多参数”
    • 在弹出的“高级选项”窗口中,找到 “字幕翻译调整” 区域。
    • “同时翻译字幕数” 的值调小。建议先从 510 开始尝试。数值越小,每次发送的文本越少,越不容易触发长度限制。
  2. (如果使用翻译功能)开启“发送完整字幕”:

    • 在同一个“字幕翻译调整”区域,确保 “发送完整字幕” 选项是 勾选 状态。
    • 这个选项会让 AI 在翻译时获得更多上下文,有时反而能生成更连贯、更短的回复。
  3. (如果使用 LLM 重新断句功能)调整断句批次:

    • 如果您是在使用“LLM大模型重新断句”功能时遇到此错误,请进入 “工具” -> “选项” -> “高级选项”
    • 在“通用设置”区域,找到 “LLM重新断句每批字词数”
    • 将这个数值调小(例如从默认的 1000 改为 500 或更小),以减少每次请求的文本量。
  4. 考虑更换模型:

    • 如果您使用的是本地部署的小参数模型(如 7B、13B),其上下文窗口可能本身就很小。请尝试更换为上下文更大的模型(如 DeepSeek-V3 的 128K),或直接使用软件内置的在线 API 渠道(如 DeepSeek、Gemini)。

操作后请重新尝试翻译或断句。 如果问题依旧,请提供更完整的错误日志(位于 D:/win-videotrans-v3.84/logs/ 目录下)。

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions