#2635 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8193, prompt_tokens

183.187* Posted at: 5 hours ago 👁10

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8193, prompt_tokens=1485, total_tokens=9678, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=768), prompt_cache_hit_tokens=768, prompt_cache_miss_tokens=717)


=
system:Windows-10-10.0.19045-SP0
version:v3.91
frozen:True
language:zh
root_dir:D:/win-pyvideotrans-v3.91_20251219_004054

1 Replies

这个错误提示“Could not parse response content as the length limit was reached”表明在使用 AI 大模型(如 OpenAI、DeepSeek 等)进行翻译或重新断句时,模型的回复内容过长,超出了软件设定的解析长度限制。

核心原因是: 您处理的视频字幕内容太多,导致 AI 模型生成的回复文本过长,软件无法完整接收和处理。

请按以下步骤解决:

  1. 调整翻译/断句的批量大小(最有效):

    • 在软件主界面,点击右下角的 “设置更多参数”
    • 在“字幕翻译调整”区域,找到 “同时翻译字幕数”
    • 将数值大幅调小,例如从默认的 10 改为 21。这会将长字幕分成更小的批次发送给 AI,避免单次回复过长。
  2. (如果使用 LLM 重新断句)调整 LLM 参数:

    • “工具” -> “选项” -> “高级选项” 中。
    • 找到 “LLM重新断句每批字词数”,将其数值调小(例如从 1000 改为 500 或更小)。
  3. 考虑更换翻译渠道(备用方案):

    • 如果上述调整后问题依旧,或者视频本身非常长,可以考虑暂时使用 非 AI 的传统翻译渠道,例如 Google 翻译微软翻译。这些渠道通常没有单次回复的长度限制。
    • 或者,可以尝试使用 本地大模型(如果已配置),并在其配置中调整 max_tokens 参数。
  4. 分拆视频处理(最终手段):

    • 如果视频极长(例如超过1小时),即使调小批量也可能触发限制。最稳妥的方法是将原始视频用剪辑软件切成多个较短片段(如20分钟一段),然后分别进行处理。

总结操作顺序: 优先尝试 步骤1,如果无效或在进行“LLM重新断句”时出错,则结合 步骤2。对于超长视频,可能需要 步骤4

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions