#2695 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens

183.187* Posted at: 12 hours ago 👁13

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens=1556, total_tokens=9748, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=768), prompt_cache_hit_tokens=768, prompt_cache_miss_tokens=788)


=
system:Windows-10-10.0.19045-SP0
version:v3.90
frozen:True
language:zh
root_dir:D:/配音

1 Replies

您遇到的错误提示“Could not parse response content as the length limit was reached”表明,在使用AI模型(如OpenAI、DeepSeek等)进行翻译或LLM重新断句时,模型的回复内容过长,超出了软件预设的处理长度限制。

核心原因与解决方案:

  1. 根本原因:您当前使用的AI模型(根据日志推测是OpenAI GPT-4o)在处理翻译请求时,生成的回复文本过长,触发了软件内置的解析限制。这通常发生在视频内容较长、字幕行数很多时。
  2. 解决方案

    • 首选方案:减少单次翻译量

      1. 在软件主界面,点击右下角的 “设置更多参数”
      2. 在弹出的“快速参数”窗口中,找到 “同时翻译字幕数”
      3. 将此数值大幅调小,例如从默认的 50 改为 105。这会将长字幕分批发送给AI,避免单次回复过长。
      4. 点击“确定”保存设置,然后重新开始翻译任务。
    • 备选方案:更换翻译渠道
      如果您必须一次性翻译大量字幕,且调小“同时翻译字幕数”后效果不佳,可以考虑:

      1. 在“翻译设置”中,暂时切换到 非AI的翻译渠道,如 Google翻译微软翻译DeepLX。这些渠道通常没有回复长度限制。
      2. 或者,如果您有DeepSeek API,可以尝试使用 DeepSeek 模型,它在长文本处理上可能表现不同。
    • 针对“LLM重新断句”的调整
      如果您是在使用“LLM重新断句”功能时遇到此错误,请:

      1. 进入 菜单 -> 工具 -> 高级选项
      2. 在“通用设置”区域,找到 “LLM重新断句每批字词数”
      3. 将此数值调小(例如从默认的 2000 改为 1000),以减少每次发送给LLM的文本量。

操作后建议:完成上述调整后,请务必在主界面勾选 “清理已生成”,然后重新处理视频,以确保新的设置生效。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions