#2735 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8092, prompt_tokens

36.101* Posted at: 21 days ago 👁91

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8092, prompt_tokens=686, total_tokens=8778, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=448), prompt_cache_hit_tokens=448, prompt_cache_miss_tokens=238)


=
system:Windows-10-10.0.26200-SP0
version:v3.86
frozen:True
language:zh
root_dir:D:/AN/PyVideoTrans/win-pyvideotrans-v3.86

1 Replies

这个错误提示表明在使用 OpenAI 的翻译或语音识别功能时,返回的内容长度超出了模型的最大限制(CompletionUsage 显示 completion_tokens=8092)。这通常发生在处理长视频或字幕文件时,一次性发送给AI的文本量过大。

核心解决方法:减少单次发送给AI的文本量。

请按以下步骤操作:

  1. 进入高级设置: 在软件主界面,点击菜单栏的 工具 -> 选项 -> 高级选项
  2. 调整翻译批处理参数: 在“字幕翻译调整”区域,找到 “同时翻译字幕数” 这个参数。
  3. 减小数值: 将默认值(例如10或20)大幅减小,建议先尝试设置为 12。这会让软件将字幕分批、逐次发送给AI,避免单次请求过长。
  4. (可选)开启完整上下文: 如果翻译质量因分批而下降,可以勾选下方的 “发送完整字幕” 选项。这会为每批字幕附加上下文,但会增加一些token消耗。
  5. 应用并重试: 点击“确定”保存设置,然后重新运行翻译任务。

其他可能原因及处理:

  • 使用了大模型重新断句(LLM Rephrase): 如果启用了此功能,它也会消耗大量token。如果问题依旧,可以暂时在语音识别设置中,将“断句设置”改回“默认断句”或“本地算法重断句”。
  • 视频过长: 如果视频本身非常长,即使分批也可能接近总限制。考虑先将视频分割成较短的片段进行处理。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource

Similar issues already exist