#2689 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens

183.187* Posted at: 8 hours ago 👁8

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens=1532, total_tokens=9724, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=1472), prompt_cache_hit_tokens=1472, prompt_cache_miss_tokens=60)


=
system:Windows-10-10.0.19045-SP0
version:v3.90
frozen:True
language:zh
root_dir:D:/软件/配音

1 Replies

您遇到的错误信息表明,在使用 OpenAI 的翻译或语音识别功能时,AI 模型的回复内容过长,超出了其单次处理的长度限制(8192个令牌)。这通常发生在处理长视频或字幕文件时。

核心解决方法:减少单次发送给AI的文本量

请按以下步骤操作:

  1. 进入高级设置:在软件主界面,点击菜单栏的 工具 -> 选项 -> 高级选项
  2. 调整翻译批处理设置

    • 找到 “字幕翻译调整” 区域。
    • “同时翻译字幕数”“每批字幕行数” 的数值大幅调小。例如,从默认的 20 改为 53
    • 关键步骤:确保勾选 “发送完整字幕” 旁边的选项(如果存在)。如果已经勾选,请取消勾选,改为发送部分上下文或仅发送当前批次字幕。
  3. (可选)调整识别设置

    • 如果您是在使用 OpenAI 的语音识别(Whisper API),请尝试在 语音识别设置 中,将识别模式从“整体识别”改为 “批量推理”。这会将长音频切分成较短的片段分别处理。
  4. 应用并重试:保存设置,回到主界面,务必勾选“清理已生成”,然后重新运行任务。

其他可能原因与排查

  • 模型选择:如果您使用的是 GPT-3.5-Turbo 等旧模型,其上下文窗口较小。可以尝试在翻译设置中切换到 GPT-4GPT-4o 系列模型(如果可用),它们拥有更大的上下文长度。
  • 任务拆分:如果视频非常长,考虑使用软件的 “工具箱 -> 转录并翻译字幕” 功能,先单独处理字幕文件,再将字幕导入进行配音。

如果调整后问题依旧,请提供更完整的任务日志(位于 D:/软件/配音/logs/ 目录下)以便进一步分析。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions