#2588 Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens

183.187* Posted at: 11 hours ago 👁33

Could not parse response content as the length limit was reached - CompletionUsage(completion_tokens=8192, prompt_tokens=2229, total_tokens=10421, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=640), prompt_cache_hit_tokens=640, prompt_cache_miss_tokens=1589)


=
system:Windows-10-10.0.19045-SP0
version:v3.92
frozen:True
language:zh
root_dir:D:/配音

1 Replies

此错误表明您使用的 AI 翻译渠道(很可能是 OpenAI、DeepSeek 等大模型)在处理长文本时,返回的翻译结果超出了其上下文长度限制。以下是解决方案:

核心解决方法:减少单次发送的文本量

  1. 在软件主界面,点击右下角的 “设置更多参数”
  2. 在弹出的窗口中,找到 “同时翻译字幕数” 参数。
  3. 大幅减小此数值。例如,如果当前是 50,请尝试改为 105
  4. 点击“确定”保存设置,然后重新尝试翻译。

高级选项调整(效果更佳)

如果上述方法无效,或希望获得更稳定的翻译质量:

  1. 进入菜单栏:工具 -> 选项 -> 高级选项
  2. “字幕翻译调整” 区域,进行以下设置:

    • 每批字幕行数:设置为一个较小的值,例如 5
    • 发送完整字幕取消勾选。这可以避免将整个字幕文件作为上下文发送,从而显著减少 token 消耗。
  3. 点击“确定”保存。

备选方案

如果问题持续存在,请考虑:

  • 更换翻译渠道:暂时使用 Google翻译微软翻译 等传统渠道完成翻译,它们没有 token 限制。
  • 检查 API 配置:确认您配置的 AI 模型是否支持足够长的上下文(例如 GPT-4 Turbo 支持 128k,而 GPT-3.5-turbo 仅支持 16k)。如果使用的是小模型,请更换为更大上下文窗口的模型。

请查看更多参考文档:

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Similar issues already exist

Trending Questions