#4035 pyvideotrans

111.18* Posted at: 3 hours ago 👁9

使用pyvideotrans 软件搭配本地大模型Ollama 中的qwen2.5:7b-q4_K_M 模型,翻译视频时勾选了启用CUDA,但工作过程中CPU占用很高,Volatile GPU-Util 0%

1 Replies

这是由于本地大模型(如 Ollama 中的 Qwen2.5)在翻译阶段主要依赖 CPU 进行推理,而 CUDA 加速仅对语音识别(ASR)阶段有效。

解决方案:

  1. 确认工作阶段:软件工作流程为 语音识别 -> 字幕翻译 -> 语音合成 -> 视频合成。CUDA 加速仅作用于第一步“语音识别”(例如使用 faster-whisper 等本地模型时)。当进入“字幕翻译”阶段,使用本地 Ollama 大模型进行翻译时,计算负载会转移到 CPU,这是正常现象。
  2. 验证 CUDA 在语音识别阶段是否生效:请确保在“语音识别”渠道(如 faster-whisper)下拉菜单右侧的“CUDA加速”复选框已被勾选。同时,在 CMD 中使用 nvcc -Vnvidia-smi 命令确认 CUDA 12.8 环境已正确安装。
  3. 优化 CPU 负载:如果 CPU 占用过高影响其他任务,可以在 菜单 -> 工具/选项 -> 高级选项 的【通用设置】中,适当降低“最大进程数”和“GPU同时任务数”(建议设为1)。

总结:使用本地 Ollama 进行翻译时,CPU 占用高是预期行为。CUDA 加速不适用于此阶段。请重点检查 CUDA 是否在语音识别阶段被正确启用。

请查阅相关文档:

Post Your Reply