#806

64.64* Posted at: 3 months ago 👁284

image

5 Replies

本条内容由 DeepSeek 回复
根据你提供的截图,这是一个典型的 faster-whisper 模型下载失败 问题。

问题原因:

由于众所周知的原因,国内用户默认从镜像站 https://hf-mirror.com 下载模型。最近该镜像站越来越不稳定,经常出现下载失败、连接超时或限流(429错误)。

解决方案(三选一):

方法一:直接从 Hugging Face 官网下载(推荐科学上网用户)

这是最直接、最稳定的方式:

1. 设置代理:在软件的“网络代理”文本框中,填写你的代理地址和端口(格式:代理地址:端口

2. 创建锁文件:在 sp.exe 同目录下,新建一个空文件,命名为 huggingface.lock

  • 注意:文件后缀必须是 .lock,不是 .txt
  • 如果不会创建,可以右键新建 huggingface.txt,然后重命名为 huggingface.lock

方法二:使用专用下载工具

1. 访问下载页面:https://pyvideotrans.com/faster-whisper-download

2. 下载你需要的模型文件(根据你的需求选择模型大小)

3. 下载后和 sp.exe 放在一起,双击运行工具即可自动下载

方法三:手动从 GitHub 下载压缩包

1. 打开:https://github.com/jianchang512/stt/releases/tag/0.0

2. 下载你需要的模型文件(如 large-v3-turbo.zip

3. 解压到软件的 models 文件夹中

推荐优先使用方法一,如果无法科学上网,则使用方法二或方法三。这些方法都能有效解决模型下载失败的问题。

image

您遇到的错误是 cudaErrorNoKernelImageForDevice,这是一个典型的 CUDA 兼容性问题。

问题原因:
您的 NVIDIA 显卡驱动或 CUDA 版本与当前绑定的 torch 版本(torch2.7.1+cu128)不兼容。

解决方案:

  1. 更新显卡驱动(推荐首先尝试):

    • 访问 NVIDIA 官网下载并安装最新的显卡驱动程序
    • 这是最简单且最可能解决问题的方法
  2. 如果更新驱动后问题依旧:

    • 在软件主界面取消勾选 "CUDA加速" 选项
    • 这样软件将使用 CPU 进行计算,虽然速度会慢一些,但可以保证正常运行
  3. 高级用户可选方案:

    • 安装或升级到 CUDA 12.x 版本
    • 重新配置兼容的 PyTorch 环境

建议操作顺序:
先尝试更新显卡驱动 → 如果仍有问题 → 取消勾选 CUDA 加速

这样可以确保您至少能够使用软件的基本功能。

image

您遇到的错误是 CUDA out of memory,这是典型的显存不足问题。当处理大视频或使用较大模型时,GPU 显存被耗尽。

请按以下步骤解决:

  1. 立即操作:关闭软件,释放显存
    完全退出 pyVideoTrans 软件,等待几分钟让显存完全释放。
  2. 重启软件并调整设置(按顺序尝试):

    • 降低模型大小: 在“语音识别”区域,将模型从 large-v3 改为 mediumsmall。这是最有效的方法。
    • 启用批量推理: 在“语音识别”区域,将“识别模式”从“整体识别”改为“批量推理”。
    • 调整高级参数:

      • 进入 工具 -> 高级选项
      • 在“Faster/OpenAI/Whisper 语音识别微调”区域:

        • CUDA数据类型 改为 int8(显存占用最小)。
        • 识别准确度(beam_size)识别准确度(best_of) 都改为 1
        • 启用上下文感知 改为 False
    • (可选)降低视频分辨率: 如果视频分辨率很高(如 4K),可以先使用其他工具将其转为 1080p 再处理。
  3. 如果以上方法均无效:

    • 在软件主界面取消勾选“CUDA加速”,强制使用 CPU 处理。速度会慢很多,但不会出现显存错误。

处理建议:

  • 对于长视频(超过30分钟),建议先使用“工具箱 -> 音视频合并/分离”功能提取音频,然后直接处理音频文件,可以显著降低显存占用。
  • 确保没有其他占用大量显存的程序(如游戏、其他AI软件)在后台运行。

请查看更多参考文档:

Post Your Reply