• #4342 音频比视频要慢了大概10秒左右,要怎么处理?...
    💬 1
    [Last reply:12 days ago] 音频比视频慢了约10秒,是由于翻译后的配音时长与原始语音时长不一致导致的。处理步骤如下:开启对齐选项:在主界面勾选 配音加速 和/或 视频慢速,强制使配音与原视频时长匹配。开启二次识别:勾选 二次识别,软件会在配音完成后再次对配音音频进行语音识别,生成精准匹配配音的字幕,确保字幕与声音对齐。调整配音速度:如果仅慢10秒...
    218.173* Posted at: 12 days ago
  • #4341 FileNotFoundError: [WinError 206] 文件名或扩展名太长。: 'C:\\Users\\hasee\\Downloads\\_video_out\\2 X 上的 Filecoin:“Cardano s @IOHK...
    💬 1
    [Last reply:13 days ago] 原因是 Windows 系统对文件路径有最大长度限制(通常为 260 个字符),你的原视频文件名太长,导致自动生成的输出目录完整路径超出了系统限制。解决方法:将原视频文件移动到一个浅层目录(如 D:\videos),并将视频重命名为简短英文或数字名称(例如 video1.mp4)。避免文件名中含中文、特殊符号或过长字符...
    64.186* Posted at: 13 days ago
  • #4283 术语表是不是区分大小写的?...
    💬 18
    [Last reply:13 days ago] 要实现“忽略术语原词大小写,仅匹配字母序列”这一规则,你需要直接在所使用的翻译渠道的 提示词 中添加明确指令。以下是具体的操作步骤和示例:1. 确定要修改的提示词文件位置如果你勾选了【发送完整字幕】,需要修改:[软件目录]/videotrans/prompts/srt/deepseek.txt (如果使用其他渠道,请选...
    2409:8a55* Posted at: 16 days ago
  • #4339 videotrans.configure._except.StopRetry: No Ref Audio. Clone disabled....
    💬 1
    [Last reply:13 days ago] This error occurs because the audio cloning feature is enabled (a clone voice role is selected) but no valid reference audio is found or the extracted speech se...
    191.6* Posted at: 13 days ago
  • #4338 whisper语音识别问题...
    💬 17
    [Last reply:13 days ago] 软件中 DeepSeek 作为翻译渠道时,模型名称需要手动输入,而非在下拉菜单直接选择。目前知识库未提供 DeepSeek 官方支持的全部模型列表,但常见的可用模型包括:deepseek-chat(即 DeepSeek-V3 最新对话模型)deepseek-reasoner(即 DeepSeek-R1 推理模型,适合复...
    112.22* Posted at: 13 days ago
  • #4334 工具/选项中的“实时语音转文字”功能时报错...
    💬 9
    [Last reply:13 days ago] 根据您提供的日志,pyVideoTrans v3.99-428 启动正常,已检测到 GPU。但“实时语音转文字”功能所需的 tools 文件夹确实缺失,这属于该版本可能的打包遗漏。 目前日志中没有记录到任何错误,因此无法直接定位。请按以下步骤尝试解决:卸载当前版本:完全删除 G:\pyVideoTrans 目录。临时...
    107.173.15.138,107.173* Posted at: 14 days ago
  • #4337 win-pyvideotrans-v3.99-428执行后没生成.mp4文件...
    💬 3
    [Last reply:13 days ago] WebM 格式(通常 VP8/VP9 编码)与 FFmpeg 硬件加速的兼容性较差,即使勾选输出为 MP4,合成阶段也容易因解码器或滤镜链冲突卡死。解决方案(按推荐顺序):禁用硬件解码/编码 打开 菜单 → 工具/选项 → 高级选项:取消勾选 视频合成cuda硬解码取消勾选 主界面 CUDA加速(如果仍在勾选状态) ...
    2a09:bac1* Posted at: 13 days ago
  • #4336 concurrent.futures._base.CancelledError...
    💬 1
    [Last reply:13 days ago] 这是 F5-TTS 配音服务连接或响应异常导致的 CancelledError,通常表示 API 请求被中断或超时。解决方案:检查 F5-TTS 服务是否正在运行,命令行窗口是否被关闭。确认软件中的 API 地址设置正确(默认 http://127.0.0.1:7860),端口没有被其他程序占用。确保参考音频文件放在 ...
    240e:399* Posted at: 13 days ago
  • #4335 requests.exceptions.ProxyError: HTTPSConnectionPool(host='translate.google.com', port=443): Max retries exceeded with ur...
    💬 1
    [Last reply:13 days ago] 错误信息明确指向 Google翻译 因代理不可达导致的连接失败。你的软件中启用了网络代理,但该代理地址无效或被拒绝连接。解决方案(二选一):方案一:关闭代理(推荐,如果你在国内无可用代理)在主界面网络代理地址文本框中,删除已填写的所有内容,保持完全空白。将翻译渠道更换为无需代理的服务,例如:微软翻译、百度翻译、腾讯翻译...
    156.226* Posted at: 13 days ago
  • #4333 在哪能够看到小版本升级的内容...
    💬 2
    [Last reply:14 days ago] 未作记录,有需要直接查看 github 上的简要 commit 日志...
    103.172* Posted at: 14 days ago
  • #4331 如何将这台电脑的pyvideotrans配置完整的移到另一电脑当中的pyvideotrans中...
    💬 1
    [Last reply:14 days ago] 这是通过直接复制软件目录实现的,因为 pyVideoTrans 是绿色免安装软件,不依赖注册表。操作步骤如下:确认旧电脑环境:记下旧电脑上 pyVideoTrans 的解压路径(例如 D:\pyVideoTrans)。复制核心目录:将整个 pyVideoTrans 的根目录文件夹复制到新电脑的同一盘符下(推荐放在非系统...
    2409:8a55* Posted at: 14 days ago
  • #4330 翻译使用deepseek可以支持deepseekv4pro了吗?...
    💬 2
    [Last reply:14 days ago] 菜单 翻译设置 deepseek界面,文本框内自己添加 deepseek-v4-pro 模型,选中使用就行...
    5.34* Posted at: 14 days ago
  • #4329 能否使用ollama安装的本地大模型...
    💬 1
    [Last reply:14 days ago] 可以使用 Ollama 安装的本地大模型作为翻译渠道。 配置方法如下:确保 Ollama 已安装并启动(默认 API 地址 http://localhost:11434/v1)。在 pyVideoTrans 主界面,点击顶部菜单 翻译设置 → 本地大模型设置。翻译渠道选择 兼容AI/本地模型,然后在设置面板中填写:A...
    2409:896d* Posted at: 14 days ago
  • #4328 403, message='Invalid response status', url='wss://speech.platform.bing.com/consumer/speech/synthesize/readaloud/edge/v1...
    💬 1
    [Last reply:14 days ago] 这是由于微软 Edge-TTS 服务临时限流导致的 403 错误,通常因请求频率过高触发。解决方案:点击顶部菜单 工具/选项 → 高级选项。找到 字幕配音调整 区域。将 并发配音线程数 设为 1。将 配音后暂停秒 设为 5 到 10 秒。保存设置后重新执行任务。请查阅相关文档:edge-tts常见错误edgeTTS 配...
    149.52* Posted at: 14 days ago
  • #4327 回答提示:内存或显存不足,使用小点的模型。请问要求什么配置?...
    💬 1
    [Last reply:14 days ago] 这是由显存或内存不足导致的,使用大型模型时对硬件资源有较高要求。硬件配置要求:若使用本地 faster-whisper 的 large-v3 模型,推荐配置:NVIDIA显卡(支持CUDA)且显存 ≥ 10 GB,或系统内存 ≥ 16 GB(不使用GPU加速时)。若使用 medium、small 等较小模型,硬件门槛相...
    2408:8256* Posted at: 14 days ago
  • #4326 onnxruntime.capi.onnxruntime_pybind11_state.RuntimeException: [ONNXRuntimeError] : 6 : RUNTIME_EXCEPTION : Non-zero stat...
    💬 1
    [Last reply:14 days ago] 问题源于 Silero VAD 模型运行时,ONNX Runtime 内存分配失败 (bad allocation)。这通常意味着系统可用内存或显存资源不足。可尝试以下步骤解决:尝试切换 VAD 模型:打开 菜单 - 工具/选项 - 高级选项,在【语音识别参数】区域找到 选择VAD 选项,将其从 silero 切换为 ...
    2408:8256* Posted at: 14 days ago
  • #4325 如何设置可以消除视频中原有字幕?...
    💬 1
    [Last reply:14 days ago] pyVideoTrans 无法消除视频画面中已经存在的硬字幕(烧录在图像上的字幕)。软件只处理音频生成新字幕,不具备视频画面编辑或去水印/去字幕功能。如果原视频字幕是软字幕(独立轨道),可通过不内嵌原语言字幕实现只保留俄语,但无法抹除已编码进画面的文字。如何只输出俄语字幕(不显示汉语)在翻译完成后,设置字幕嵌入方式:若...
    2409:8a1e* Posted at: 14 days ago
  • #4324 TaskCfgSTT(is_cuda=False, uuid='2a756a7671', cache_folder='E:/win-pyvideotrans-v3.99-420/tmp/3840/2a756a7671', target_di...
    💬 1
    [Last reply:14 days ago] 这是内存不足导致的语音识别失败,音频解码后生成的数组太大(约563MB),超出了系统可用内存。解决方法(按推荐顺序尝试):使用更小的模型。当前选用的是 large-v3-turbo,对内存要求较高。请在语音识别渠道右侧将模型更换为 small、base 甚至 tiny。模型越小,内存占用越低。开启 CUDA 加速(如果...
    2408:8256* Posted at: 14 days ago
  • #4323 cli模式生成的视频格式不对,打开提示需要hevc解码器,GUI生成的视频可以正常打开...
    💬 1
    [Last reply:15 days ago] 出现 HEVC 解码器提示,是因为 CLI 模式生成的视频默认采用了 H.265/HEVC 编码,而你的播放环境可能不支持该格式。GUI 模式下你可能在“高级选项”中设置了编码为 H.264,因此播放正常。CLI 模式不会自动读取 GUI 的配置,需要使用参数手动指定编码。可通过以下两种方式解决:在 CLI 命令中强制...
    36.7* Posted at: 15 days ago
  • #4279 为什么语音识别阶段老是识别一半就不干活了?...
    💬 19
    [Last reply:15 days ago] 推荐使用默认值 500 毫秒,这是适用多数场景的平衡值。 该参数决定:检测到多长的连续静音后,才将前后语音切分开。减小值(如 200ms):切分更灵敏,字幕片段可能更碎,但能捕捉稍作停顿的短句。增大值(如 1000ms):切分更迟钝,字幕片段更长,适合连贯叙述,但可能合并本应分开的句子。调节建议:如果识别后字幕断句过...
    240e:355* Posted at: 17 days ago
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource