-
#4338 whisper语音识别问题...
💬 3[Last reply:54 seconds ago] 断句修正慢是因为开启了“Whisper预分割音频”以及可能设置了较小的语音分割参数,导致模型对音频进行多次切割和重新组织,耗费大量时间。根据日志,已使用 large-v3-turbo 模型并开启 CUDA,但未看到明确的预分割设置,不过处理方法仍是按需调整。解决方案:禁用音频预分割 进入 菜单 → 工具/选项 → 高...112.22* Posted at: 26 minutes ago -
#4337 win-pyvideotrans-v3.99-428执行后没生成.mp4文件...
💬 3[Last reply:1 hour ago] WebM 格式(通常 VP8/VP9 编码)与 FFmpeg 硬件加速的兼容性较差,即使勾选输出为 MP4,合成阶段也容易因解码器或滤镜链冲突卡死。解决方案(按推荐顺序):禁用硬件解码/编码 打开 菜单 → 工具/选项 → 高级选项:取消勾选 视频合成cuda硬解码取消勾选 主界面 CUDA加速(如果仍在勾选状态) ...2a09:bac1* Posted at: 1 hour ago -
#4336 concurrent.futures._base.CancelledError...
💬 1[Last reply:1 hour ago] 这是 F5-TTS 配音服务连接或响应异常导致的 CancelledError,通常表示 API 请求被中断或超时。解决方案:检查 F5-TTS 服务是否正在运行,命令行窗口是否被关闭。确认软件中的 API 地址设置正确(默认 http://127.0.0.1:7860),端口没有被其他程序占用。确保参考音频文件放在 ...240e:399* Posted at: 1 hour ago -
#4335 requests.exceptions.ProxyError: HTTPSConnectionPool(host='translate.google.com', port=443): Max retries exceeded with ur...
💬 1[Last reply:2 hours ago] 错误信息明确指向 Google翻译 因代理不可达导致的连接失败。你的软件中启用了网络代理,但该代理地址无效或被拒绝连接。解决方案(二选一):方案一:关闭代理(推荐,如果你在国内无可用代理)在主界面网络代理地址文本框中,删除已填写的所有内容,保持完全空白。将翻译渠道更换为无需代理的服务,例如:微软翻译、百度翻译、腾讯翻译...156.226* Posted at: 2 hours ago -
#4334 工具/选项中的“实时语音转文字”功能时报错...
💬 5[Last reply:18 hours ago] 此错误仍是因为 sherpa_onnx 组件版本不匹配。若已下载新版但直接覆盖安装,残留的旧文件仍会导致同样问题。完全删除当前安装目录(G:\pyVideoTrans)。从 pyvideotrans.com/downpackage 重新下载最新的完整包(v3.99+)。将压缩包解压到一个全新的、不含中文和空格的文件夹(...107.173.15.138,107.173* Posted at: 18 hours ago -
#4333 在哪能够看到小版本升级的内容...
💬 2[Last reply:19 hours ago] 未作记录,有需要直接查看 github 上的简要 commit 日志...103.172* Posted at: 20 hours ago -
#4332 最短语音持续毫秒3000,最长语音持续秒数10,静音分割持续毫秒140,这个配置可以使语音识别出的句子都是完整的,但每行字幕会很长,有没有什么方法,比如通过提示词,将识别出的原始字幕可以按标点断句?...
💬 4[Last reply:19 hours ago] 打开软件目录/videotrans/prompts/recharge/recharge-llm.txt 可自行修改LLM重新短句提示词,修改前自行备份。重新短句效果完全依赖于使用的模型智能...2409:8a55* Posted at: 20 hours ago -
#4331 如何将这台电脑的pyvideotrans配置完整的移到另一电脑当中的pyvideotrans中...
💬 1[Last reply:20 hours ago] 这是通过直接复制软件目录实现的,因为 pyVideoTrans 是绿色免安装软件,不依赖注册表。操作步骤如下:确认旧电脑环境:记下旧电脑上 pyVideoTrans 的解压路径(例如 D:\pyVideoTrans)。复制核心目录:将整个 pyVideoTrans 的根目录文件夹复制到新电脑的同一盘符下(推荐放在非系统...2409:8a55* Posted at: 20 hours ago -
#4330 翻译使用deepseek可以支持deepseekv4pro了吗?...
💬 2[Last reply:22 hours ago] 菜单 翻译设置 deepseek界面,文本框内自己添加 deepseek-v4-pro 模型,选中使用就行...5.34* Posted at: 23 hours ago -
#4329 能否使用ollama安装的本地大模型...
💬 1[Last reply:1 day ago] 可以使用 Ollama 安装的本地大模型作为翻译渠道。 配置方法如下:确保 Ollama 已安装并启动(默认 API 地址 http://localhost:11434/v1)。在 pyVideoTrans 主界面,点击顶部菜单 翻译设置 → 本地大模型设置。翻译渠道选择 兼容AI/本地模型,然后在设置面板中填写:A...2409:896d* Posted at: 1 day ago -
#4328 403, message='Invalid response status', url='wss://speech.platform.bing.com/consumer/speech/synthesize/readaloud/edge/v1...
💬 1[Last reply:1 day ago] 这是由于微软 Edge-TTS 服务临时限流导致的 403 错误,通常因请求频率过高触发。解决方案:点击顶部菜单 工具/选项 → 高级选项。找到 字幕配音调整 区域。将 并发配音线程数 设为 1。将 配音后暂停秒 设为 5 到 10 秒。保存设置后重新执行任务。请查阅相关文档:edge-tts常见错误edgeTTS 配...149.52* Posted at: 1 day ago -
#4327 回答提示:内存或显存不足,使用小点的模型。请问要求什么配置?...
💬 1[Last reply:1 day ago] 这是由显存或内存不足导致的,使用大型模型时对硬件资源有较高要求。硬件配置要求:若使用本地 faster-whisper 的 large-v3 模型,推荐配置:NVIDIA显卡(支持CUDA)且显存 ≥ 10 GB,或系统内存 ≥ 16 GB(不使用GPU加速时)。若使用 medium、small 等较小模型,硬件门槛相...2408:8256* Posted at: 1 day ago -
#4326 onnxruntime.capi.onnxruntime_pybind11_state.RuntimeException: [ONNXRuntimeError] : 6 : RUNTIME_EXCEPTION : Non-zero stat...
💬 1[Last reply:1 day ago] 问题源于 Silero VAD 模型运行时,ONNX Runtime 内存分配失败 (bad allocation)。这通常意味着系统可用内存或显存资源不足。可尝试以下步骤解决:尝试切换 VAD 模型:打开 菜单 - 工具/选项 - 高级选项,在【语音识别参数】区域找到 选择VAD 选项,将其从 silero 切换为 ...2408:8256* Posted at: 1 day ago -
#4325 如何设置可以消除视频中原有字幕?...
💬 1[Last reply:1 day ago] pyVideoTrans 无法消除视频画面中已经存在的硬字幕(烧录在图像上的字幕)。软件只处理音频生成新字幕,不具备视频画面编辑或去水印/去字幕功能。如果原视频字幕是软字幕(独立轨道),可通过不内嵌原语言字幕实现只保留俄语,但无法抹除已编码进画面的文字。如何只输出俄语字幕(不显示汉语)在翻译完成后,设置字幕嵌入方式:若...2409:8a1e* Posted at: 1 day ago -
#4324 TaskCfgSTT(is_cuda=False, uuid='2a756a7671', cache_folder='E:/win-pyvideotrans-v3.99-420/tmp/3840/2a756a7671', target_di...
💬 1[Last reply:1 day ago] 这是内存不足导致的语音识别失败,音频解码后生成的数组太大(约563MB),超出了系统可用内存。解决方法(按推荐顺序尝试):使用更小的模型。当前选用的是 large-v3-turbo,对内存要求较高。请在语音识别渠道右侧将模型更换为 small、base 甚至 tiny。模型越小,内存占用越低。开启 CUDA 加速(如果...2408:8256* Posted at: 1 day ago -
#4323 cli模式生成的视频格式不对,打开提示需要hevc解码器,GUI生成的视频可以正常打开...
💬 1[Last reply:1 day ago] 出现 HEVC 解码器提示,是因为 CLI 模式生成的视频默认采用了 H.265/HEVC 编码,而你的播放环境可能不支持该格式。GUI 模式下你可能在“高级选项”中设置了编码为 H.264,因此播放正常。CLI 模式不会自动读取 GUI 的配置,需要使用参数手动指定编码。可通过以下两种方式解决:在 CLI 命令中强制...36.7* Posted at: 1 day ago -
#4279 为什么语音识别阶段老是识别一半就不干活了?...
💬 19[Last reply:1 day ago] 推荐使用默认值 500 毫秒,这是适用多数场景的平衡值。 该参数决定:检测到多长的连续静音后,才将前后语音切分开。减小值(如 200ms):切分更灵敏,字幕片段可能更碎,但能捕捉稍作停顿的短句。增大值(如 1000ms):切分更迟钝,字幕片段更长,适合连贯叙述,但可能合并本应分开的句子。调节建议:如果识别后字幕断句过...240e:355* Posted at: 3 days ago -
#4322 TaskCfgVTT(is_cuda=True, uuid='addc14beda', cache_folder='F:/win-pyvideotrans-v3.99-418/tmp/13256/addc14beda', target_di...
💬 1[Last reply:1 day ago] 这是由于 CUDA 环境异常导致的语音识别启动失败,常见原因包括 CUDA/cuDNN 版本不匹配、驱动过旧或显存不足。解决步骤:检查 CUDA 和 cuDNN 版本:软件需要 CUDA 12.8 和 cuDNN 9.11 或更高版本。在命令行执行 nvcc -V 和 nvidia-smi 确认。若不满足,请参照文档重...220.246* Posted at: 1 day ago -
#4321 RuntimeError: Translation successful but transfer failed....
💬 1[Last reply:1 day ago] 这是因为 Windows 系统权限限制导致软件无法将生成的文件复制到指定路径,可能的目标文件被占用、用户权限不足或输出目录被保护。解决方案:检查目标文件 F:/Youtube/Tubedown Download/2026-04-26/PolyPaint/_video_out/07-mp4/07.mp4 是否正被其他程序...2409:8a55* Posted at: 1 day ago -
#4298 补丁包怎么用...
💬 21[Last reply:1 day ago] 若感觉新版软件处理速度变慢,通常与默认配置或功能开启状态有关,并非软件本身降速。可尝试以下优化:检查是否开启了“二次识别”、“视频慢速”或“分离人声背景声”,这些功能会显著增加处理耗时,非必要时建议关闭。在菜单 → 工具/选项 → 高级选项 → 通用设置中,适当增大最大进程数(不超过CPU核数-1),并将并发配音线程数...67.209* Posted at: 3 days ago
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.