您需要的是使用 pyVideoTrans 命令行模式(CLI)进行视频翻译的完整命令示例,该命令应包含配音渠道、说话人识别、模型选择等参数的配置。
根据知识库,命令行模式通过 cli.py 调用,核心任务类型为 vtv(视频翻译)。以下是包含您所需参数的完整命令示例:
uv run cli.py --task vtv --name "your_video.mp4" --source_language_code zh --target_language_code en --tts_type 1 --voice_role "en-US-JennyNeural" --enable_diariz True --nums_diariz 2 --recogn_type 0 --model_name "large-v3" --is_cuda True
参数详解:
--task vtv: 指定任务为视频翻译。--name "your_video.mp4": 替换为您的视频文件路径。--source_language_code zh / --target_language_code en: 设置源语言(中文)和目标语言(英语)代码。--tts_type 1: 指定配音渠道类型(例如,1 可能代表 Edge-TTS,具体数值需参考软件内部映射)。--voice_role "en-US-JennyNeural": 指定配音角色(以 Edge-TTS 角色为例)。--enable_diariz True: 启用说话人识别。--nums_diariz 2: 设定预计的说话人数量为 2。--recogn_type 0: 指定语音识别渠道类型(例如,0 可能代表 faster-whisper)。--model_name "large-v3": 指定使用的语音识别模型。--is_cuda True: 启用 CUDA 加速。
重要说明:
- 上述参数(如
tts_type, recogn_type 的具体数值)是示例,您需要根据 videotrans/task/taskcfg.py 文件中的配置类定义或实际软件运行日志来确定准确的参数名和有效值。 - 更多高级参数(如翻译渠道
translate_type、字幕嵌入类型 subtitle_type、是否分离人声 is_separate 等)可根据需要添加。 - 运行前请确保已通过
uv sync 安装好依赖,并正确配置了 FFmpeg 环境变量。
请查阅相关文档: