#4298 补丁包怎么用

67.209* Posted at: 20 days ago 👁90

补丁包怎么用

21 Replies

补丁包仅包含更新文件,无法独立运行,必须配合完整包使用。

正确使用步骤:

  1. 先从官网下载并解压 完整软件包(确保此目录能正常运行)。
  2. 下载 最新的补丁包(.7z),将其解压。
  3. 将解压出的所有文件 复制并覆盖 到完整包的根目录(即 sp.exe 所在目录),看到同名文件直接覆盖。

请注意:文件路径不要包含中文或特殊符号,覆盖后双击 sp.exe 启动即可。

请查阅相关文档:


Application started at 2026-04-26 18:39:48

First searching GPU...
[DEBUG] 骞冲彴: Windows銆傛鍦ㄦ寜浼樺厛绾ф娴嬫渶浣崇殑 'h264' 缂栫爜鍣? ['nvenc', 'qsv', 'amf']
[DEBUG] 姝e湪娴嬭瘯缂栫爜鍣ㄦ槸鍚﹀彲鐢? h264_nvenc...
NVIDIA_GPU_NUMS=1
Found 1 GPUs, cost=3s
start workers...
process_max_gpu=1
multi_gpus=False
Concurrent task_nums=1
process_max=1
start 9 jobs
ended workers
[DEBUG] 纭欢缂栫爜鍣?'h264_nvenc' 鍙敤銆?
[DEBUG] 宸查€夋嫨纭欢缂栫爜鍣? h264_nvenc
[DEBUG] 鏈€缁堢‘瀹氫娇鐢ㄧ殑缂栫爜鍣? h264_nvenc
[DEBUG] 骞冲彴: Windows銆傛鍦ㄦ寜浼樺厛绾ф娴嬫渶浣崇殑 'hevc' 缂栫爜鍣? ['nvenc', 'qsv', 'amf']
[DEBUG] 姝e湪娴嬭瘯缂栫爜鍣ㄦ槸鍚﹀彲鐢? hevc_nvenc...
[DEBUG] 纭欢缂栫爜鍣?'hevc_nvenc' 鍙敤銆?
[DEBUG] 宸查€夋嫨纭欢缂栫爜鍣? hevc_nvenc
[DEBUG] 鏈€缁堢‘瀹氫娇鐢ㄧ殑缂栫爜鍣? hevc_nvenc
绛夊緟 uuid_signal 绾跨▼閫€鍑?
姝e湪绛夊緟绾跨▼ PrepareVideo 缁撴潫...
姝e湪绛夊緟绾跨▼ SpeechToText 缁撴潫...
姝e湪绛夊緟绾跨▼ DiarizSpeaker 缁撴潫...
姝e湪绛夊緟绾跨▼ TranslationSRT 缁撴潫...
姝e湪绛夊緟绾跨▼ DubbingSrt 缁撴潫...
姝e湪绛夊緟绾跨▼ SpeechToText2 缁撴潫...
姝e湪绛夊緟绾跨▼ AlignVieoAudioSrt 缁撴潫...
姝e湪绛夊緟绾跨▼ AssembVideoAudioSrt 缁撴潫...
姝e湪绛夊緟绾跨▼ TaskDone 缁撴潫...
Successfully killed ffmpeg processes using taskkill


Application started at 2026-04-26 18:44:08

First searching GPU...
[DEBUG] 杩斿洖缂撳瓨鐨勭紪瑙g爜鍣?Windows-264: h264_nvenc
[DEBUG] 杩斿洖缂撳瓨鐨勭紪瑙g爜鍣?Windows-265: hevc_nvenc
NVIDIA_GPU_NUMS=1
Found 1 GPUs, cost=2s
start workers...
process_max_gpu=1
multi_gpus=False
Concurrent task_nums=1
process_max=1
start 9 jobs
ended workers
self.trans_thread=50,self.aisendsrt=True,self.translate_type=4
[DEBUG] [deepseek]鍝嶅簲:response=ChatCompletion(id='4a20aa7a-5c15-42c4-b4be-938d31f1c058', choices=[Choice(finish_reason='stop', index=0, logprobs=None, message=ChatCompletionMessage(content='\n1\n00:00:00,000 --> 00:00:05,000\nHey there, my friend.\n', refusal=None, role='assistant', annotations=None, audio=None, function_call=None, tool_calls=None))], created=1777200285, model='deepseek-v4-flash', object='chat.completion', service_tier=None, system_fingerprint='fp_058df29938_prod0820_fp8_kvcache_20260402', usage=CompletionUsage(completion_tokens=37, prompt_tokens=852, total_tokens=889, completion_tokens_details=None, prompt_tokens_details=PromptTokensDetails(audio_tokens=None, cached_tokens=768), prompt_cache_hit_tokens=768, prompt_cache_miss_tokens=84))
[DEBUG] 鎸塖RT鏍煎紡缈昏瘧锛屽師濮嬪瓧骞曡鏁帮細1,鏁寸悊涓簂ist[dict]鍚庣殑琛屾暟:1
[DEBUG] [瀛楀箷缈昏瘧]娓犻亾4,deepseek-chat:鍏辫€楁椂:1s
text=[{'line': 1, 'start_time': 0, 'end_time': 5000, 'text': 'Hey there, my friend.', 'startraw': '00:00:00,000', 'endraw': '00:00:05,000', 'time': '00:00:00,000 --> 00:00:05,000'}]
[DEBUG] 鏈EdgeTTS閰嶉煶锛氶噸璇曞欢杩?5,鍑洪敊灏嗛噸璇?4,骞跺彂:10
[DEBUG] 鎵ц娴佺▼锛氭墍鏈夐厤闊充换鍔$粨鏉熴€?
[DEBUG] 寮€濮嬫墽琛屼簨浠跺惊鐜殑鍏抽棴娴佺▼...
[DEBUG] 浜嬩欢寰幆宸插叧闂€?
[DEBUG] [瀛楀箷閰嶉煶]娓犻亾0:鍏辫€楁椂:3s
[DEBUG] 鏈€缁堥厤缃俊鎭細self.cfg=TaskCfgVTT(is_cuda=True, uuid='a1b0f91774', cache_folder='E:/py_backup/tmp/14764/a1b0f91774', target_dir='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4', source_language='鑻辫', source_language_code='en', source_sub='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4/en.srt', source_wav='E:/py_backup/tmp/14764/a1b0f91774/en.wav', source_wav_output='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4/en.m4a', target_language='绠€浣撲腑鏂?, target_language_code='zh-cn', target_sub='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4/zh-cn.srt', target_wav='E:/py_backup/tmp/14764/a1b0f91774/target.wav', target_wav_output='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4/zh-cn.m4a', name='G:/ICT/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1.mp4', noextname='ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1', basename='ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1.mp4', ext='mp4', dirname='G:/ICT/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪', shound_del_name=None, translate_type=4, tts_type=0, volume='+0%', pitch='+0Hz', voice_rate='+0%', voice_role='Yunjian(Male/CN)', voice_autorate=True, video_autorate=False, remove_silent_mid=False, align_sub_audio=True, detect_language='en', recogn_type=0, model_name='large-v3-turbo', shibie_audio=None, remove_noise=False, enable_diariz=False, nums_diariz=0, rephrase=0, fix_punc=False, subtitle_language=None, app_mode='biaozhun', subtitles='', targetdir_mp4='G:/ICT缈昏瘧/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1-mp4/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1.mp4', novoice_mp4='E:/py_backup/tmp/14764/a1b0f91774/novoice.mp4', is_separate=True, embed_bgm=True, instrument=None, vocal=None, back_audio='', clear_cache=True, background_music=None, subtitle_type=1, only_out_mp4=False, recogn2pass=True, output_srt=0, copysrt_rawvideo=False)
[DEBUG] [FFMPEG-CMD]:
ffmpeg -hide_banner -nostdin -ignore_unknown -threads 0 -y -fflags +genpts -i G:/ICT/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡绯诲垪/ICT澶栨眹渚﹀療鐙欏嚮鎵嬪熀纭€瀹炴垬鎸囧崡 - 1.mp4 -an -c:v copy novoice.mp4

[DEBUG] [鏂拌繘绋嬫墽琛屼换鍔:姝e湪鍒嗙浜哄0鍜岃儗鏅煶锛屽彲鑳借€楁椂杈冧箙
[DEBUG] CPU杩涚▼姹?max_workers=1
这个CUDA在运行吗?

CUDA 加速正在运行。日志显示已检测到 1 个 NVIDIA GPU,并成功启用了硬件编码器 h264_nvenchevc_nvenc,同时任务配置中 is_cuda=True,表明语音识别和视频合成均会调用 GPU 加速。

但是我的cpu占用率达到70%

CPU 占用率达到 70% 属于正常现象。视频翻译流程中,只有“语音识别”阶段会大量调用 GPU 进行运算;后续的“字幕翻译”、“语音合成 (Edge-TTS)”、“音画对齐”、“视频合成”以及你启用的“分离人声背景声”等步骤主要依赖 CPU。因此,GPU 参与程度不高,CPU 会承担主要计算负载,占用率上升是预期行为。

如果希望降低 CPU 负载,可尝试:

  1. 在菜单 → 工具/选项 → 高级选项 → 通用设置中,适当减小 最大进程数并发配音线程数 (例如设为 2)。
  2. 若未使用声音克隆,可暂时关闭“分离人声背景声”以减轻 CPU 压力。

请查阅相关文档:

我翻译视频可以关闭声音克隆吗

可以关闭。声音克隆功能是可选功能,仅在配音角色中选择以 clone 开头的角色时才会启用。如果不需要克隆原视频说话人的音色,只需在“配音角色”下拉列表中,选择未标注 clone 的普通角色(如 Edge-TTS 的中文发音人)即可,不影响视频翻译的其他流程。另外,如果之前因为选择了克隆角色而开启了“分离人声背景声”,取消克隆角色后,建议同步关闭该选项以降低 CPU 占用。

[ERROR] 人声背景声分离失败:Traceback (most recent call last):
File "videotrans\process\prepare_audio.py", line 72, in vocal_bgm
File "videotrans\process\prepare_audio.py", line 53, in create_offline_source_separation
ValueError: Please check your config.
Traceback (most recent call last):
File "videotrans\task\trans_create.py", line 963, in _split_audio_byraw
File "videotrans\configure\_base.py", line 289, in _new_process
RuntimeError: Traceback (most recent call last):
File "videotrans\process\prepare_audio.py", line 72, in vocal_bgm
File "videotrans\process\prepare_audio.py", line 53, in create_offline_source_separation
ValueError: Please check your config.

人声背景声分离失败,提示“Please check your config”,通常是所使用的分离模型配置不正确或模型文件缺失导致。请尝试以下操作:关闭“分离人声背景声”选项,因为该功能并非视频翻译的必要步骤。如果仍需使用,检查 高级选项 -> 通用设置 中的 分离背景声模型 是否已正确选择,并确保对应模型文件已完整下载至 models 目录。可尝试切换为其他可用的分离模型。若问题依然存在,可能是环境问题,建议暂时关闭此功能以完成翻译。

二次语音识别开启和不开启有什么区别

开启二次识别:在配音完成后,软件会对生成的配音音频再次进行语音识别,产生一套时间轴与配音严格对齐的字幕。这能确保最终嵌入视频的字幕与配音的起止时间精准同步,避免字幕与声音错位。不开启:直接使用翻译阶段生成的字幕时间轴来合成视频,由于翻译前后的语言语速差异,字幕显示时长可能与配音不匹配,导致不同步。建议在需要嵌入字幕时开启此选项,尤其是在启用配音加速或视频慢速时。注意:开启二次识别会增加处理时间和显存/内存消耗。

会增加多长时间

开启二次识别会增加一次完整的语音识别流程,耗时大约相当于第一阶段语音识别的时间。具体时长取决于配音音频的长度以及所选用的模型。例如,若第一阶段使用 faster-whisper large-v3 模型识别原视频语音花了 5 分钟,那么二次识别对配音文件的识别也需要类似的 5 分钟左右。若使用小模型或较短音频,耗时会更少。如果不追求字幕与配音的严格对齐,关闭该选项可节省大量时间和显存。

要是用api语音识别呢

开启二次识别时,如果第一阶段使用的是 API 语音识别(如 OpenAI、字节火山等),增加的时间仍然是重新完整调用一次 API 进行转录的时间。由于 API 通常不占用本地 CPU 和 GPU,且运算速度通常比本地大型模型快很多,实际增加的耗时通常很短(可能几十秒或稍长),主要取决于配音音频时长和 API 服务的网络响应速度。相比本地大型模型,API 模式下的额外时间开销对整体任务影响不大。

CUDA在那些阶段起效

CUDA 加速主要在本地语音识别阶段发挥作用,用于加快 faster-whisper、openai-whisper、Qwen-ASR 等模型的推理速度。此外,在 视频合成阶段,如果启用了硬件编码器(如 h264_nvenc、hevc_nvenc),也会调用 GPU 的专用编码块(NVENC)来加速编码过程。其他步骤(字幕翻译、Edge-TTS 配音、人声分离等)均主要依赖 CPU,不会明显使用 GPU 的 CUDA 核心运算。

开启视频慢速会增加多长时间

开启视频慢速后,处理时间会显著增加,通常为不开启时的数倍以上,具体耗时取决于视频长度和需要降速处理的片段数量。该功能会将视频按字幕切割成无数小片段,对每个片段独立进行降速、重编码,最后再合并,这一过程完全依赖 CPU 运算,且会生成超过原视频体积数倍的临时文件,进一步拖慢进度。如果并非强制要求画面与原配音绝对同步,建议仅启用“配音加速”和“二次识别”来对齐。若非用不可,务必确保系统盘和输出目录有足够剩余空间。

怎么新版软件感觉速度慢

若感觉新版软件处理速度变慢,通常与默认配置或功能开启状态有关,并非软件本身降速。可尝试以下优化:

  1. 检查是否开启了“二次识别”、“视频慢速”或“分离人声背景声”,这些功能会显著增加处理耗时,非必要时建议关闭。
  2. 在菜单 → 工具/选项 → 高级选项 → 通用设置中,适当增大最大进程数(不超过CPU核数-1),并将并发配音线程数设为较高值(如 4-8),但需注意 API 限流。
  3. 语音识别若使用本地模型,确认已勾选“CUDA 加速”,并检查驱动与 CUDA 版本是否匹配。模型选择上,large-v3-turbo 速度优于 large-v3,同等效果下优先选用。
  4. 确保视频文件存放路径简短且不含特殊符号或中文,避免因路径过长导致 FFmpeg 处理异常变慢。

若以上调整后仍觉异常,可提取 logs 目录最新日志末尾报错内容进一步分析。

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource