#1623 TaskCfg(cache_folder=None, target_dir='D:/gogogo/win-pyvideotrans-v3.86/output/translate', remove_noise=False, is_separa

183.229* Posted at: 1 day ago 👁38

翻译字幕阶段出错:[兼容AI/本地模型] 网络连接失败:
Traceback (most recent call last):
File "httpx\_transports\default.py", line 101, in map_httpcore_exceptions
File "httpx\_transports\default.py", line 250, in handle_request
File "httpcore\_sync\connection_pool.py", line 216, in handle_request
File "httpcore\_sync\connection_pool.py", line 196, in handle_request
File "httpcore\_sync\http_proxy.py", line 207, in handle_request
File "httpcore\_sync\connection.py", line 99, in handle_request
File "httpcore\_sync\connection.py", line 76, in handle_request
File "httpcore\_sync\connection.py", line 122, in _connect
File "httpcore\_backends\sync.py", line 205, in connect_tcp
File "contextlib.py", line 153, in exit
File "httpcore\_exceptions.py", line 14, in map_exceptions
httpcore.ConnectError: [WinError 10061] 由于目标计算机积极拒绝,无法连接。

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
File "openai\_base_client.py", line 982, in request
File "httpx\_client.py", line 914, in send
File "httpx\_client.py", line 942, in _send_handling_auth
File "httpx\_client.py", line 979, in _send_handling_redirects
File "httpx\_client.py", line 1014, in _send_single_request
File "httpx\_transports\default.py", line 249, in handle_request
File "contextlib.py", line 153, in exit
File "httpx\_transports\default.py", line 118, in map_httpcore_exceptions
httpx.ConnectError: [WinError 10061] 由于目标计算机积极拒绝,无法连接。

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
File "videotrans\task\job.py", line 184, in run
File "videotrans\task\_translate_srt.py", line 45, in trans
File "videotrans\translator\__init__.py", line 910, in run
File "videotrans\translator\_base.py", line 80, in run
File "tenacity\__init__.py", line 480, in call
File "videotrans\translator\_localllm.py", line 54, in _item_task
File "openai\_utils\_utils.py", line 286, in wrapper
File "openai\resources\chat\completions\completions.py", line 1156, in create
File "openai\_base_client.py", line 1259, in post
File "openai\_base_client.py", line 1014, in request
openai.APIConnectionError: Connection error.

TaskCfg(cache_folder=None, target_dir='D:/gogogo/win-pyvideotrans-v3.86/output/translate', remove_noise=False, is_separate=False, detect_language=None, subtitle_language=None, source_language=None, target_language=None, source_language_code='英语语言', target_language_code='简体中文', source_sub='C:/Users/V/Desktop/11231.srt', target_sub='D:/gogogo/win-pyvideotrans-v3.86/output/translate/11231.简体中文.srt', source_wav=None, source_wav_output=None, target_wav=None, target_wav_output=None, subtitles=None, novoice_mp4=None, noextname='11231', shibie_audio=None, targetdir_mp4=None, instrument=None, vocal=None, back_audio=None, background_music=None, app_mode='biaozhun', subtitle_type=0, volume='+0%', pitch='+0Hz', voice_rate='+0%', voice_role=None, copysrt_rawvideo=False, clear_cache=False, translate_type=8, tts_type=None, recogn_type=None, model_name=None, split_type=0, voice_autorate=False, video_autorate=False, cuda=False, name='C:/Users/V/Desktop/11231.srt', basename='11231.srt', ext='srt', dirname='C:/Users/V/Desktop', shound_del_name=None, uuid='a1f7ce50f7', remove_silent_mid=False, align_sub_audio=True, enable_diariz=False, nums_diariz=0, auto_fix=True)


=
system:Windows-10-10.0.19045-SP0
version:v3.86
frozen:True
language:zh
root_dir:D:/gogogo/win-pyvideotrans-v3.86

9 Replies

这个错误是由于网络连接失败导致的,具体是"由于目标计算机积极拒绝,无法连接"。从日志可以看出您使用的是本地LLM翻译渠道,但软件无法连接到您配置的本地模型服务。

请按以下步骤排查:

  1. 检查本地模型服务是否运行:确保您部署的本地LLM服务(如Ollama、text-generation-webui等)正在运行,并且端口正确。
  2. 验证API地址配置:在软件设置中检查翻译渠道的API地址是否正确。格式应为 http://127.0.0.1:端口号http://localhost:端口号
  3. 检查防火墙设置:确保防火墙没有阻止软件访问本地服务端口。
  4. 测试网络连接:可以尝试在浏览器中访问您配置的API地址,看是否能正常响应。
  5. 切换翻译渠道:如果本地服务暂时无法使用,可以切换到其他翻译渠道如Google翻译、微软翻译等。

从错误信息看,软件尝试连接到您配置的本地LLM服务但被拒绝,最可能的原因是服务未启动或端口配置错误。

修改aPi后正确了 本地翻译srt比较慢 ,模型为本地部署的,
咋回事

本地翻译SRT速度慢主要有以下几个原因和优化方案:

1. 模型性能因素

  • 模型大小:使用的模型参数量越大,推理速度越慢。7B模型比13B/34B模型快很多
  • 硬件限制:CPU推理比GPU慢10倍以上,显存不足会导致频繁交换

2. 软件配置优化

  • 增加批量处理:在高级选项中将"同时翻译字幕数"调高(如10-20行)
  • 关闭完整上下文:如果模型较小,在高级选项中取消勾选"发送完整字幕",改为只发送当前行
  • 调整超时设置:适当增加超时时间避免因单行超时重试

3. 模型部署优化

  • 使用量化版本:加载4bit/8bit量化模型大幅提升速度
  • 启用GPU加速:确保模型运行在GPU上而非CPU
  • 调整推理参数:降低max_new_tokens,使用更简单的采样策略

4. 替代方案

  • 如果对质量要求不高,可切换到传统的Google/微软翻译
  • 或者使用在线AI翻译如DeepSeek、GPT-3.5等速度更快的API

建议先尝试调整批量处理参数,这是最直接的提速方法。

怎么确保模型运行在GPU上而非CPU

要确保本地部署的模型运行在GPU上,请按以下步骤检查和配置:

  1. 检查模型加载配置

    • 在您的模型部署工具(如 Ollama、text-generation-webui、vLLM 等)的启动命令或配置文件中,确认已明确指定使用 GPU。
    • Ollama 示例:运行模型时使用 ollama run <模型名> 通常会自动使用 GPU,但您可以通过 ollama ps 命令查看运行中的模型是否显示 GPU 使用情况。
    • Ollama 特定配置:您可以通过环境变量 CUDA_VISIBLE_DEVICES 强制指定 GPU,例如 CUDA_VISIBLE_DEVICES=0 ollama run qwen2.5:7b
  2. 在 pyVideoTrans 中正确配置 API 地址

    • 在软件主界面,点击 翻译设置
    • 在“翻译渠道”中选择 本地LLM
    • 在“API地址”中,确保填写的是您本地模型服务的 完整地址,例如 http://127.0.0.1:11434 (Ollama 默认端口) 或 http://127.0.0.1:7860 等。
  3. 验证 GPU 是否被模型使用

    • 在模型处理任务时,打开系统的任务管理器(Windows)或使用 nvidia-smi 命令(Linux/Windows)。
    • 观察 GPU 的显存占用和利用率是否有明显增加。如果有,说明模型正在使用 GPU。如果 GPU 闲置而 CPU 占用率很高,则说明模型运行在 CPU 上。
  4. 常见排查点

    • CUDA 驱动:确保已安装与您的 GPU 和 PyTorch 版本兼容的 NVIDIA 显卡驱动和 CUDA Toolkit。
    • PyTorch 版本:确保部署模型的环境安装的是 GPU 版本的 PyTorch (torch 包),而不是 CPU 版本。您可以在 Python 中运行 import torch; print(torch.cuda.is_available()) 来验证,输出 True 则表示环境正常。
    • 显存不足:如果模型过大而显存不足,它可能会自动回退到 CPU 运行。尝试使用更小的模型或量化版本(如 4-bit, 8-bit)。

如果以上步骤确认模型已在 GPU 上运行但速度依然不理想,那么瓶颈可能在于模型本身的大小或您的硬件性能。此时,使用量化模型是提升速度最有效的方法。

任务管理器 看了下运行在gpu上的

既然确认模型运行在GPU上,翻译速度慢的主要原因是模型本身的推理速度限制。以下是针对性的优化方案:1. 调整批量处理参数在软件的高级选项中,找到"字幕翻译调整"区域,将"同时翻译字幕数"从默认值调高到 15-25。这是最直接的提速方法,能减少API调用次数。2. 使用量化模型4-bit量化模型比原始模型快2-3倍,显存占用减少70%。在您的模型部署工具中切换到量化版本,如:Ollama: qwen2.5:7b-q4_K_MLM Studio: 选择带"q4"标志的版本3. 优化模型配置降低生成参数:在模型配置中减少max_tokens、使用greedy采样而非随机采样关闭完整上下文:在pyVideoTrans高级选项中取消勾选"发送完整字幕"4. 硬件层面优化如果使用独立显卡,确保pyVideoTrans中勾选了"Cuda加速"监控GPU利用率:如果未达到90%以上,说明模型未充分利用GPU5. 替代方案如果对翻译质量要求不高,可临时切换到传统翻译渠道(Google/微软)或者使用在线AI翻译(DeepSeek/GPT-3.5)推荐优先尝试调整批量处理参数和使用量化模型,这两项能带来最明显的速度提升。

说错了 运行在cpu上的

问题明确了,模型运行在CPU上导致翻译速度慢。请按以下步骤强制模型使用GPU:1. 检查模型部署环境确认您的模型服务支持GPU:在Python环境中运行以下命令检查CUDA是否可用:`python
import torch
print(torch.cuda.is_available()) # 应该输出True
print(torch.cuda.device_count()) # 应该显示GPU数量
如果输出False,说明需要安装GPU版本的PyTorch。2. 重新启动模型服务并指定GPU对于Ollama:停止当前服务:`ollama serve` 然后按Ctrl+C重新启动并指定GPU:`OLLAMA_HOST=127.0.0.1 OLLAMA_GPUS=1 ollama serve`对于text-generation-webui:启动时添加参数:`python server.py --gpu-layers 100 --n-gpu-layers 100`对于其他框架:在启动命令中添加 `--device cuda:0` 或 `--gpu 0`3. 验证GPU使用重新启动服务后,运行一个测试请求,同时在任务管理器中观察GPU使用情况。如果GPU显存占用增加,说明成功。4. 如果CUDA不可用需要安装GPU版本的PyTorch:pip uninstall torch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121`(根据您的CUDA版本调整cu121)确保安装了NVIDIA显卡驱动和CUDA Toolkit。完成这些步骤后,模型应该会在GPU上运行,翻译速度会有显著提升。

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Donate: https://ko-fi.com/jianchang512

Trending Questions