#4119 ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。

194.156* Posted at: 3 hours ago 👁30

网络连接失败
Traceback (most recent call last):
File "videotrans\task\_only_one.py", line 44, in run
File "videotrans\task\trans_create.py", line 360, in recogn
File "videotrans\recognition\__init__.py", line 233, in run
File "videotrans\recognition\_base.py", line 143, in run
File "tenacity\__init__.py", line 338, in wrapped_f
File "tenacity\__init__.py", line 477, in call
File "tenacity\__init__.py", line 378, in iter
File "tenacity\__init__.py", line 400, in
File "concurrent\futures\_base.py", line 451, in result
File "concurrent\futures\_base.py", line 403, in __get_result
File "tenacity\__init__.py", line 480, in call
File "videotrans\recognition\_google.py", line 62, in _exec
File "speech_recognition\__init__.py", line 713, in recognize_google
File "http\client.py", line 460, in read
File "http\client.py", line 592, in _read_chunked
File "http\client.py", line 631, in _safe_read
File "socket.py", line 717, in readinto
ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。


=
system:Windows-10-10.0.26200-SP0
version:v3.99
frozen:True
language:zh
root_dir:C:/win-pyvideotrans-v3.99

17 Replies

这是由于网络连接不稳定或被远程服务器强制断开导致的。你正在使用 Google 语音识别渠道,该服务在中国大陆地区无法直接访问,必须配置网络代理。

解决方案:

  1. 配置网络代理:在软件主界面的“网络代理地址”文本框中,填入你的代理服务地址(格式如 http://127.0.0.1:10808,端口号需根据你的代理客户端设置填写)。
  2. 切换识别渠道:如果无法使用代理,建议更换为无需代理的本地语音识别渠道,例如 faster-whisper(本地)Qwen-ASR(本地)(针对中文视频)。
  3. 检查代理稳定性:确保你的代理服务运行正常且网络连接稳定。

如果问题持续,请尝试以下步骤:

  • 在“菜单-工具-高级选项”中,尝试降低“语音识别参数”中的“最长语音持续秒数”,以减少单次请求的数据量。
  • 如果使用本地模型(如 faster-whisper),请确保模型已正确下载到 models/ 目录下。

请查阅相关文档:

我有开梯子的全部代理模式啊

即使开启了全局代理,pyVideoTrans 软件本身可能并未通过你的代理进行网络连接。你需要手动在软件中配置代理地址。解决方案:在软件主界面的“网络代理地址”文本框中,填入你的代理服务地址。格式通常为 http://127.0.0.1:端口号(例如 http://127.0.0.1:10809)。请根据你梯子软件显示的本地代理端口号进行填写。如果问题依旧,请检查:你的梯子软件是否允许本地应用程序(如 pyVideoTrans)通过其代理。尝试暂时关闭防火墙或杀毒软件,看是否是它们阻止了连接。如果配置代理后仍然失败,建议直接切换到本地语音识别渠道(如 faster-whisper(本地)),以避免网络问题。请查阅相关文档:网络代理地址语音识别模型分类与说明

是开起梯子的tun模式吗

是的,开启梯子的 TUN 模式(或 TAP 模式、虚拟网卡模式)通常可以实现系统级的全局代理,理论上所有网络流量都应通过代理。但根据你的报错信息(远程主机强制关闭连接),问题可能在于:Google 语音识别服务本身对代理连接不稳定或存在限制。即使流量走了代理,Google 服务器也可能因频繁请求、IP 被标记等原因主动断开连接。解决方案:在 pyVideoTrans 中明确配置代理地址:在主界面的“网络代理地址”文本框中,填入你的梯子软件提供的本地 HTTP/SOCKS5 代理地址和端口(例如 http://127.0.0.1:7890)。这能确保软件明确使用该代理通道。切换识别渠道:这是最直接的解决方案。建议使用本地识别渠道,如 faster-whisper(本地) 或 Qwen-ASR(本地),完全避免网络问题。调整高级设置:在“菜单-工具-高级选项”中,尝试将“语音识别参数”中的“最长语音持续秒数”调小(例如设为 3),以减少单次请求的数据量,可能提升连接稳定性。请查阅相关文档:网络代理地址语音识别模型分类与说明

我是dell学生电脑怎么快一点生成将音频英文说话快速的转换成中文说话

要加快处理速度,核心是启用 GPU 加速并使用本地模型,避免依赖网络服务。针对你的 Dell 学生电脑,请按以下步骤优化:

  1. 确认并启用 CUDA 加速

    • 检查你的 Dell 电脑是否有 NVIDIA 显卡。在 CMD 中输入 nvidia-smi 查看。
    • 如果有 NVIDIA 显卡,请确保已安装 CUDA 12.8cuDNN 9.x 或更高版本。
    • 在软件主界面右上角,务必勾选 CUDA加速
  2. 选择高效的本地语音识别模型

    • 在“语音识别”下拉菜单中,选择 faster-whisper(本地)
    • 在右侧模型选择中,根据你的显卡显存选择模型:

      • 如果显存 >= 10GB,选择 large-v3(效果最好)。
      • 如果显存 4-8GB,选择 mediumsmall
      • 如果显存很小或无独立显卡,选择 basetiny(速度最快,但准确率较低)。
  3. 选择高效的本地翻译和配音渠道

    • 翻译渠道:如果追求速度且对质量要求不高,可使用“微软翻译”(无需代理)。如果追求质量,建议配置 DeepSeekGPT 等 AI 翻译渠道(需网络和 API Key)。
    • 配音渠道:选择 Edge-TTS(免费)。这是免费的微软配音渠道,支持所有语言,速度较快。
  4. 调整高级设置以优化速度

    • 打开 菜单 -> 工具/选项 -> 高级选项
    • 语音识别参数区域:

      • CUDA数据类型:如果显存紧张,可尝试改为 int8(速度最快,精度略低)或 float16
      • 识别准确度beam_size识别准确度best_of:均设为 1(速度最快,消耗显存最低)。
      • 启用上下文感知:取消勾选(可节省显存,加快速度)。
    • 字幕配音调整区域:

      • 并发配音线程数:可适当增加(如 2 或 3),但注意 Edge-TTS 限流,建议保持为 1 并将 配音后暂停秒 设为 3-5。
  5. 确保模型已本地下载

    • 首次使用 faster-whisper 模型时会在线下载。如果网络慢,可手动下载模型文件到 软件目录/models/ 下对应的文件夹中(例如 models--Systran--faster-whisper-large-v3)。

总结最快配置方案

  • 语音识别faster-whisper(本地) + smallmedium 模型 + 勾选 CUDA 加速
  • 翻译微软翻译(免费,无需代理,速度尚可)或配置好的 DeepSeek(质量更好)。
  • 配音Edge-TTS(免费)
  • 关键步骤:在高级选项中降低识别精度参数(beam_size=1, best_of=1)。

如果你的电脑没有 NVIDIA 显卡,则无法使用 CUDA 加速,处理速度会慢很多。此时只能依赖 CPU,建议使用最小的 tiny 模型,并耐心等待。

请查阅相关文档:

具体怎么看nvidia-smi这个怎么输入给电脑具体的过程

在 Windows 系统上,通过以下步骤查看 nvidia-smi 信息:1. 打开命令提示符(CMD): 按下键盘上的 Win + R 键,打开“运行”对话框。 输入 cmd,然后按回车键。2. 在打开的黑底白字的命令提示符窗口中,直接输入 nvidia-smi,然后按回车键。3. 查看结果: 如果系统正确安装了 NVIDIA 显卡驱动,会显示一个表格,包含显卡型号、驱动版本、CUDA 版本、显存使用情况等信息。 如果显示“不是内部或外部命令,也不是可运行的程序”,则表明你的电脑可能没有 NVIDIA 显卡,或者显卡驱动未正确安装。根据 nvidia-smi 的结果决定下一步:如果显示了显卡信息(例如有 GeForce RTX 系列显卡):请检查表格中显示的 CUDA Version。软件要求 CUDA 12.8。如果你的版本低于此(例如 11.x),需要升级驱动或安装 CUDA 工具包。然后,在软件主界面右上角勾选 CUDA加速如果未显示显卡信息或提示命令不存在:你的电脑很可能没有 NVIDIA 独立显卡(可能是 Intel 集成显卡或 AMD 显卡)。这意味着你无法使用 CUDA 加速。在这种情况下,处理速度会慢很多。优化建议:在软件中不要勾选 CUDA加速。使用最小的语音识别模型(如 faster-whisper-tiny)。使用 Edge-TTS 等无需本地 GPU 计算的配音渠道。请查阅相关文档:Windows系统安装CUDA和cuDNN

我的电脑没有显示说是cuda
为什么我在语音识别过程非常卡顿

你的电脑没有显示 CUDA,说明没有 NVIDIA 显卡或未安装驱动,因此无法使用 GPU 加速。语音识别过程完全依赖 CPU 计算,这是导致卡顿的根本原因。解决方案:使用更小的语音识别模型:在“语音识别”下拉菜单中,选择 faster-whisper(本地)。在右侧模型选择中,务必选择 tiny 或 base 模型。这是速度最快、对 CPU 负担最小的模型。调整高级设置以降低 CPU 负载:打开 菜单 -> 工具/选项 -> 高级选项。在“语音识别参数”区域进行如下设置:CUDA数据类型:保持为 default 或选择 int8(如果选项可用)。识别准确度beam_size:设为 1。识别准确度best_of:设为 1。启用上下文感知:取消勾选。最长语音持续秒数:设为 3 或 4,减少单次处理的数据量。确保未勾选 CUDA 加速:在主界面右上角,确认 CUDA加速 复选框未被勾选。考虑使用其他无需本地计算的识别渠道(如果网络通畅):如果你的网络稳定且可以访问,可以尝试使用在线识别渠道,如 Gemini 语音识别 或 OpenAI 语音识别API,将计算负载转移到服务器。但请注意,这需要网络代理和 API 密钥。处理时保持耐心:使用 CPU 处理,尤其是较长的音频,速度会慢很多。请耐心等待,避免在任务运行时进行其他高负载操作。请查阅相关文档:faster-whisper(本地)语音识别渠道总是提示显存不足(CPU模式参考此文档调整参数)

faster-whisper要怎么配置
我是小白一步一步教我

以下是针对小白的 faster-whisper 配置步骤,从零开始:第一步:下载并解压软件前往官网下载完整软件包:pyvideotrans.com/downpackage下载名为 win-pyvideotrans-v3.99.7z 的文件(或类似的最新完整版)。使用解压软件(如 7-Zip)将其解压到一个简单的英文路径下,例如 D:\pyVideoTrans。确保路径中没有中文和特殊符号。第二步:启动软件并进入主界面双击解压文件夹内的 sp.exe 文件启动软件。首次启动可能需要几十秒加载,请耐心等待。软件打开后,默认显示的就是“翻译视频或音频”主界面。第三步:配置 faster-whisper 语音识别在主界面找到“语音识别”这一行。点击下拉菜单,选择 faster-whisper(本地)。在右侧的下拉菜单中,选择模型。根据你的电脑配置(无 NVIDIA 显卡):为了速度,请选择 tinybase 模型。tiny 最快但准确度最低,base 稍好一些。在“发音语言”下拉菜单中,根据你的视频/音频中人物实际说的语言选择。如果是英文,选择“英语”。在主界面右上角,确认 CUDA加速 复选框没有打勾(因为你的电脑没有 NVIDIA 显卡)。第四步:(可选但推荐)调整高级参数以优化速度点击顶部菜单栏的 工具/选项 -> 高级选项。在弹出的窗口中,找到“语音识别参数”区域。按如下设置:语音阈值:保持 0.5。最长语音持续秒数:填写 4(单位秒)。最短语音持续毫秒:填写 1000静音分割持续毫秒:填写 500识别准确度beam_size:填写 1识别准确度best_of:填写 1。取消勾选 启用上下文感知。点击右下角的“保存”按钮。第五步:开始使用选择你的视频或音频文件:点击主界面左上角的 选择音频或视频 按钮,选择你要处理的文件。设置目标语言:在“目标语言”下拉菜单中,选择你需要的语言(例如“中文”)。点击右下角的 开始翻译 按钮。软件将开始工作。由于使用 CPU,处理速度会较慢,请耐心等待。状态栏会显示进度。重要提示:首次使用 faster-whisper 时,软件会自动从网上下载你选择的模型文件(如 tiny)。这会需要一些时间,并且需要网络通畅。如果下载失败,你可能需要手动下载模型文件(可参考知识库中的手动下载指南)。请查阅相关文档:faster-whisper(本地)语音识别渠道详细说明手动下载 faster-whisper 模型文件

什么意思看不懂我现在
点击选择faster-whisper这里卡住了必须选择点一下弹到我自己电脑文件处不知道点什么

这是正常现象。当你点击“faster-whisper(本地)”右侧的模型选择下拉菜单时,软件需要从网络下载模型列表,如果网络不畅就会卡住。请按以下步骤操作:1. 直接关闭当前卡住的窗口(如果无法关闭,可以尝试在任务管理器中结束 sp.exe 进程,然后重新启动软件)。2. 重新启动软件后,先不要点击“faster-whisper(本地)”右侧的模型选择菜单。3. 直接进行下一步操作:点击主界面左上角的 选择音频或视频 按钮。在弹出的文件选择窗口中,找到并选中你想要处理的英文音频或视频文件,然后点击“打开”。4. 现在回到主界面,在“发音语言”处选择“英语”。在“目标语言”处选择“中文”。5. 直接点击右下角的 开始翻译 按钮。关键点:软件在你点击“开始翻译”后,会自动下载并使用一个默认的模型(通常是 base 或 small)。虽然第一次会等待下载,但之后就会跳过这一步。这样操作可以绕过手动选择模型时可能遇到的网络卡顿问题。如果点击“开始翻译”后长时间卡在“正在初始化模型”或下载进度,说明网络下载模型确实很慢。此时,你可以考虑手动下载模型文件(这是最彻底的解决方法)。手动下载模型步骤(如果网络始终不行):在软件安装目录(例如 D:\pyVideoTrans)下,找到并打开 models 文件夹。在 models 文件夹内,新建一个文件夹,命名为 models--Systran--faster-whisper-tiny。打开浏览器,访问此链接:https://huggingface.co/Systran/faster-whisper-tiny/tree/main将该页面中所有文件(包括 .bin, .json, .txt 等)下载到刚才新建的 models--Systran--faster-whisper-tiny 文件夹内。下载完成后,重启软件,再按上述步骤操作即可。请查阅相关文档:手动下载 faster-whisper 模型文件(详细指南)

重复什么过程我看不懂啊那个文件我已经放在了那个文件夹了然后呢

好的,模型文件已经放好,现在进行下一步。请按顺序操作:1. 重启软件:完全关闭 pyVideoTrans(在任务栏右键点击图标选“关闭窗口”,或从任务管理器结束 sp.exe)。然后重新双击 sp.exe 打开软件。2. 选择文件:软件打开后,点击左上角的 选择音频或视频 按钮。在弹出的窗口中,找到并选中你的英文音频或视频文件,点击“打开”。3. 配置主界面:在“语音识别”下拉菜单中,选择 faster-whisper(本地)。在“发音语言”处,选择“英语”。在“目标语言”处,选择“中文”。在“配音渠道”处,选择 Edge-TTS(免费)。4. 开始翻译:直接点击右下角的 开始翻译 按钮。软件现在会直接使用你已下载的 tiny 模型进行语音识别,不会再从网络下载。处理过程会在下方进度条显示。由于你的电脑没有显卡加速,处理速度会较慢,请耐心等待。完成后,视频/音频会输出到原文件所在目录的 _video_out 文件夹里。如果点击“开始翻译”后仍然卡住或报错,请提供软件界面显示的详细错误信息。请查阅相关文档:快速使用入门

Post Your Reply
Open source and free maintenance is not easy. If this project is helpful to you, please consider making a small donation to help the project continue to maintain and update.

Related resource