#3044 requests.exceptions.HTTPError: 401 Client Error: Unauthorized for url: https://openrouter.ai/api/v1/chat/completions?sk=

2a02:6ea0* Posted at: 11 days ago 👁61

401 Client Error: Unauthorized for url: https://openrouter.ai/api/v1/chat/completions?sk=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:
Traceback (most recent call last):
File "videotrans\recognition\_base.py", line 140, in run
File "tenacity\__init__.py", line 338, in wrapped_f
File "tenacity\__init__.py", line 477, in call
File "tenacity\__init__.py", line 378, in iter
File "tenacity\__init__.py", line 421, in exc_check
tenacity.RetryError: RetryError[]

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
File "videotrans\util\TestSTT.py", line 17, in run
File "videotrans\recognition\__init__.py", line 236, in run
File "videotrans\recognition\_base.py", line 171, in run
File "tenacity\__init__.py", line 480, in call
File "videotrans\recognition\_recognapi.py", line 84, in _exec
File "requests\models.py", line 1026, in raise_for_status
requests.exceptions.HTTPError: 401 Client Error: Unauthorized for url: https://openrouter.ai/api/v1/chat/completions?sk=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


=
system:Windows-10-10.0.26200-SP0
version:v3.95
frozen:True
language:zh
root_dir:C:/py

5 Replies

这是由于 OpenRouter AI API 密钥无效或配置错误导致的 401 未授权错误。

解决方案

  1. 检查 API 密钥:确认在 OpenRouter 翻译渠道配置中填写的 API Key 是否正确且有效。请登录 OpenRouter 官网,在 API Keys 页面核对或重新生成密钥。
  2. 核对 API 地址:确保 API URL 填写正确,应为 https://openrouter.ai/api/v1/chat/completions
  3. 检查模型名称:在“模型”输入框中,手动填写 OpenRouter 支持的模型名称(例如 deepseek/deepseek-chatopenai/gpt-4o 等),确保模型名称拼写无误。
  4. 确认账户状态:登录 OpenRouter 账户,检查账户余额或使用额度是否充足。
  5. 网络代理:如果您的网络环境需要代理才能访问 OpenRouter,请在软件设置中配置正确的网络代理地址。

请查阅相关文档:

我是想接入多角色语音识别来用。为什么一直不对呢image

这是由于您将 OpenRouter 的配置错误地填写在了“自定义语音识别API”中,而 OpenRouter 是一个翻译/对话模型,并非语音识别 (ASR) 模型。

要使用多角色语音识别,您需要配置的是支持说话人分离的语音识别渠道,而不是翻译渠道。

解决方案:

  1. 选择正确的语音识别渠道:在“语音识别渠道”下拉菜单中,选择支持说话人分离的模型,例如:

    • faster-whisper:在“高级选项” -> “语音识别参数”中开启“说话人识别”,并选择模型(如内置模型、pyannote 3.1 或 阿里 CAM++)。
    • WhisperX API:需先独立部署 whisperx-api 服务,然后在软件中配置其 API 地址。
    • 其他支持说话人分离的模型:如 FunASR、SenseVoice 等。
  2. 配置说话人分离参数:选择上述渠道后,进入“高级选项”,在“语音识别参数”部分:

    • 勾选“开启说话人识别”。
    • 选择合适的“说话人识别模型”。
    • 设置“预计说话人数”。
  3. 移除错误的 OpenRouter 配置:请将“自定义语音识别API”配置界面中的 OpenRouter API URL 和 Key 清空,除非您确实部署了一个提供语音识别功能的、兼容 OpenAI 音频转录接口的自定义服务。

简单来说:您想用的“多角色语音识别”功能在 语音识别阶段 实现,而 OpenRouter 是用于 字幕翻译阶段 的。请回到软件主界面,在任务设置的第一步(语音识别)中选择正确的渠道。

请查阅相关文档:

这个不是支持自定义填写嘛,自定义填写不能使用open router的嘛

是的,自定义填写功能是用于接入自定义的、兼容 OpenAI 音频转录 (audio transcription) API 接口的语音识别服务。而 OpenRouter 提供的是 文本对话/补全 (Chat Completions) API,并非音频转录 API。因此,您收到的 401 错误是因为软件向 OpenRouter 的聊天接口发送了音频转录请求,而该接口不支持此功能。解决方案:要使用 OpenRouter 进行翻译,请正确配置:在“翻译渠道”中选择“OpenAI/兼容接口”。在配置界面填写:API URL: https://openrouter.ai/api/v1API Key: 您的 OpenRouter API Key模型: 手动输入 OpenRouter 支持的模型名称(例如 deepseek/deepseek-chat)要使用自定义语音识别 API,您需要:部署或找到一个提供 OpenAI 格式音频转录接口 的服务。例如:自行部署一个支持 /v1/audio/transcriptions 端点的 Whisper API 服务。使用其他支持此接口的第三方 ASR 服务。在“自定义语音识别API”配置中填写该服务的正确 音频转录端点 URLAPI Key。核心区别:自定义语音识别API:端点应类似 http://your-service/v1/audio/transcriptions,用于发送音频文件进行识别。OpenRouter (翻译渠道):端点固定为 https://openrouter.ai/api/v1/chat/completions,用于发送文本进行翻译/对话。您不能将翻译模型的聊天接口用作语音识别接口。请查阅相关文档:自定义语音识别APIOpenRouter AI模型接入

Post Your Reply