在 翻译设置-本地兼容openAI大模型翻译 出现 "Unknown scheme for proxyURL" 以及可能的原因

attachments-2024-09-9vQSLVNd66e46a9dbca9d.pngattachments-2024-09-a266E4fR66e46987236aa.pngattachments-2024-09-5cvBfCTf66e4690ec1139.pngattachments-2024-09-53d4auCD66e46802ecbb5.png

20240913.log


版本 v2.48

Windows 10 专业版

预打包版

问题

问题如图所示

http://localhost:11434/v1/

http://localhost:11434/v1

http://localhost:11434/

http://localhost:11434

包括带不带key都试过了,不行

同时

在log中显示

  File "videotrans\translator\_base.py", line 112, in run

  File "videotrans\translator\_localllm.py", line 28, in _item_task

  File "httpx\_client.py", line 670, in __init__

  File "httpx\_client.py", line 224, in _get_proxy_map

  File "httpx\_config.py", line 334, in __init__

似乎在_localllm.py中出了问题

def _item_task(self, data: Union[List[str], str]) -> str:

        model = OpenAI(api_key=config.params['localllm_key'], base_url=self.api_url,

                       http_client=httpx.Client(proxies=self.proxies))

这是用OpenAI这个方法去发http请求

可能的原因

https://github.com/ollama/ollama/blob/main/docs/openai.md 中提到要指定api_key='ollama'

有没有可能是这个原因

请先 登录 后评论

1 个回答

v2.51已解决

ollama模型qwen2:7b

http://localhost:11434/v1

请先 登录 后评论
  • 0 收藏,73 浏览
  • rabbliiton 提出于 2024-09-14 00:41

相似问题

GitHub 在线体验 文档站 在线问答 掘金博客 Discord交流群 302.AI Powered By Tipask3.0