v2.51已解决
ollama模型qwen2:7b
http://localhost:11434/v1
版本 v2.48
Windows 10 专业版
预打包版
问题
问题如图所示
包括带不带key都试过了,不行
同时
在log中显示
File "videotrans\translator\_base.py", line 112, in run
File "videotrans\translator\_localllm.py", line 28, in _item_task
File "httpx\_client.py", line 670, in __init__
File "httpx\_client.py", line 224, in _get_proxy_map
File "httpx\_config.py", line 334, in __init__
似乎在_localllm.py中出了问题
def _item_task(self, data: Union[List[str], str]) -> str:
model = OpenAI(api_key=config.params['localllm_key'], base_url=self.api_url,
http_client=httpx.Client(proxies=self.proxies))
这是用OpenAI这个方法去发http请求
可能的原因
在 https://github.com/ollama/ollama/blob/main/docs/openai.md 中提到要指定api_key='ollama'
有没有可能是这个原因