AsyncAzureOpenAI 客户端从 openai python SDK 支持自定义 Fast API 端点

我正在进行一个项目,团队使用 FastAPI 和 AzureOpenAI 开发了自定义的 LLM 异步 API 端点,应用程序使用 B2B 令牌来验证用户请求。但现在我们想使用 openai sdk 中的 AsyncAzureOpenAI 客户端来测试这些端点。是否可以在 azure_endpoint 或 base_url 参数中传递自定义端点?如果可以,我需要一个示例。任何帮助都将不胜感激。

LATEST_URL = "http://localhost:8080" model_id = "gpt-4"B2B_token = "xxxx"client = AsyncAzureOpenAI(    azure_endpoint=f"{LATEST_URL}/v1/genai/models/deployments/{model_id}/chat/completions",    max_retries=0,    api_key=B2B_token)But when requesting through clientresponse = await client.chat.completions.create(        messages=[{"role": "user", "content": "Hi"}],        model= model_id,        max_tokens=50,        temperature=0.7,        timeout=30    )

我在 FastAPI 服务器日志中看到,它抛出了 404 错误

INFO:     127.0.0.1:52318 - "POST /v1/genai/models/deployments/gpt-4/chat/completions/openai/chat/completions?api-version=2024-06-01 HTTP/1.1" 404 Not Found

看起来,端点无法找到,因为它在 API 路由中附加了 api-version 作为查询参数,这是未预期的。


回答:

如果你查看 404 错误日志,你会发现调用 Azure OpenAI 端点时 URL 中有重复的路径。

错误日志 URL:

/v1/genai/models/deployments/gpt-4/chat/completions/openai/chat/completions?api-version=2024-06-01

来自 Azure 端点的典型 URL:

/openai/deployments/gpt-4o/chat/completions?api-version=2024-06-01

尝试将客户端中的参数值从:

azure_endpoint=f"{LATEST_URL}/v1/genai/models/deployments/{model_id}/chat/completions",

更新为:

azure_endpoint=f"{LATEST_URL}"

我的建议是从 Azure 的模型部署选项卡中获取完整的端点 URL,然后你可以将其与 FastAPI 的日志进行比较。通常,需要调整本地参数的值以匹配它们:模型 ID、端点 URL 和版本号。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注