AsyncAzureOpenAI 客户端从 openai python SDK 支持自定义 Fast API 端点

我正在进行一个项目,团队使用 FastAPI 和 AzureOpenAI 开发了自定义的 LLM 异步 API 端点,应用程序使用 B2B 令牌来验证用户请求。但现在我们想使用 openai sdk 中的 AsyncAzureOpenAI 客户端来测试这些端点。是否可以在 azure_endpoint 或 base_url 参数中传递自定义端点?如果可以,我需要一个示例。任何帮助都将不胜感激。

LATEST_URL = "http://localhost:8080" model_id = "gpt-4"B2B_token = "xxxx"client = AsyncAzureOpenAI(    azure_endpoint=f"{LATEST_URL}/v1/genai/models/deployments/{model_id}/chat/completions",    max_retries=0,    api_key=B2B_token)But when requesting through clientresponse = await client.chat.completions.create(        messages=[{"role": "user", "content": "Hi"}],        model= model_id,        max_tokens=50,        temperature=0.7,        timeout=30    )

我在 FastAPI 服务器日志中看到,它抛出了 404 错误

INFO:     127.0.0.1:52318 - "POST /v1/genai/models/deployments/gpt-4/chat/completions/openai/chat/completions?api-version=2024-06-01 HTTP/1.1" 404 Not Found

看起来,端点无法找到,因为它在 API 路由中附加了 api-version 作为查询参数,这是未预期的。


回答:

如果你查看 404 错误日志,你会发现调用 Azure OpenAI 端点时 URL 中有重复的路径。

错误日志 URL:

/v1/genai/models/deployments/gpt-4/chat/completions/openai/chat/completions?api-version=2024-06-01

来自 Azure 端点的典型 URL:

/openai/deployments/gpt-4o/chat/completions?api-version=2024-06-01

尝试将客户端中的参数值从:

azure_endpoint=f"{LATEST_URL}/v1/genai/models/deployments/{model_id}/chat/completions",

更新为:

azure_endpoint=f"{LATEST_URL}"

我的建议是从 Azure 的模型部署选项卡中获取完整的端点 URL,然后你可以将其与 FastAPI 的日志进行比较。通常,需要调整本地参数的值以匹配它们:模型 ID、端点 URL 和版本号。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注