### 使用OpenAI API微调时出现错误:“这不是聊天模型,因此不支持在v1/chat/completions端点使用”

我使用OpenAI API微调了一个模型。现在我想使用这个微调后的模型。

这是我的代码:

 const response = await openai.chat.completions.create({    model: process.env.FINE_TUNE_MODEL,    messages: [      {        role: "system",        content: prompt,      },      {        role: "user",        content: inputText,      },    ],    temperature: 0,    top_p: 1,    frequency_penalty: 0,    presence_penalty: 0,});

但是在执行这个函数时出现了404错误。

这是错误消息:

NotFoundError: 404 这不是聊天模型,因此不支持在v1/chat/completions端点使用。你是否应该使用v1/completions?

我如何使用微调后的模型生成文本?


回答:

问题

你微调了一个非聊天模型,但想要使用仅与聊天模型兼容的API端点。

对于微调后的模型,你需要使用的API端点取决于你微调的模型类型。

截至目前,你可以微调以下模型:

  • gpt-4o-mini-2024-07-18(聊天模型),
  • gpt-4o-2024-05-13(聊天模型),
  • gpt-4-0613(聊天模型),
  • gpt-3.5-turbo-0125(聊天模型),
  • gpt-3.5-turbo-1106(聊天模型),
  • gpt-3.5-turbo-0613(聊天模型),
  • babbage-002(非聊天模型),以及
  • davinci-002(非聊天模型)。

解决方案

使用以下规则:

  • 如果你微调的是聊天模型,使用/v1/chat/completions API端点。
  • 如果你微调的是非聊天模型,使用/v1/completions API端点。

换句话说:

  • 如果你微调的是聊天模型,使用client.chat.completions.create方法。
  • 如果你微调的是非聊天模型,使用client.completions.create方法。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注