在后端调用openai-node还是在前端调用https?

我有一个使用ReactJS和Node.js开发的Web应用程序。这个应用程序调用OpenAI的API。

之前,当用户在前端发起请求时,我们会向后端的端点发送请求,在后端调用https://github.com/openai/openai-nodecreateChatCompletion方法,并将结果返回到前端。请注意,我们的前端服务器和后端服务器是分开的,且不在同一地点;用户遍布全球。

我们最近发现,我们也可以在前端直接请求https://api.openai.com/v1/chat/completions,如下所示:

    const res = await fetch("https://api.openai.com/v1/chat/completions", {        method: 'POST',        headers: {            "Content-Type": "application/json",            Authorization: `Bearer ${API_KEY}`        },        body: JSON.stringify({            model: model,            messages: [{ role: "user", content: prompt }]        })    })

目前,我们的痛点是从用户发送请求到在应用程序中看到结果的时间太长。从速度的角度来看,有人知道哪种方法更好吗?为什么?


回答:

需要注意的是,前端的所有内容基本上都是公开的。在这种情况下,如果你直接从浏览器调用API,用户很容易就能捕获你的API密钥。

移除对你服务器的调用可能不会带来显著的差异;AI的响应速度本来就比较慢。一个更好的解决方案可能是使用流式API(并且从你的后端到前端也进行流式传输),这样用户可以看到生成的响应过程。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注