尝试从Azure虚拟机(Ubuntu)上的ollama获取API响应

我在运行Ubuntu的Azure虚拟机上安装并配置了ollama,并尝试从另一台机器进行API调用,类似于我正在尝试设置自己的ollama服务器,但遇到了API连接问题。

我尝试运行本地主机API,例如:

curl http://localhost:11434/api/generate -d '{  "model": "llama2",  "prompt":"Why is the sky blue?",  "response": "The",  "done": false}'

这是成功的,

我为虚拟机的11434端口设置了入站规则,并尝试使用虚拟机的公共IP进行API调用,结果连接失败:连接被拒绝

我应该使用密码或身份验证吗?我缺少什么?

curl http://<public ip>:11434/api/generate -d '{  "model": "llama2",  "prompt":"Why is the sky blue?",  "response": "The",  "done": false}'

回答:

在查阅文档后,首先我们需要通过设置主机端口和允许的来源来运行Ollama服务器,以便与其通信。

运行

export OLLAMA_HOST="0.0.0.0:8888" OLLAMA_ORIGINS="*" ollama serve

*表示所有,如果你想使用特定的IP,请使用http://https://后跟你要允许的IP。

然后启动Ollama服务器,方法是

ollama serve

然后运行API,例如

curl http://<pub-ip>:8888/api/pull -d '{  "name": "llama2"}'

拉取镜像只需一次即可(你可以拉取你想要的模型)

以及

curl http://<pub-ip>:8888/api/generate -d '{  "model": "llama2",  "prompt":"Why is the sky blue?",  "response": "The",  "done": false}'

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注