一、下载和删除模型

ollama pull <model_name>
# 支持下载多种模型
ollama pull llama2
ollama pull mistral
ollama pull gemma
ollama rm <model_name>

二、运行模型

ollama run <model_name>

运行后,会进入交互式对话模式,可以直接与模型对话。
在交互模式下,输入 /bye 或按下 Ctrl+D 退出。

三、查看已下载的模型

ollama list

在这里插入图片描述

四、查看模型信息

ollama show <model_name>

在这里插入图片描述

五、运行模型服务器

Ollama 可以作为一个本地服务器运行,允许通过 API 调用模型:

ollama serve

默认情况下,服务器会监听 localhost:11434。
然后后续就可以使用ollama相关的库包来调用该url
在这里插入图片描述

Logo

一站式 AI 云服务平台

更多推荐