ollama的常用操作
在交互模式下,输入 /bye 或按下 Ctrl+D 退出。默认情况下,服务器会监听 localhost:11434。然后后续就可以使用ollama相关的库包来调用该url。运行后,会进入交互式对话模式,可以直接与模型对话。
·
一、下载和删除模型
ollama pull <model_name>
# 支持下载多种模型
ollama pull llama2
ollama pull mistral
ollama pull gemma
ollama rm <model_name>
二、运行模型
ollama run <model_name>
运行后,会进入交互式对话模式,可以直接与模型对话。
在交互模式下,输入 /bye 或按下 Ctrl+D 退出。
三、查看已下载的模型
ollama list

四、查看模型信息
ollama show <model_name>

五、运行模型服务器
Ollama 可以作为一个本地服务器运行,允许通过 API 调用模型:
ollama serve
默认情况下,服务器会监听 localhost:11434。
然后后续就可以使用ollama相关的库包来调用该url
更多推荐




所有评论(0)