ollama的安装部署及使用
ollama的安装部署及使用
OHNII定义
管理大语言模型的平台;有ui界面 & 命令行; 把开源模型(比如 genma3)部署到本地
下载地址:https://github.com/ollama/ollama
- https://ollama.com/download/windows (window 为例)
- 固定安装到c盘(确保c盘 10G+)C:\Users[用户名]\AppData\Local\Programs\Ollama
- 安装完,右下角有图标了,开机自启动
使用文档
https://ollamacn.com/guide.html
通过CLI工具实现模型管理
• ollama list 查看本地模型库
• ollama pull llama3:70b 下载70B参数Llama3模型 【 谷歌的 genma3:4b 】 【 llava 支持图片识别 】
• ollama show llama3:70b 查看70B参数Llama3模型
• ollama run llava:13b 启动视觉语言混合模型
• ollama rm mistral 删除冗余模型释放存储
• ollama ps 监控运行实例资源占用
模型默认存储路径为~/.ollama/models,可通过设置OLLAMA_MODELS环境变量自定义存储位置
本地模型:安全性隐私性高,但是跑本地cpu慢
云模型:在不依赖本地显卡的情况下获得顶级体验
• ollama pull gpt-oss:120b-cloud
• ollama run gpt-oss:120b-cloud
怎么嵌入vscode
- 搜索安装 continue 插件(continue 使用教程 https://docs.continue.dev)
- 配置 config.yaml
1 |
|

