🦙 Ollama 本地调用
🦙
什么是 Ollama?
Ollama 是一个在本地运行大语言模型的工具,支持 Llama、Mistral、Llama 3 等多种模型。
无需联网,所有计算都在你的本地机器上进行,数据安全无忧。
🔧
支持的模型
Llama 2
- Meta 出品的强大模型,7B 和 13B 版本
Llama 3
- 最新版本,性能更优
Mistral
- 欧洲出品的优秀模型
glm-4.7-flash
- 高性能模型
更多模型
- 支持 50+ 种预训练模型
🛡️
安全优势
完全离线
- 无需网络连接
数据隐私
- 数据不离开本地
成本低
- 无 API 调用费用
速度快
- 本地推理,毫秒级响应
可控性
- 完全掌控运行环境
50+
支持模型
0
网络依赖
100%
数据隐私