🦙 Ollama 本地调用

🦙

什么是 Ollama?

Ollama 是一个在本地运行大语言模型的工具,支持 Llama、Mistral、Llama 3 等多种模型。

无需联网,所有计算都在你的本地机器上进行,数据安全无忧。

🔧

支持的模型

  • Llama 2 - Meta 出品的强大模型,7B 和 13B 版本
  • Llama 3 - 最新版本,性能更优
  • Mistral - 欧洲出品的优秀模型
  • glm-4.7-flash - 高性能模型
  • 更多模型 - 支持 50+ 种预训练模型
🛡️

安全优势

  • 完全离线 - 无需网络连接
  • 数据隐私 - 数据不离开本地
  • 成本低 - 无 API 调用费用
  • 速度快 - 本地推理,毫秒级响应
  • 可控性 - 完全掌控运行环境
50+
支持模型
0
网络依赖
100%
数据隐私