OpenClaw

AI 未来已来

连接未来,智驭AI

🚀

AI 自动化

OpenClaw 让 AI 助手在本地运行时发挥更大作用,实现真正的智能自动化。

通过本地调用 Ollama 模型,获得更快的响应速度,同时保护隐私。

🦙

Ollama 本地调用

本地运行大语言模型,支持 Llama、Mistral、Llama 3 等多种模型。

无需联网,所有计算都在你的本地机器上进行,数据安全无忧。

💡

7 种使用示例

从启动会话到批量处理,7 个实用示例帮助快速上手。

包含脚本示例、API 调用、批量任务处理等多种场景。

0
安装指南
0
模型支持
0
使用示例
Node.js Ollama Nginx Python Linux CentOS

OpenClaw 不是工具,而是通往未来的桥梁。在这里,AI 与你零距离接触。

— AI 未来宣言
开始使用 查看完整攻略