最基础的用法,快速启动 OpenClaw 会话。
openclaw session
使用不同的模型版本进行任务处理。
openclaw --model ollama/glm-4.7-flash --context "你的上下文"
在 Bash 脚本中调用 OpenClaw 处理任务。
#!/bin/bash
openclaw session <
使用循环处理多个任务。
tasks=(
"总结这篇文章:https://example.com/article1"
"分析这段代码:$(cat code.js)"
"回答这个问题:什么是人工智能?"
)
for task in "${tasks[@]}"; do
echo "处理: $task"
openclaw session --model ollama/mistral <<< "$task"
echo "---"
done
查看本地已安装的模型列表。
ollama list
将模型输出保存到文件中。
ollama run llama3 > output.txt 2>&1
通过 Node.js 调用 Ollama API。
#!/usr/bin/env node
const { execSync } = require('child_process');
function askOllama(prompt, model = 'llama2') {
return execSync(
`echo '${prompt}' | ollama run ${model}`,
{ encoding: 'utf-8' }
);
}
const response = askOllama('请用一句话介绍 OpenClaw');
console.log('回答:', response);