💡 7 种使用示例

💡

示例 1: 启动会话

最基础的用法,快速启动 OpenClaw 会话。

openclaw session
⚙️

示例 2: 配置模型

使用不同的模型版本进行任务处理。

openclaw --model ollama/glm-4.7-flash --context "你的上下文"
📝

示例 3: 脚本中使用

在 Bash 脚本中调用 OpenClaw 处理任务。

#!/bin/bash
openclaw session <
🔄

示例 4: 批量处理

使用循环处理多个任务。

tasks=(
  "总结这篇文章:https://example.com/article1"
  "分析这段代码:$(cat code.js)"
  "回答这个问题:什么是人工智能?"
)

for task in "${tasks[@]}"; do
  echo "处理: $task"
  openclaw session --model ollama/mistral <<< "$task"
  echo "---"
done
📦

示例 5: 获取模型列表

查看本地已安装的模型列表。

ollama list
📤

示例 6: 输出到文件

将模型输出保存到文件中。

ollama run llama3 > output.txt 2>&1
🌐

示例 7: API 调用

通过 Node.js 调用 Ollama API。

#!/usr/bin/env node
const { execSync } = require('child_process');

function askOllama(prompt, model = 'llama2') {
  return execSync(
    `echo '${prompt}' | ollama run ${model}`,
    { encoding: 'utf-8' }
  );
}

const response = askOllama('请用一句话介绍 OpenClaw');
console.log('回答:', response);
7
实用示例
100%
可复用
无限扩展