Install
openclaw skills install teamclaw-2ClawHub Security found sensitive or high-impact capabilities. Review the scan results before using.
A high-performance Agent subsystem designed for complex multi-agent orchestration (OASIS),automated computer use tasks, and real-time visual monitoring via a dedicated Web UI.
openclaw skills install teamclaw-2** 如果你是openclaw agent,请将自己作为Teamclaw的外部agent**
TeamClaw 是一个多功能 AI Agent 服务,提供:
所有脚本位于 selfskill/scripts/,统一通过 run.sh 入口调用,全部非交互式。
selfskill/scripts/
├── run.sh # 主入口(start/stop/status/setup/add-user/configure)
├── adduser.py # 非交互式用户创建
└── configure.py # 非交互式 .env 配置管理
所有命令在项目根目录下执行。
# 安装依赖
bash selfskill/scripts/run.sh setup
# 初始化配置文件
bash selfskill/scripts/run.sh configure --init
# 配置 LLM(必填)
bash selfskill/scripts/run.sh configure --batch \
LLM_API_KEY=sk-your-key \
LLM_BASE_URL=https://api.deepseek.com \
LLM_MODEL=deepseek-chat
# 创建用户
bash selfskill/scripts/run.sh add-user system MySecurePass123
bash selfskill/scripts/run.sh start # 后台启动
bash selfskill/scripts/run.sh status # 检查状态
bash selfskill/scripts/run.sh stop # 停止服务
# 查看当前配置(敏感值脱敏)
bash selfskill/scripts/run.sh configure --show
# 设置单项
bash selfskill/scripts/run.sh configure PORT_AGENT 51200
# 批量设置
bash selfskill/scripts/run.sh configure --batch TTS_MODEL=gemini-2.5-flash-preview-tts TTS_VOICE=charon
| 配置项 | 说明 | 默认值 |
|---|---|---|
LLM_API_KEY | LLM API 密钥(必填) | — |
LLM_BASE_URL | LLM API 地址 | https://api.deepseek.com |
LLM_MODEL | 模型名称 | deepseek-chat |
LLM_PROVIDER | 厂商(google/anthropic/deepseek/openai,可自动推断) | 自动 |
LLM_VISION_SUPPORT | 是否支持图片(可自动推断) | 自动 |
PORT_AGENT | Agent 主服务端口 | 51200 |
PORT_SCHEDULER | 定时调度端口 | 51201 |
PORT_OASIS | OASIS 论坛端口 | 51202 |
PORT_FRONTEND | Web UI 端口 | 51209 |
PORT_BARK | Bark 推送端口 | 58010 |
TTS_MODEL | TTS 模型(可选) | — |
TTS_VOICE | TTS 声音(可选) | — |
OPENCLAW_API_URL | OpenClaw 后端服务地址(完整路径,含 /v1/chat/completions) | http://127.0.0.1:18789/v1/chat/completions |
OPENCLAW_API_KEY | OpenClaw 后端服务的 API Key(可选) | — |
OPENCLAW_SESSIONS_FILE | OpenClaw sessions.json 文件的绝对路径(使用 OpenClaw 时必须配置) | /projects/.moltbot/agents/main/sessions/sessions.json |
INTERNAL_TOKEN | 内部通信密钥(自动生成) | 自动 |
| 端口 | 服务 |
|---|---|
| 51200 | AI Agent 主服务 |
| 51201 | 定时调度 |
| 51202 | OASIS 论坛 |
| 51209 | Web UI |
Authorization: Bearer <user_id>:<password>
Authorization: Bearer <INTERNAL_TOKEN>:<user_id>
INTERNAL_TOKEN 首次启动自动生成,可通过 configure --show-raw 查看。
Base URL: http://127.0.0.1:51200
POST /v1/chat/completions
Authorization: Bearer <token>
{"model":"mini-timebot","messages":[{"role":"user","content":"你好"}],"stream":true,"session_id":"my-session"}
POST /system_trigger
X-Internal-Token: <INTERNAL_TOKEN>
{"user_id":"system","text":"请执行某任务","session_id":"task-001"}
POST /cancel
{"user_id":"<user_id>","session_id":"<session_id>"}
这里的“四个模式”是两组正交开关:
- 讨论 vs 执行:决定专家输出是“论坛式讨论/投票”,还是“工作流式执行/交付物”。
- 同步 vs 脱离(detach):决定调用方是否阻塞等待结果。
讨论模式(discussion=true,默认)
执行模式(discussion=false)
同步(detach=false,默认)
post_to_oasis 后等待完成,直接返回最终结果。脱离(detach=true)
topic_id,后台继续运行/讨论;之后用 check_oasis_discussion(topic_id) 追踪进度与结果。在未明确指定时,建议采用以下默认策略:
默认 = 讨论 + 同步
discussion=truedetach=false出现以下需求信号时,切换到 执行模式:
出现以下需求信号时,切换到 脱离模式:
max_rounds 大)、或预计耗时长| 组合 | 参数 | 返回 | 适用 |
|---|---|---|---|
| 讨论 + 同步(默认) | discussion=true, detach=false | 当场看到讨论与结论 | 决策/评审/收集观点 |
| 讨论 + 脱离 | discussion=true, detach=true | topic_id,稍后查 | 长讨论/多轮 |
| 执行 + 同步 | discussion=false, detach=false | 直接交付物 | 生成代码/方案/清单 |
| 执行 + 脱离 | discussion=false, detach=true | topic_id,稍后查 | 长执行/复杂流水线 |
OASIS 支持 四种类型的智能体,通过 schedule_yaml 中专家的 name 格式区分:
| # | 类型 | Name 格式 | 引擎类 | 说明 |
|---|---|---|---|---|
| 1 | Direct LLM | tag#temp#N | ExpertAgent | 无状态单次 LLM 调用。每轮读取所有帖子 → 一次 LLM 调用 → 发布 + 投票。无跨轮记忆。tag 映射到预设专家名/人设,N 是实例编号(同一专家可多副本)。 |
| 2 | Oasis Session | tag#oasis#id | SessionExpert (oasis) | OASIS 管理的有状态 bot session。tag 映射到预设专家,首轮注入人设为 system prompt。Bot 跨轮保留对话记忆(增量上下文)。id 可为任意字符串,新 ID 首次使用时自动创建 session。 |
| 3 | Regular Agent | Title#session_id | SessionExpert (regular) | 连接到已有的 agent session(如 助手#default、Coder#my-project)。不注入身份——session 自身的 system prompt 定义 agent。适合将个人 bot session 带入讨论。 |
| 4 | External API | tag#ext#id | ExternalExpert | 直接调用任意 OpenAI 兼容外部 API(DeepSeek、GPT-4、Ollama、另一个 TeamClaw 实例等)。不经过本地 agent。外部服务假定有状态。支持通过 YAML headers 字段自定义请求头。 |
tag#temp#N → ExpertAgent (无状态, 直连LLM)
tag#oasis#<id> → SessionExpert (oasis管理, 有状态bot)
Title#session_id → SessionExpert (普通agent session)
tag#ext#<id> → ExternalExpert (外部API,如openclaw agent)
特殊后缀:
#new 可强制创建全新 session(ID 替换为随机 UUID,确保不复用):
creative#oasis#abc#new → #new 被剥离,ID 替换为 UUID助手#my-session#new → 同样处理Oasis session 约定:
session_id 中的 #oasis# 标识(如 creative#oasis#ab12cd34)data/agent_memory.db)中,无独立存储tag 部分映射到预设专家配置以查找人设version: 1
plan:
# Type 1: Direct LLM(无状态,快速)
- expert: "creative#temp#1"
- expert: "critical#temp#2"
# Type 2: Oasis session(有状态,有记忆)
- expert: "data#oasis#analysis01"
- expert: "synthesis#oasis#new#new" # 强制全新session
# Type 3: Regular agent session(你现有的bot)
- expert: "助手#default"
- expert: "Coder#my-project"
# Type 4: External API(DeepSeek, GPT-4等)
- expert: "deepseek#ext#ds1"
# Type 4: OpenClaw External API(本地 Agent 服务)
- expert: "coder#ext#oc1"
api_url: "http://127.0.0.1:23001/v1/chat/completions"
model: "agent:main:test1" # agent:<agent_name>:<session>,session 不存在时自动新建
# 并行执行
- parallel:
- expert: "creative#temp#1"
instruction: "从创新角度分析"
- expert: "critical#temp#2"
instruction: "从风险角度分析"
# 全员发言 + 手动注入
- all_experts: true
- manual:
author: "主持人"
content: "请聚焦可行性"
Type 4 外部 agent 支持在 YAML 步骤中提供额外配置字段:
version: 1
plan:
- expert: "分析师#ext#analyst"
api_url: "https://api.deepseek.com" # 必填:外部 API 的 base URL(自动补全为 /v1/chat/completions)
api_key: "sk-xxx" # 必填:API key → Authorization: Bearer <key>
model: "deepseek-chat" # 可选:模型名,默认 gpt-3.5-turbo
headers: # 可选:自定义 HTTP 请求头(key-value 字典)
X-Custom-Header: "value"
配置字段说明:
| 字段 | 必填 | 说明 |
|---|---|---|
api_url | ✅ | 外部 API 地址,自动补全路径为 /v1/chat/completions |
api_key | ❌ | 放到 Authorization: Bearer <key> header 中 |
model | ❌ | 默认 gpt-3.5-turbo |
headers | ❌ | 任意 key-value 字典,合并到 HTTP 请求头 |
OpenClaw 专属配置:
OpenClaw 是一个本地运行的 OpenAI 兼容 Agent 服务。在 .env 中设置好 OpenClaw 专属 endpoint 后,前端编排面板中拖入 OpenClaw 专家时会自动填入 api_url 和 api_key,无需手动输入:
# 配置 OpenClaw endpoint 和 sessions 文件路径
bash selfskill/scripts/run.sh configure --batch \
OPENCLAW_SESSIONS_FILE=/projects/.moltbot/agents/main/sessions/sessions.json \
OPENCLAW_API_URL=http://127.0.0.1:18789/v1/chat/completions \
OPENCLAW_API_KEY=your-openclaw-key-if-needed
⚠️ 注意:
OPENCLAW_SESSIONS_FILE是使用 OpenClaw 功能的前提条件,必须指向 OpenClaw 的sessions.json文件绝对路径。未配置时前端编排面板不会加载 OpenClaw sessions。OPENCLAW_API_URL应填写完整路径(含/v1/chat/completions),系统会自动剥离后缀生成 base URL 填入 YAML。YAML 中的api_url字段只需要 base URL(如http://127.0.0.1:18789),引擎会自动补全路径。- 如果你的 OpenClaw 服务运行在非默认端口,请务必修改这些配置。
OpenClaw 的 model 字段格式:
agent:<agent_name>:<session_name>
agent_name:OpenClaw 中的 agent 名称,通常为 mainsession_name:会话名称,如 test1、default 等。可以填入不存在的 session 名来自动新建示例:
agent:main:default — 使用 main agent 的 default sessionagent:main:test1 — 使用 main agent 的 test1 session(不存在则新建)agent:main:code-review — 使用 main agent 的 code-review session请求头组装逻辑:
最终发出的请求头 = Content-Type: application/json + Authorization: Bearer <api_key>(如有) + YAML headers 中自定义的所有键值对。
OASIS Server(端口 51202)可以独立于 Agent 主服务使用。外部脚本、其他服务、或手动 curl 均可直接操作 OASIS 的全部功能,无需通过 MCP 工具或 Agent 对话。
独立使用场景:
前提条件:
bash selfskill/scripts/run.sh start 会同时启动所有服务)user_id 参数进行用户隔离(无需 Authorization header)API 概览:
| 功能 | 方法 | 路径 |
|---|---|---|
| 列出专家 | GET | /experts?user_id=xxx |
| 创建自定义专家 | POST | /experts/user |
| 更新/删除自定义专家 | PUT/DELETE | /experts/user/{tag} |
| 列出 oasis sessions | GET | /sessions/oasis?user_id=xxx |
| 保存 workflow | POST | /workflows |
| 列出 workflows | GET | /workflows?user_id=xxx |
| YAML → Layout | POST | /layouts/from-yaml |
| 创建讨论/执行 | POST | /topics |
| 查看讨论详情 | GET | /topics/{topic_id}?user_id=xxx |
| 获取结论(阻塞) | GET | /topics/{topic_id}/conclusion?user_id=xxx&timeout=300 |
| SSE 实时流 | GET | /topics/{topic_id}/stream?user_id=xxx |
| 取消讨论 | DELETE | /topics/{topic_id}?user_id=xxx |
| 列出所有话题 | GET | /topics?user_id=xxx |
这些接口与 MCP 工具共享同一后端实现,行为完全一致。
POST http://127.0.0.1:51202/topics
{"question":"讨论主题","user_id":"system","max_rounds":3,"discussion":true,"schedule_file":"...","schedule_yaml":"...","callback_url":"http://127.0.0.1:51200/system_trigger","callback_session_id":"my-session"}
注意优先使用schedule_yaml避免重复输入yaml,这是yaml工作流文件的绝对路径,一般在/XXXXX/TeamClaw/data/user_files/username下
OASIS 服务器(端口 51202)除了供 MCP 工具调用外,也支持直接 curl 操作,便于外部脚本或调试。所有接口均使用 user_id 参数进行用户隔离。
# 列出所有专家(公共 + 用户自定义)
curl 'http://127.0.0.1:51202/experts?user_id=xinyuan'
# 创建自定义专家
curl -X POST 'http://127.0.0.1:51202/experts/user' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","name":"产品经理","tag":"pm","persona":"你是一个经验丰富的产品经理,擅长需求分析和产品规划","temperature":0.7}'
# 更新自定义专家
curl -X PUT 'http://127.0.0.1:51202/experts/user/pm' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","persona":"更新后的专家描述"}'
# 删除自定义专家
curl -X DELETE 'http://127.0.0.1:51202/experts/user/pm?user_id=xinyuan'
# 列出 OASIS 管理的专家会话(含 #oasis# 的 session)
curl 'http://127.0.0.1:51202/sessions/oasis?user_id=xinyuan'
# 列出用户保存的 workflows
curl 'http://127.0.0.1:51202/workflows?user_id=xinyuan'
# 保存 workflow(自动生成 layout)
curl -X POST 'http://127.0.0.1:51202/workflows' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","name":"trio_discussion","schedule_yaml":"version:1\nplan:\n - expert: \"creative#temp#1\"","description":"三人讨论","save_layout":true}'
# 从 YAML 生成 layout
curl -X POST 'http://127.0.0.1:51202/layouts/from-yaml' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","yaml_source":"version:1\nplan:\n - expert: \"creative#temp#1\"","layout_name":"trio_layout"}'
# 创建讨论话题(同步等待结论)
curl -X POST 'http://127.0.0.1:51202/topics' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","question":"讨论主题","max_rounds":3,"schedule_yaml":"version:1\nplan:\n - expert: \"creative#temp#1\"","discussion":true}'
# 创建讨论话题(异步,返回 topic_id)
curl -X POST 'http://127.0.0.1:51202/topics' \
-H 'Content-Type: application/json' \
-d '{"user_id":"xinyuan","question":"讨论主题","max_rounds":3,"schedule_yaml":"version:1\nplan:\n - expert: \"creative#temp#1\"","discussion":true,"callback_url":"http://127.0.0.1:51200/system_trigger","callback_session_id":"my-session"}'
# 查看讨论详情
curl 'http://127.0.0.1:51202/topics/{topic_id}?user_id=xinyuan'
# 获取讨论结论(阻塞等待)
curl 'http://127.0.0.1:51202/topics/{topic_id}/conclusion?user_id=xinyuan&timeout=300'
# 取消讨论
curl -X DELETE 'http://127.0.0.1:51202/topics/{topic_id}?user_id=xinyuan'
# 列出所有讨论话题
curl 'http://127.0.0.1:51202/topics?user_id=xinyuan'
# SSE 实时更新流(讨论模式)
curl 'http://127.0.0.1:51202/topics/{topic_id}/stream?user_id=xinyuan'
保存位置:
data/user_files/{user}/oasis/yaml/{file}.yaml(画布布局从 YAML 实时转换,不再单独存储 layout JSON)data/oasis_user_experts/{user}.jsondata/oasis_topics/{user}/{topic_id}.json注意: 这些接口与 MCP 工具 list_oasis_experts、add_oasis_expert、update_oasis_expert、delete_oasis_expert、list_oasis_sessions、set_oasis_workflow、list_oasis_workflows、yaml_to_layout、post_to_oasis、check_oasis_discussion、cancel_oasis_discussion、list_oasis_topics 共享同一后端实现,确保行为一致。
以下是一份实际运行的配置示例(敏感信息已脱敏):
bash selfskill/scripts/run.sh configure --init
bash selfskill/scripts/run.sh configure --batch \
LLM_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxx4c74 \
LLM_BASE_URL=https://deepseek.com \
LLM_MODEL=deepseek-chat \
LLM_VISION_SUPPORT=true \
TTS_MODEL=gemini-2.5-flash-preview-tts \
TTS_VOICE=charon \
PORT_AGENT=51200 \
PORT_SCHEDULER=51201 \
PORT_OASIS=51202 \
PORT_FRONTEND=51209 \
PORT_BARK=58010 \
OPENCLAW_API_URL=http://127.0.0.1:18789/v1/chat/completions \
OPENAI_STANDARD_MODE=false
bash selfskill/scripts/run.sh add-user system <your-password>
配置完成后 configure --show 输出:
PORT_SCHEDULER=51201
PORT_AGENT=51200
PORT_FRONTEND=51209
PORT_OASIS=51202
OASIS_BASE_URL=http://127.0.0.1:51202
PORT_BARK=58010
INTERNAL_TOKEN=f1aa****57e7 # 自动生成,勿泄露
LLM_API_KEY=sk-7****4c74
LLM_BASE_URL=https://deepseek.com
LLM_MODEL=deepseek-chat
LLM_VISION_SUPPORT=true
TTS_MODEL=gemini-2.5-flash-preview-tts
TTS_VOICE=charon
OPENAI_STANDARD_MODE=false
说明:
INTERNAL_TOKEN首次启动自动生成,PUBLIC_DOMAIN/BARK_PUBLIC_URL由 tunnel 自动写入,无需手动配置。
cd /home/avalon/TeamClaw
# 首次配置
bash selfskill/scripts/run.sh setup
bash selfskill/scripts/run.sh configure --init
bash selfskill/scripts/run.sh configure --batch LLM_API_KEY=sk-xxx LLM_BASE_URL=https://api.deepseek.com LLM_MODEL=deepseek-chat
bash selfskill/scripts/run.sh add-user system MyPass123
# 启动
bash selfskill/scripts/run.sh start
# 调用 API
curl -X POST http://127.0.0.1:51200/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer system:MyPass123" \
-d '{"model":"mini-timebot","messages":[{"role":"user","content":"你好"}],"stream":false,"session_id":"default"}'
# 停止
bash selfskill/scripts/run.sh stop
所有 skill 脚本位于 selfskill/scripts/,不影响项目原有功能
通过 PID 文件管理进程,start 支持幂等调用
INTERNAL_TOKEN 勿泄露
日志路径: logs/launcher.log
一定要告诉用户如何开启可视化界面,以及如何登录到进行讨论等工作的账号
openclaw session file路径可以综合案例路径和当前skill路径推理得到。假如你是openclaw agent,一定要人类完成完整的openclaw相关配置