Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Agent Swarm - 多智能体集群编排

v1.0.0

创建和编排多智能体集群完成复杂任务。当用户需要将复杂任务拆解给多个专业智能体并行或串行执行时使用此技能。适用场景:(1) 复杂项目需要多角色协作(规划、调研、编码、写作、设计、分析、审核)(2) 需要并行执行多个独立子任务以提高效率 (3) 需要专业分工以优化成本和质量。关键词:多智能体、Agent集群、任务编排...

1· 1.6k·10 current·10 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for lixiang1076/agent-swarm-ex.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Agent Swarm - 多智能体集群编排" (lixiang1076/agent-swarm-ex) from ClawHub.
Skill page: https://clawhub.ai/lixiang1076/agent-swarm-ex
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install agent-swarm-ex

ClawHub CLI

Package manager switcher

npx clawhub@latest install agent-swarm-ex
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
技能宣称的目标(将复杂任务拆解并用多个专用智能体并行或串行执行)与所包含的 SKILL.md、配置模板和管理脚本一致;脚本用于创建 agent 工作目录、管理 agent 配置和记录经验,符合多智能体编排目的。
!
Instruction Scope
运行说明要求直接复制模板到 ~/.openclaw/openclaw.json、重启 Gateway 并使用 sessions_spawn 调度子智能体——这些是合理的配置步骤,但它们会修改用户全局 agent 配置和 Gateway 行为。SKILL.md 中有提示用本地 baseUrl (http://127.0.0.1:8765) 指向名为 chj-private 的提供商并使用 'proxy-handled' apiKey,这会把模型调用导向一个不明的本地/代理端点。SKILL.md 预扫描提示存在 unicode 控制字符(提示可能含隐藏/注入内容),值得人工检查 SKILL.md 原文以确认没有被混入不可见提示或指令。
Install Mechanism
没有 install spec(为 instruction-only 安装),附带的 Python 脚本会在运行时写入 /workspace/agents 等目录,但没有远程下载或执行外部归档;相对低风险。
!
Credentials
技能本身不声明需要任何环境变量或外部凭据, 但其配置模板强烈依赖名为 'chj-private' 的自定义模型提供商并建议在 openclaw.json 中设置 baseUrl 指向 127.0.0.1:8765 和 apiKey 字段。这要求信任一个未知/外部模型提供商或本地代理;将模型流量转向未知端点是高价值的权力,应仅在确认端点可信后才执行。
Persistence & Privilege
技能不会设置 always:true,也不会自动获得平台级别永久权限,但说明鼓励修改 ~/.openclaw/openclaw.json(全局配置)和重启 Gateway,这会改变代理/模型提供商配置并影响其它 agents。建议在备份并在可控环境中修改。
Scan Findings in Context
[unicode-control-chars] unexpected: SKILL.md 中发现 unicode 控制字符的扫描信号。多智能体编排文档通常不需要不可见控制字符 — 这可能被用来隐藏注入指令或改变文本呈现,建议人工检查原文并移除任何不可见/控制字符。
What to consider before installing
这个技能在功能上与其描述一致:它包含配置模板和脚本来创建/管理一组子智能体并使用 sessions_spawn 并行/串行调度。主要风险点: 1) 未知的模型提供商 'chj-private':SKILL.md 和模板要求你在 ~/.openclaw/openclaw.json 中添加一个名为 chj-private 的提供商,并将 baseUrl 指向 http://127.0.0.1:8765。除非你知道并信任该本地代理或服务,否则不要将全局配置指向未知提供商——这会把所有模型调用路由到一个你未审计的端点。 2) 修改全局配置与重启 Gateway:说明建议直接把模板合并到你的 openclaw.json 并重启 gateway。这会影响平台上所有 agents。先备份 ~/.openclaw/openclaw.json(如文档所示),并在隔离环境或测试实例上验证改动。 3) 隐藏控制字符 / 注入风险:预扫描检测到 unicode 控制字符,可能用于隐藏指令或诱导模型行为。请人工打开 SKILL.md 原文、references 文件及脚本,查找并移除不可见字符,确认没有恶意/非预期提示。 4) 脚本行为:随包提供的脚本会在 /workspace/agents 下创建、备份或删除目录并写入经验文件(experience.json/experience.md)。这些操作本身合理,但请在受限环境(容器或临时工作区)下先运行脚本以观察行为。 5) 建议操作步骤: - 先在隔离的测试环境(临时 VM 或容器)中安装并运行脚本,验证行为; - 备份 ~/.openclaw/openclaw.json;不要直接合并模板到生产配置; - 审核并删除 SKILL.md 与引用文件中的不可见控制字符; - 如果需要使用该技能,替换或验证 chj-private 的 baseUrl/apiKey 指向可信服务(或改为你信任的模型提供商); - 留意 experience_logger.inject() 等功能会将历史经验注入到 prompts,确保这些经验文件不包含敏感信息或凭据。 如果你 want, 我可以帮助你审查 chj-private-config-template.json 中的模型/URL、查找并显示 SKILL.md 中的不可见字符,或把这套配置先在隔离环境中模拟运行并报告实际文件变更。

Like a lobster shell, security has layers — review code before you run it.

latestvk970r97e36kxde7edspervtcm1829nx6
1.6kdownloads
1stars
1versions
Updated 17h ago
v1.0.0
MIT-0

Agent Swarm - 多智能体集群编排

概述

此技能使你成为智能体团队的指挥官,能够根据任务复杂度智能调度多个专业智能体协同完成工作。

核心流程:分析任务 → 拆解子任务 → 选择合适的 Agent → 并行/串行执行 → 整合结果

可用智能体团队

Agent IDEmoji角色定位核心能力可用工具
pm📋规划者需求分析、任务拆解、优先级排序read, write, edit, web_search, web_fetch, memory
researcher🔍信息猎手广度搜索、交叉验证、结构化输出web_search, web_fetch, read, write, memory
coder👨‍💻代码工匠编码、调试、测试、重构read, write, edit, exec, process
writer✍️文字工匠文档、报告、文案、翻译read, write, edit, memory
designer🎨视觉创作者配图、插画、数据可视化read, write
analyst📊数据侦探数据处理、统计分析、趋势预测read, write, edit, exec
reviewer🔎质量守门人代码审查、内容审核、合规检查read, memory
assistant💬沟通桥梁简单问答、消息转发、提醒message, read, sessions_send
automator🤖效率大师定时任务、网页自动化、脚本exec, process, cron, browser, read, write

智能体人格速览

智能体一句话定位核心原则
📋 pm把模糊需求变成清晰方案用户视角、目标导向、优先级思维
🔍 researcher找到别人找不到的资料广度优先、多源验证、标注来源
👨‍💻 coder写出优雅高效的程序先理解再动手、简单优于复杂、可读性优先
✍️ writer把信息变成有价值的内容读者优先、结构清晰、言之有物
🎨 designer让想法变成图像目的明确、简洁清晰、风格一致
📊 analyst从数字中发现故事数据质量、假设驱动、洞察导向
🔎 reviewer确保输出达到标准客观公正、建设性反馈、不直接修改
💬 assistant传递信息、快速响应简洁明了、知道边界、友好礼貌
🤖 automator让重复的事自动化ROI思维、稳定可靠、有监控

模型分配参考

智能体模型用于说明
mainAWS Claude Opus 4.6任务编排中心最强推理能力
pmAzure GPT-5规划、分析综合能力强
researcherAzure GPT-5-Mini搜索、调研快速响应,成本低
coderAzure GPT-5-Codex编程、调试编程专用模型
writerAzure GPT-5写作、文档语言能力强
designerBailian Qwen3-VL-Plus图像、配图视觉生成模型
analystAzure GPT-5-Codex数据分析数据处理+编程
reviewerAzure O3审查、审核推理模型,逻辑严密
assistantAzure GPT-5-Mini消息转发快速响应
automatorAzure GPT-5-Codex自动化脚本编程能力

成本优化原则:简单任务用 Mini 模型,编程用 Codex,推理用 O3,视觉用 VL。

编排流程

Step 1: 任务分析

收到任务 → 判断复杂度
├── 简单任务 → 直接执行
└── 复杂任务 → 进入编排模式

Step 2: 任务拆解

将复杂任务分解为独立子任务,明确:

  • 每个子任务的目标和输出格式
  • 输入数据和上下文
  • 依赖关系(哪些可并行,哪些需串行)

Step 3: Agent 选择

根据子任务性质选择最合适的 Agent:

任务类型推荐智能体说明
项目规划、需求分析📋 pm输出任务列表和优先级
信息搜集、资料整理🔍 researcher多源搜索,结构化输出
写代码、修bug、脚本👨‍💻 coder可执行 shell 命令
写文章、文档、报告✍️ writer基于资料进行创作
配图、插画、图表🎨 designer图像生成
数据分析、统计📊 analyst可执行数据处理脚本
代码审查、内容审核🔎 reviewer只读,给出建议
消息转发、简单问答💬 assistant快速响应
定时任务、自动化🤖 automator可设置 cron

Step 4: 执行调度

使用 sessions_spawn 调度子智能体。spawn 是异步的,子任务完成后会自动回报结果。

并行执行示例(多个 spawn 同时派发,各自独立执行):

// 在同一个回合内连续 spawn,这些任务会并行执行
// 子任务完成后各自回报,主 Agent 收集结果后汇总

// 方式 1: 直接连续 spawn
sessions_spawn({ task: "搜索 LangChain 资料...", agentId: "researcher", label: "research-langchain" })
sessions_spawn({ task: "搜索 AutoGPT 资料...", agentId: "researcher", label: "research-autogpt" })
sessions_spawn({ task: "搜索 CrewAI 资料...", agentId: "researcher", label: "research-crewai" })
// 三个任务并行执行,分别回报结果

// 方式 2: 循环派发(更清晰)
const frameworks = ["LangChain", "AutoGPT", "CrewAI"]
frameworks.forEach(name => {
  sessions_spawn({
    task: `搜索 ${name} 框架的特点、优缺点、适用场景,输出结构化总结到 /workspace/research/${name.toLowerCase()}.md`,
    agentId: "researcher",
    label: `research-${name.toLowerCase()}`
  })
})
// 子任务完成后自动回报,主 Agent 汇总所有结果

串行执行示例(等待上一步结果再继续):

// 串行需要等待前序任务完成,收到回报后再 spawn 下一个
// 流程:调研 → (等待回报) → 写作 → (等待回报) → 配图 → (等待回报) → 审核

// Step 1: 先派发调研任务
sessions_spawn({ task: "调研 AI Agent 框架...", agentId: "researcher" })
// 等待 researcher 回报结果...

// Step 2: 收到调研结果后,派发写作任务
sessions_spawn({ 
  task: "基于 /workspace/research/ 的调研资料,撰写对比分析文章...", 
  agentId: "writer" 
})
// 等待 writer 回报...

// Step 3: 文章完成后,派发配图任务
sessions_spawn({ task: "为文章生成配图...", agentId: "designer" })

混合编排示例(先并行,后串行):

// Phase 1: 并行调研(同时派发)
sessions_spawn({ task: "搜索 LangChain...", agentId: "researcher", label: "r1" })
sessions_spawn({ task: "搜索 AutoGPT...", agentId: "researcher", label: "r2" })
sessions_spawn({ task: "搜索 CrewAI...", agentId: "researcher", label: "r3" })

// 等待 3 个调研任务都完成...

// Phase 2: 串行处理(基于汇总结果)
sessions_spawn({ task: "整合调研资料,撰写报告...", agentId: "writer" })
// 等待 writer 完成...

sessions_spawn({ task: "审核报告质量...", agentId: "reviewer" })

Step 5: 结果整合

  • 收集所有子 Agent 的输出
  • 整合、去重、格式化
  • 输出最终交付物
  • 必须输出执行统计(见下方模板)

编排示例

示例 1: 技术调研报告

用户: "调研主流 AI Agent 框架,写一篇对比分析文章"

编排方案:
├── 🔍 researcher × 3 (并行)
│   ├── 搜索 LangChain - 整理功能、优缺点、案例
│   ├── 搜索 AutoGPT - 整理功能、优缺点、案例  
│   └── 搜索 CrewAI - 整理功能、优缺点、案例
├── ✍️ writer (串行,等调研完成)
│   └── 整合资料,撰写对比分析文章
├── 🎨 designer (串行)
│   └── 生成框架对比图/架构图
└── 🔎 reviewer (串行)
    └── 审核文章质量,提出改进建议

示例 2: 代码项目

用户: "帮我重构这个项目的认证模块"

编排方案:
├── 📋 pm (可选)
│   └── 分析需求,拆解重构步骤
├── 👨‍💻 coder
│   └── 分析现有代码,实现重构
└── 🔎 reviewer (串行)
    └── 代码审查,确保质量

示例 3: 数据分析报告

用户: "分析这份销售数据,生成月度报告"

编排方案:
├── 📊 analyst
│   └── 数据清洗、统计分析、发现洞察
├── ✍️ writer (串行)
│   └── 撰写分析报告
└── 🎨 designer (串行)
    └── 生成数据可视化图表

示例 4: 自动化任务

用户: "帮我设置每天早上自动检查 GitHub trending"

编排方案:
├── 🤖 automator
│   └── 编写脚本 + 设置 cron 定时任务

编排原则

  1. 简单任务不过度编排 — 能直接做的就直接做,不要为了用而用
  2. 合理并行 — 无依赖的任务并行执行,提高效率
  3. 明确交接 — 子任务输出要清晰完整,便于下游使用
  4. 失败处理 — 某个子任务失败时,决定重试还是跳过
  5. 结果整合 — 最终输出要连贯,不是简单拼接
  6. 成本意识 — 优先用便宜模型,复杂任务才用贵模型

调用语法

sessions_spawn({
  task: "具体任务描述,包含必要的上下文和期望的输出格式",
  agentId: "researcher",   // 指定 Agent ID
  model: "glm",            // 可选,覆盖 Agent 默认模型
  label: "task-name",      // 可选,便于追踪
  runTimeoutSeconds: 300   // 可选,超时时间(秒)
})

Task 描述最佳实践

好的 task 描述应包含:
1. 明确的目标 - 要做什么
2. 必要的上下文 - 背景信息
3. 输出要求 - 格式、保存位置
4. 约束条件 - 限制和注意事项

示例:
"搜索 LangChain 框架的最新资料,整理以下内容:
1. 核心功能和架构
2. 优点和缺点
3. 典型使用案例
4. 与其他框架的对比

输出格式:Markdown
保存到:/workspace/research/langchain.md
语言:中文"

任务完成统计

完成智能体团队协作任务后,必须输出统计信息:

## 📊 智能体团队执行统计

### 执行明细
| 智能体 | 任务 | 耗时 | Tokens (in/out) | 状态 |
|--------|------|------|-----------------|------|
| 🔍 researcher | LangChain调研 | 2m30s | 8k/1.2k | ✅ |
| 🔍 researcher | AutoGPT调研 | 2m45s | 9k/1.0k | ✅ |
| ✍️ writer | 撰写报告 | 3m12s | 15k/2.5k | ✅ |
| 🎨 designer | 生成配图 | 45s | 2k/- | ✅ |

### 成本汇总
- **总耗时**: 9m12s(并行优化后实际: 6m30s)
- **总 Tokens**: 34k input / 4.7k output
- **实际成本**: $0.12
- **全用主模型成本**: $0.29
- **节省**: 59%

### 效率分析
- **并行任务数**: 2个 researcher 并行
- **串行节省**: 通过并行节省 ~2m45s

详细模板见 references/statistics-template.md

智能体工作目录

每个智能体有独立的工作目录,包含其人格配置:

/workspace/agents/
├── pm/           # 📋 产品经理
│   ├── SOUL.md   # 人格定义
│   └── AGENTS.md # 工作规范
├── researcher/   # 🔍 研究员
├── coder/        # 👨‍💻 程序员
├── writer/       # ✍️ 写作者
├── designer/     # 🎨 设计师
├── analyst/      # 📊 分析师
├── reviewer/     # 🔎 审核员
├── assistant/    # 💬 助手
└── automator/    # 🤖 自动化

智能体配置管理

使用 agent_manager.py 脚本管理智能体集群:

# 列出所有智能体
python3 scripts/agent_manager.py list

# 查看智能体详情
python3 scripts/agent_manager.py show researcher

# 添加新智能体(使用模板)
python3 scripts/agent_manager.py add my_agent --template researcher --name "我的智能体" --emoji "🚀"

# 删除智能体(默认会备份)
python3 scripts/agent_manager.py remove my_agent

# 更新智能体配置
python3 scripts/agent_manager.py update my_agent --name "新名称"

可用模板

模板说明默认模型
default通用智能体claude-opus-4
researcher研究调研glm-4
coder编程开发claude-opus-4
writer内容写作gemini-2.5-pro

智能体经验记忆

每个智能体可以积累任务经验,用于提升后续任务的执行质量。

经验记录结构

/workspace/agents/<agent_id>/
└── memory/
    ├── experience.md    # 人类可读的经验记录
    └── experience.json  # 结构化经验数据

使用 experience_logger.py

# 记录一条经验
python3 scripts/experience_logger.py log researcher "搜索技术资料时,英文关键词效果更好" --task "LangChain调研"

# 查看智能体经验
python3 scripts/experience_logger.py show researcher --limit 10

# 生成经验摘要
python3 scripts/experience_logger.py summary researcher

# 输出可注入 prompt 的经验(用于 spawn 时注入)
python3 scripts/experience_logger.py inject researcher --limit 5

在任务中使用经验

方法 1: 在 task 描述中注入经验

# 获取历史经验
import subprocess
result = subprocess.run(
    ["python3", "scripts/experience_logger.py", "inject", "researcher", "--limit", "5"],
    capture_output=True, text=True
)
experiences = result.stdout

# 在 spawn 时注入
sessions_spawn({
    task: f"""搜索 xxx 资料...

{experiences}
""",
    agentId: "researcher"
})

方法 2: 智能体主动读取经验

在智能体的 AGENTS.md 中添加指引:

## 任务前准备
执行任务前,先读取 memory/experience.md 中的历史经验。

## 任务后总结
完成任务后,总结 1-3 条有效经验,记录到 memory/experience.md。

经验记录最佳实践

好的经验记录

  • 具体可操作:"搜索 GitHub 时加 language:python 过滤更精准"
  • 有因果关系:"JSON 输出比纯文本更便于下游处理"
  • 针对性强:"处理大文件时分块读取,避免内存溢出"

避免的记录

  • 太笼统:"要认真工作"
  • 太具体:"用户 A 喜欢蓝色"(除非是个性化智能体)
  • 重复已有的:"要输出 Markdown 格式"(已在 AGENTS.md 中)

经验自动总结(推荐)

在每个智能体的 AGENTS.md 末尾添加:

## 任务完成后

1. 检查输出是否符合要求
2. 总结本次任务中的有效经验(1-3 条)
3. 将经验追加到 memory/experience.md,格式:
   - [YYYY-MM-DD] 经验描述 (任务名称)

这样智能体在完成任务后会自动总结经验,无需手动干预。

配置与部署

如需配置新的智能体团队或添加新模型,请参阅 references/setup-guide.md

使用初始化脚本快速创建工作目录:

python3 scripts/init_agents.py --base-path /workspace/agents

Comments

Loading comments...