Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

NVIDIA Agent Fleet

v1.1.0

NVIDIA Agent Fleet — 19个模型Agent + 智能调度引擎 + 并行协作

0· 88·0 current·0 all-time
byClement Gu@clementgu

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for clementgu/nvidia-agent-fleet.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "NVIDIA Agent Fleet" (clementgu/nvidia-agent-fleet) from ClawHub.
Skill page: https://clawhub.ai/clementgu/nvidia-agent-fleet
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install nvidia-agent-fleet

ClawHub CLI

Package manager switcher

npx clawhub@latest install nvidia-agent-fleet
Security Scan
Capability signals
Requires sensitive credentials
These labels describe what authority the skill may exercise. They are separate from suspicious or malicious moderation verdicts.
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
high confidence
!
Purpose & Capability
技能名与描述强调“ NVIDIA Agent Fleet”,但 agents/registry 列出了来自多家厂商(Mistral、Qwen、Meta、Google 等)的模型,且 dispatcher 将把任务发送到一个统一的 NVIDIA API 端点。把多厂商模型包装为“ NVIDIA”调度器是误导性的/不一致的:如果这个 endpoint 并非真正代理这些模型,调用可能失败或行为不明确。
!
Instruction Scope
运行时指令和代码会自动发现 API key:先检查环境变量,然后用 subprocess 去 source ~/.zshrc 并 echo 变量(这会执行用户的 shell 启动脚本),还会读取 ~/.openclaw/openclaw.json 与 /opt/homebrew/etc/openclaw.yaml 并深度搜索内部字段。该行为超出多数用户期望(会读取并间接执行用户配置文件),并会把用户输入/消息发送到外部 API,从而可能泄露敏感数据。
Install Mechanism
无安装规范(instruction-only),没有下载外部二进制或归档,这是相对低风险;但仓库随附 Python 代码,会在本地解释执行,故静态无 install 不等于无执行风险。
!
Credentials
技能元数据宣称无需环境变量,但代码会主动寻找 NVIDIA_API_KEY(以及在 shell 配置和 openclaw.json 中查找),这与声明不一致。自动从多个位置(包括用户的 shell 配置)提取凭据在权限上不成比例,会增加意外泄露或误用凭据的风险。
Persistence & Privilege
技能未设置 always: true,也未声明修改其他技能或系统配置。主要风险来自于:允许模型/代理自动调用外部 API(disable-model-invocation 未禁用)并且会自动检索本地凭据 —— 将自动调用与凭据自动发现结合,会扩大潜在泄露范围;但技能本身不显式要求长期驻留或篡改其他配置。
What to consider before installing
主要风险点: - 该技能会自动尝试检索 NVIDIA_API_KEY:它不仅读取环境变量,还会用 subprocess 去 source ~/.zshrc(会执行该文件),并扫描本地 openclaw 配置文件。这能意外运行用户 shell 启动脚本并暴露其他敏感内容。 - 调度器会把你的任务文本与 system/user prompts 发送到外部 URL (https://integrate.api.nvidia.com/v1),并带上发现的 API Key —— 所有被发送的内容都可能到达第三方服务。不要让它处理密码、私有代码、API 密钥或敏感 PII,除非你完全信任源头并能验证 endpoint 的合法性。 - registry 列出的模型来自多个供应商,但技能把它们包装为“ NVIDIA Fleet”,这可能是误导或与实际后端能力不匹配。 建议操作: 1) 在安装前要求作者/发布者提供源码来源与 homepage,确认该 NVIDIA API 端点是否官方、以及它如何代理或路由到其他模型。不要仅信任匿名发布者。 2) 在受控环境或沙箱中先运行:用非敏感示例调用,观察网络请求与外发域名,确认不会上传敏感数据。 3) 优先提供显式的 NVIDIA_API_KEY(通过安全方式/秘密管理器)而关闭自动发现;若不得已使用自动发现,先从 ~/.zshrc 或 openclaw.json 中删除敏感条目并备份。 4) 若不信任该技能来源,拒绝安装;或者手动审计并修改代码(移除对 ~/.zshrc 的 source 调用,限制配置文件搜索路径,明确要求用户提供 API key)。 如果你希望我帮你,我可以:检查完整的 dispatcher/fleet.py(剩余被截断部分),指出所有可能的外联点与凭据访问点,或生成修改建议(如移除 source 调用并改为只读取 explicit env var)。

Like a lobster shell, security has layers — review code before you run it.

latestvk97b53pet5zv63hhg7p6aq4nq185cpaq
88downloads
0stars
4versions
Updated 4d ago
v1.1.0
MIT-0

🚀 NVIDIA Agent Fleet

多 Agent 调度系统。每个 NVIDIA 模型拥有专属 Agent 身份,调度器自动分析任务类型并分配最佳 Agent 执行。

架构

任务输入 → 调度引擎 → 任务分类 → Agent 匹配 → 执行
                                            ├── DeepSeek V3.2 🧠
                                            ├── Qwen Coder 32B 💻
                                            ├── Kimi K2 🇨🇳
                                            ├── Llama 4 Maverick 🦙
                                            └── ... 19 个 Agent

Agent 阵容 (19个)

Agent模型专长
🧠 deepseek-v3-2DeepSeek V3.2推理、逻辑、数学
🇨🇳 kimi-k2Kimi K2中文、长文本、知识
🤔 kimi-k2-thinkingKimi K2 Thinking深度思考、推理
🏆 mistral-large-3Mistral Large 3 (675B)通用智能、多语言
⚡ mistral-smallMistral Small 4快速响应
💻 qwen-coder-32bQwen2.5 Coder 32B代码生成、算法
🦾 qwen3-coder-480bQwen3 Coder 480B架构设计、审查
🔧 deepseek-coderDeepSeek Coder 6.7B轻量代码、SQL
⚙️ codestralCodestral 22B代码补全、填空
🦙 llama-3-3-70bLlama 3.3 70B通用对话
🦙🆕 llama-4-maverickLlama 4 Maverick创意、分析
🔬 gemma-3-27bGemma 3 27B学术、科学
🏎️ phi-4-miniPhi-4 Mini极速响应
💨 gemma-3-4bGemma 3 4B超轻量
🌏 yi-largeYi Large中文优化
🏛️ glm-5-1GLM 5.1中文问答
🐉 qwen-3-5-397bQwen 3.5 397B超大中文
👁️ llama-vision-90bLlama Vision 90B视觉理解
📐 nv-embedNV-EmbedQA文本嵌入

使用

CLI

# 自动调度最佳 Agent
fleet "用Python写一个快速排序"

# 分析任务会匹配哪些 Agent
fleet analyze "解释一下量子纠缠"

# 指定 Agent 执行
fleet agent qwen-coder-32b "实现二分查找"

# 多 Agent 协同
fleet multi "如何看待人工智能的未来?"

# 列出所有 Agent
fleet list

⚡ 并行执行(v1.1.0 新增)

# 多 Agent 并行协同(同时调不同模型,互不等待)
fleet --multi --parallel "对比茅台和五粮液的财务状况"

# 指定 Agent 并行
fleet --multi --parallel --agent deepseek-v3-2,kimi-k2 "分析这个创业方案"

# 仍支持原有串行模式
fleet --multi "分析市场趋势"

并行 vs 串行 速度对比

串行: 任务A→任务B→任务C→任务D = 4个加起来
并行: 同时发4个请求 = 最慢那个决定总时间
加速比: x2~4 (取决于模型)

自动超时保护

每个模型有独立超时时间,快的先出结果,慢的到点自动跳过:

模型超时说明
Llama 4 Maverick15s写作/报告类,极快
Qwen Coder 32B20s代码/数据处理
Kimi K225s中文分析
DeepSeek V3.235s深度推理(最慢)
其他30s通用

API Key 自动发现

支持多级检索,无需手动设置环境变量:

1. $NVIDIA_API_KEY (环境变量)
2. ~/.zshrc (常用 shell 配置)
3. openclaw.json (OpenClaw 配置)

Python SDK

from dispatcher.fleet import dispatch, select_agents, multi_dispatch

# 自动匹配
result = dispatch("实现一个Web服务器")
print(result["content"])

# 多Agent协同(串行)
results = multi_dispatch("哲学问题:意识是什么?")

# 多Agent协同(并行执行)🚀
results = multi_dispatch("分析市场", parallel=True)
for r in results:
    print(f"{r['emoji']} {r['name']}: {r['content'][:100]}...")

v1.1.0 变更

✨ 新增

  • 并行执行模式 (--parallel / -p): 多 Agent 同时调用,互不等待
  • 逐模型超时保护: 每个模型有独立超时,慢的不拖累快的
  • API Key 自动发现: 环境变量 → .zshrc → openclaw.json 三级检索
  • 线程安全: ThreadPoolExecutor + Lock 确保日志不串

🔧 优化

  • 执行失败时优雅降级,已完成结果不受影响
  • 超时模型明确标记,不阻塞整体流程

Comments

Loading comments...