Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Smart Model Switch

智能模型自动切换。根据消息复杂度和文件类型自动选择最优模型(Flash/Main/Coding/Vision/Complex),提升响应质量和效率。Trigger on "模型切换", "智能模型", "自动选择模型", "model switch".

MIT-0 · Free to use, modify, and redistribute. No attribution required.
0 · 57 · 0 current installs · 0 all-time installs
MIT-0
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
技能名/描述和包含的脚本(复杂度分析、文件类型检测、上下文监控、切换脚本)在功能上相符——所有文件都围绕‘选择/切换模型’展开。少量元数据不一致(README/SKILL.md 中提到的 GitHub 链接与 package.json repository 不完全一致),以及代码期望的配置路径(多数脚本查找 config.json)与仓库中实际提供的配置文件名称(config/model-rules.json / config.example.json)不一致,会导致部署或运行时行为异常,但不是直接恶意。
!
Instruction Scope
SKILL.md 与集成指南强烈建议或示例将脚本集成到“回复前钩子”(pre-reply)或让 AI 每次回复前调用 integrate-check.sh;安装脚本会创建日志目录、状态文件并(可选)添加 crontab 定时任务。pre-reply 钩子 + 定时任务会使该脚本在多数回复或定时情况下自动运行,从而获得持续执行权。脚本读取/写入 ~/.openclaw/*(状态、日志、model-switch-requests、可能修改配置),并依赖 OpenClaw 状态 API(get-context-usage.sh 尝试调用 openclaw status 或读取 openclaw status 文件)。虽然当前代码没有明显的外部网络数据泄露调用,但把本地脚本注入到回复路径会放大风险:任意脚本在回复前运行可能读取会话上下文或本地文件并输出内容。
Install Mechanism
仓库是 instruction+本地脚本形式(没有远程下载或不明 URL),install.sh 在本地执行,检查本地依赖 (node, jq)、设置权限、创建目录、可选写入 crontab 并初始化状态文件。没有通过不可信网络托管代码的高危下载,但 install.sh 会修改 crontab(可选)并在用户家目录下创建/写入多个目录(~/.openclaw/logs, ~/.openclaw/model-switch-requests),所以需要本地审查并在受信环境运行。
!
Credentials
注册表条目显示无需环境变量或凭证,但脚本库实际上支持并优先使用多种环境变量(SMART_MODEL_SWITCH_CONFIG, SMART_MODEL_SWITCH_DATA_DIR, SMART_MODEL_SWITCH_LOG_DIR, OPENCLAW_CONFIG, OPENCLAW_STATUS 等)。脚本会读取 OpenClaw 的配置/状态文件路径(~/.openclaw/config.json, status.json),并可能写入 model-switch 请求目录和本地 config。技能并不要求外部 API 密钥,但依赖并期望访问本地 OpenClaw 配置/状态,这会让技能能影响或读取代理的会话相关配置;这种访问与技能目的相关但具有较高敏感度,应在安装前确认不会泄露敏感字段(如 SESSION_KEY)或被滥用。
!
Persistence & Privilege
尽管 registry flags 表示 always:false,技能通过安装脚本/集成指南建议用户: (1) 在 pre-reply 钩子中自动调用 integrate-check.sh,(2) 可选添加每10分钟的 crontab。两者都会赋予技能长期的、经常性的执行机会并修改用户环境(crontab、~/.openclaw/hooks/pre-reply.sh),这使得技能在安装后能够持续介入代理的回复流程和系统行为,放大潜在滥用或配置错误造成的影响。建议在授予此类持久性前进行逐行代码审计并备份改动。
Scan Findings in Context
[none] expected: 静态预扫描未发现注入信号。脚本主要在本地进行文件读写与简单控制流,未见明显的外部 URL 下载或隐写/混淆代码——这是与其功能一致的预期,但不等同于无风险。
What to consider before installing
要点与建议(简短可操作): 1) 在任何自动化集成前先人工审查关键脚本:特别是 scripts/switch-model.sh、scripts/integrate-check.sh、scripts/ai-proactive-check.sh、scripts/get-context-usage.sh 与 lib.sh/lib.js,确认它们不会向远程服务器发送会话或凭证。不要直接信任 README 的快捷集成示例。 2) 不要立刻把脚本加入 pre-reply 钩子或启用 crontab:先在隔离环境(本地测试帐号或容器)执行 install.sh 并人工触发 integrate-check.sh,观察行为和日志,再决定是否自动注入到回复流程。 3) 备份 OpenClaw 配置与状态文件:在安装或运行前备份 ~/.openclaw/config.json 和任何相关状态文件,防止被意外覆盖或错误写入。 4) 禁用自动切换/自动通知选项直到确认安全:config.json 中 auto_switch 默认为 false,但安装/集成指南会启用提醒、钩子和定时任务。保持 auto_switch=false,并在配置中关闭通知/定时任务,直到完成审计。 5) 检查是否存在未列出的网络调用:虽然当前文件未显示明显的远程上载逻辑,但有些 config.example.json 包含 api_endpoints;检查所有脚本(尤其可能未展开的其他四个被截断的文件)确认没有向这些 endpoint 发起请求或把会话内容发送出去。 6) 若你缺乏运维权限或时间,请在沙箱/测试帐户中评估,或只手动使用 analyze/smart-switch 脚本而不启用自动化钩子。 如果你愿意,我可以重点审查 switch-model.sh 和任何被截断的文件(剩余 4 个)来判断是否存在写入 ~/.openclaw/config.json、发起网络请求或读取敏感凭证的行为;这将提升评估置信度。

Like a lobster shell, security has layers — review code before you run it.

Current versionv1.4.2
Download zip
latestvk97bf63anmq6tkprgxjt1edmfx8382z3

License

MIT-0
Free to use, modify, and redistribute. No attribution required.

SKILL.md

智能模型切换 v1.3

根据消息复杂度、文件类型自动选择最优模型。

🎯 选择规则

评分模型适用
0-3Flash简单问答、快速查询
4-6Main常规对话、分析任务
-Coding代码文件(.js/.py/.java等)
-Vision图片/视频(.jpg/.png/.mp4等)
-Complex文档(.pdf/.docx等)
8-10Complex深度分析、架构设计
85%+Long-Context超长上下文(256k窗口)

优先级:文件类型 > 消息特征 > 复杂度评分 > 默认模型

🚀 使用方式

# 安装
cd skills/smart-model-switch && bash install.sh

# 增强分析
./scripts/smart-switch-enhanced.sh "分析视频" "/path/to/video.mp4"

# AI集成(每次回复前自动执行)
scripts/integrate-check.sh

📁 文件结构

smart-model-switch/
├── scripts/
│   ├── analyze-complexity.js    # 消息复杂度分析
│   ├── analyze-file-type.js     # 文件类型分析
│   ├── smart-switch-enhanced.sh # 增强切换
│   └── integrate-check.sh       # AI集成
└── config/model-rules.json      # 模型规则配置

⚠️ 注意

  • 上下文连续2次超85% → 自动提醒切换
  • 切换后10分钟冷却期
  • 评分维度:长度(30%) + 关键词(40%) + 代码(20%) + 视觉(10%)

🤖 子代理模型选择(Subagent Model Selection)

子代理默认用 glm-5-turbo,但应根据任务类型自动选模型:

任务类型 → 模型映射

任务类型模型Thinking说明
扫描/搜索/监控glm-5-turbo便宜快速,高吞吐
Review/简单分析glm-5-turbo够用就好
开发/编码/修复glm-5质量优先,减少bug
架构设计/重构glm-5深度思考,复杂推理

sessions_spawn 建议

spawn 子代理时,根据任务标签自动选模型:

标签含 scan/search/monitor → --model zai/glm-5-turbo
标签含 develop/coding/fix  → --model zai/glm-5
标签含 architecture/design → --model zai/glm-5 --thinking
无明确标签                → 默认 zai/glm-5-turbo(省钱)

检测关键词:配置见 config.jsonsubagent.labelDetection

省钱原则

  • ✅ 简单任务用 turbo,省钱省时间
  • ✅ 编码质量用 glm-5,避免返工浪费更多
  • ✅ 默认 turbo,只在需要时升级
  • ❌ 不要所有任务都用 glm-5

详细文件类型映射、模型配置、使用示例见 references/skill-details.md


📄 许可证与版权声明

MIT License

Copyright (c) 2026 思捷娅科技 (SJYKJ)

免费使用、修改和重新分发时,需注明出处。

出处

商业使用授权

  • 个人/开源:免费
  • 小微企业(<10 人):¥999/年
  • 中型企业(10-50 人):¥4,999/年
  • 大型企业(>50 人):¥19,999/年
  • 源码买断:¥99,999 一次性

详情请查看:LICENSE

Files

26 total
Select a file
Select a file to preview.

Comments

Loading comments…