Install
openclaw skills install stpku-model-routerIntelligent model routing for OpenClaw. Automatically selects the best model from 8 available models based on task type, content length, and quality requirem...
openclaw skills install stpku-model-router智能模型路由器,为 OpenClaw 提供 8 个百炼模型的自动路由能力。
| 模型 | 上下文 | 输出 | 优势场景 |
|---|---|---|---|
| qwen3.5-plus | 1M | 65K | 通用任务、图像理解 |
| qwen3-max | 256K | 65K | 复杂推理、高质量输出 |
| qwen3-coder-next | 256K | 65K | 快速代码生成 |
| qwen3-coder-plus | 1M | 65K | 大型代码项目理解 |
| MiniMax-M2.5 | 200K | 128K | 长文本生成、创作 |
| glm-5 | 196K | 16K | 中文理解、知识问答 |
| glm-4.7 | 196K | 16K | 快速响应、简单任务 |
| kimi-k2.5 | 256K | 32K | 长文档、图像理解 |
clawhub install model-router
# 查询编程任务
python3 model_router.py coding quick-fix
# 查询写作任务
python3 model_router.py writing long-article 50000
# 查询分析任务
python3 model_router.py analysis complex-reasoning 0 premium
from model_router import ModelRouter
router = ModelRouter()
# 简单查询
model = router.select('coding', 'quick-fix')
# 返回:bailian/qwen3-coder-next
# 带参数查询
model = router.select(
task_type='writing',
task_subtype='long-article',
content_length=50000,
quality='balanced'
)
# 返回:bailian/MiniMax-M2.5
# 获取模型信息
info = router.get_model_info('bailian/qwen3.5-plus')
print(info['name']) # 通义千问 3.5 Plus
print(info['strengths']) # ['general', 'multimodal', 'long-context']
# 解释选择原因
explanation = router.explain_choice('bailian/MiniMax-M2.5', 'writing', 'long-article')
print(explanation)
quick-fix → qwen3-coder-nextnew-feature → qwen3-coder-pluscode-review → qwen3-coder-plusrefactoring → qwen3-coder-plusdebug → qwen3.5-plusdocumentation → qwen3-coder-nexttest → qwen3-coder-nextshort-content → glm-4.7long-article → MiniMax-M2.5technical-doc → qwen3.5-pluscreative-writing → MiniMax-M2.5email → glm-4.7report → qwen3.5-plusscript → kimi-k2.5simple-qa → glm-4.7complex-reasoning → qwen3-maxdata-analysis → qwen3.5-plusresearch → glm-5comparison → glm-5image-understanding → qwen3.5-plusdocument-ocr → kimi-k2.5chart-analysis → qwen3.5-plusdiagram → qwen3.5-plusbook-summary → qwen3-coder-pluslegal-doc → qwen3.5-plusmeeting-notes → MiniMax-M2.5transcript → kimi-k2.5| 等级 | 说明 | 推荐模型 |
|---|---|---|
| economy | 经济快速 | glm-4.7, qwen3-coder-next |
| balanced | 平衡性能和成本 | qwen3.5-plus, kimi-k2.5 |
| premium | 最佳质量 | qwen3-max, qwen3-coder-plus |
编辑 /home/skyswind/.openclaw/openclaw.json:
{
"agents": {
"list": [
{
"id": "main",
"model": {
"primary": "bailian/qwen3.5-plus",
"fallback": ["bailian/glm-5", "bailian/kimi-k2.5"]
}
},
{
"id": "coding",
"model": {
"primary": "bailian/qwen3-coder-plus",
"fallback": ["bailian/qwen3-coder-next"]
}
},
{
"id": "research",
"model": {
"primary": "bailian/glm-5",
"fallback": ["bailian/qwen3-max", "bailian/qwen3.5-plus"]
}
},
{
"id": "social",
"model": {
"primary": "bailian/MiniMax-M2.5",
"fallback": ["bailian/glm-4.7"]
}
}
]
}
}
model-router/
├── SKILL.md # 技能文档
├── model_router.py # 路由器实现
├── metadata.json # 元数据
├── _meta.json # 发布元数据
├── CHANGELOG.md # 变更日志
└── references/ # 参考文档(可选)
├── usage-guide.md
└── model-comparison.md
$ python3 model_router.py coding quick-fix
推荐模型:bailian/qwen3-coder-next
🎯 选择 通义千问 Coder Next
**优势领域**: coding, quick-response
**上下文窗口**: 262,144 tokens
**最大输出**: 65,536 tokens
**速度**: fastest
**成本等级**: 💰
**适合任务**: coding → quick-fix
编辑 model_router.py 中的 TASK_MODEL_MAP 字典。
可以,在 MODEL_PROFILES 中添加新模型的能力画像。
在 model_router.py 中添加日志记录,统计各模型调用次数。
MIT
白龙马 🐴