AIEO monitoring
AIEO 效果监控与追踪工具,用于定期监测品牌在 AI 搜索平台的可见性变化、内容质量评估和业务转化追踪。当用户提到"AIEO监控"、"AI可见性追踪"、"效果监控"、"监控报告"、"定期测试"或需要追踪品牌在AI平台表现变化时,自动调用此Skill。监控报告保存至 monitoring/ 目录,文件名格式:{品...
MIT-0 · Free to use, modify, and redistribute. No attribution required.
⭐ 0 · 36 · 0 current installs · 0 all-time installs
byKaden Lau@kenerlee
MIT-0
Security Scan
OpenClaw
Suspicious
medium confidencePurpose & Capability
The skill is an instruction-only AIEO monitoring tool that uses browser automation (Playwright MCP actions), WebFetch/WebSearch and local read/write of monitoring/ and screenshots—these capabilities are consistent with automated cross‑platform monitoring. However, references to a shared dot-folder path (.claude/skills/shared/question_library.md) and audits/positioning/* suggest the skill expects access to other local skill resources or hidden config directories; the relationship of those paths to the user's environment isn't explained.
Instruction Scope
Runtime instructions instruct automated navigation to multiple AI platforms and saving screenshots/reports locally. That is expected for monitoring, but Playwright-based automation can access and capture content from logged-in sessions (chat.openai.com, claude.ai, yiyan.baidu.com). The SKILL.md and references also point to reading question libraries from local/shared paths (audits/positioning, .claude/skills/shared/...), which could read files outside the monitored project. The skill does not explicitly limit or warn about capturing sensitive page content or reading hidden folders.
Install Mechanism
Instruction-only skill with no install spec, no downloads, and no declared required binaries or env vars. This minimizes disk persistence risk and matches the simple documentation-only structure.
Credentials
The skill declares no required environment variables or credentials, which is proportional. But the allowed runtime tools (Playwright browser actions, WebFetch/WebSearch) permit access to web sessions and could capture secrets present in browser state (cookies, SSO tokens, account info) if the agent runs with logged-in sessions. The references to .claude shared paths imply reading other local skill resources—no justification or explicit scoping is provided.
Persistence & Privilege
always:false and no install means the skill does not request permanent, force-included presence or system modifications. It writes outputs to monitoring/ as part of normal function. There is no instruction to change other skills' configs or persistent agent settings.
What to consider before installing
This is an instruction-only monitoring skill that uses browser automation to query AI platforms and save reports/screenshots locally. Before installing or running it: 1) Confirm the skill's source/trustworthiness—there is no homepage or publisher info. 2) Inspect or control the question libraries it will read (audits/positioning/* and .claude/skills/shared/question_library.md) to ensure it won't read sensitive or unrelated files. 3) Run automation in an isolated environment (dedicated VM/container) or with browsers that are not logged into personal/organizational accounts—Playwright screenshots can capture sensitive UI content and session cookies. 4) Check where monitoring/screenshots/ and monitoring/ are stored and who can access them. 5) If you expect the skill to access any credentials or post/update content (UTM guidance is present), require explicit consent and review those steps before enabling autonomous runs. If the publisher identity, intended question libraries, or explicit file-scope restrictions are provided, re-evaluate; that information would increase confidence and could move the assessment toward benign.Like a lobster shell, security has layers — review code before you run it.
Current versionv1.0.0
Download ziplatest
License
MIT-0
Free to use, modify, and redistribute. No attribution required.
SKILL.md
AIEO 服务流程: 诊断(生成问题库初稿) → 定位(修正迭代问题库) → 内容(使用问题库) → 监控(使用问题库)
AIEO 效果监控 Skill
专业的 AI Engine Optimization 效果监控工具,帮助品牌定期追踪和评估 AIEO 优化效果,包括 AI 可见性变化、内容质量评估、竞品动态监测和业务转化追踪。
核心价值
AIEO 监控的特殊性
与传统 SEO 监控不同,AIEO 监控面临独特挑战:
| 维度 | 传统SEO监控 | AIEO监控 |
|---|---|---|
| 数据获取 | GA/Search Console | 无直接数据,需手动测试 |
| 结果稳定性 | 相对稳定 | AI回答存在随机性 |
| 平台数量 | 主要看Google/百度 | 6+ AI平台需同时监测 |
| 归因追踪 | 清晰的流量来源 | 间接归因为主 |
| 更新频率 | 实时/每日 | 每周/每两周 |
监控三层体系
┌─────────────────────────────────────────────────────────────┐
│ 第一层:可见性监控 │
│ 品牌是否被AI提及?排名如何?竞品动态? │
├─────────────────────────────────────────────────────────────┤
│ 第二层:质量监控 │
│ AI回答是否准确?定位是否一致?情感是否正面? │
├─────────────────────────────────────────────────────────────┤
│ 第三层:转化监控 │
│ 品牌搜索量变化?官网流量变化?业务指标变化? │
└─────────────────────────────────────────────────────────────┘
报告输出规范
保存位置
monitoring/
命名格式
{品牌名}_AIEO监控报告_{YYYY-MM-DD}.md
示例:
- 百威中国_AIEO监控报告_2025-12-13.md
- 飞鹤奶粉_AIEO监控报告_2025-12-13.md
- OurSchool_AIEO监控报告_2025-12-13.md
截图保存
monitoring/screenshots/
├── {品牌名}_{平台名}_{问题编号}_{日期}.png
├── 百威中国_豆包_Q1_2025-12-13.png
└── ...
监控指标体系
一、可见性指标 (Visibility Metrics)
| 指标代码 | 指标名称 | 定义 | 计算方式 | 目标值 |
|---|---|---|---|---|
| V-1 | AI提及率 | 品牌被AI提及的问题比例 | 提及问题数/测试问题数 | >80% |
| V-2 | AI首推率 | 品牌被首先推荐的比例 | 首推问题数/测试问题数 | >30% |
| V-3 | 平台覆盖率 | 品牌在各平台的覆盖 | 有提及平台数/总平台数 | >70% |
| V-4 | 竞品提及率 | 竞品被同时提及的比例 | 用于竞争分析 | 监测 |
二、质量指标 (Quality Metrics)
| 指标代码 | 指标名称 | 定义 | 评估方式 | 目标值 |
|---|---|---|---|---|
| Q-1 | 内容准确率 | AI回答中信息的准确性 | 人工评估 | >90% |
| Q-2 | 定位一致率 | AI描述与目标定位的一致性 | 对照定位声明 | >70% |
| Q-3 | 情感正面率 | AI描述的情感倾向 | 正面/中性/负面 | >70% |
| Q-4 | 信息完整率 | 核心信息点的覆盖程度 | 检查核心卖点 | >60% |
三、业务指标 (Business Metrics)
| 指标代码 | 指标名称 | 数据来源 | 监测频率 |
|---|---|---|---|
| B-1 | 品牌搜索量 | Google Trends / 百度指数 | 每周 |
| B-2 | 官网流量 | GA4 / 百度统计 | 每周 |
| B-3 | AI来源流量 | GA4 UTM标记 | 每周 |
| B-4 | 品牌词转化 | 电商后台 / CRM | 每月 |
监控问题库
问题库来源
监控阶段使用定位阶段输出的问题库定稿(v2.0)作为监控基准:
问题库获取路径:
audits/positioning/{品牌名}_问题库_*.md
注意: 问题库经过诊断(v1.0初稿)→定位(v2.0定稿)的迭代,已包含完整的核心问题和扩展问题。
问题库流转示意
诊断阶段 定位阶段 内容阶段 监控阶段
│ │ │ │
▼ ▼ ▼ ▼
生成问题库初稿 ──────→ 修正/扩展问题库 ──────→ 基于问题库生成FAQ ──────→ 使用问题库监控
(v1.0 初稿) (v2.0 定稿) (内容输出) (追踪变化)
│ │ │ │
audits/diagnosis/ audits/positioning/ content/ monitoring/
监控问题选取原则
从问题库定稿中选取 20-40 个核心问题作为监控基准:
| 问题类型 | 建议数量 | 选取优先级 | 来源 |
|---|---|---|---|
| 品牌认知类 (BR) | 5-8题 | P0 必选 | 问题库 Tier 1 |
| 品类推荐类 (CR) | 5-8题 | P0 必选 | 问题库 Tier 1 |
| 对比决策类 (CP) | 5-8题 | P0 必选 | 问题库 Tier 1 |
| 场景推荐类 (SC) | 3-5题 | P1 推荐 | 问题库 Tier 2 |
| 产品详情类 (PD) | 2-3题 | P2 可选 | 问题库 Tier 2 |
| 行业专属问题 | 3-5题 | P1 推荐 | 问题库 Tier 3 |
基准问题设定
首次监控时,读取问题库定稿设定监控基准:
Step 1: 读取问题库定稿
Glob: audits/positioning/{品牌名}_问题库_*.md
Read: 最新版本的问题库
Step 2: 选取监控问题
- 全部 Tier 1 问题(约15题)
- 筛选 Tier 2 核心问题(约10题)
- 筛选 Tier 3 行业关键问题(约5题)
Step 3: 记录监控基准
在监控报告中记录本次使用的问题清单
后续监控使用相同问题集,确保可比性
Step 4: 问题集更新
当定位策略调整时,同步更新监控问题集
记录变更历史,便于趋势分析
AI 平台测试配置
必测平台矩阵
| 平台 | URL | 优先级 | 免登录 | 监测重点 |
|---|---|---|---|---|
| 豆包 | doubao.com | P0 | 是(有限制) | 国内主流用户 |
| Kimi | kimi.moonshot.cn | P0 | 是 | 深度内容消费者 |
| 文心一言 | yiyan.baidu.com | P0 | 否 | 百度生态用户 |
| DeepSeek | chat.deepseek.com | P1 | 是 | 技术人群 |
| Perplexity | perplexity.ai | P1 | 是 | 国际市场参考 |
| ChatGPT | chat.openai.com | P2 | 否 | 国际市场参考 |
Playwright MCP 自动化测试
使用 Playwright MCP 进行自动化测试:
测试流程:
1. mcp__playwright__browser_navigate → 导航到AI平台
2. mcp__playwright__browser_snapshot → 获取页面快照定位输入框
3. mcp__playwright__browser_type → 输入测试问题
4. mcp__playwright__browser_press_key (Enter) → 发送问题
5. mcp__playwright__browser_wait_for → 等待AI响应
6. mcp__playwright__browser_snapshot → 获取AI回答
7. mcp__playwright__browser_take_screenshot → 截图保存证据
监控频率建议
按阶段推荐
| 阶段 | 时间段 | 监控频率 | 监控范围 |
|---|---|---|---|
| 初期 | 优化后1-3个月 | 每周一次 | 全量问题+全平台 |
| 稳定期 | 优化后3-6个月 | 每两周一次 | 核心问题+重点平台 |
| 维护期 | 优化后6个月+ | 每月一次 | 抽样问题+主要平台 |
特殊监控时机
- 内容发布后: 新FAQ/对比内容上线后3-7天
- 竞品动态: 发现竞品优化动作后立即监测
- 负面舆情: 发现负面AI回答后立即监测
- 重大事件: 品牌重大活动/事件前后
监控报告结构
完整的监控报告应包含以下章节:
# {品牌名} AIEO监控报告
**监控日期**: YYYY-MM-DD
**监控周期**: 第X周/月
**对比基准**: 上次监控日期
---
## 一、核心指标摘要
| 指标 | 本期 | 上期 | 变化 | 趋势 |
|------|------|------|------|------|
| AI提及率 | XX% | XX% | +X% | ↑/↓/→ |
| AI首推率 | XX% | XX% | +X% | ↑/↓/→ |
| 定位一致率 | XX% | XX% | +X% | ↑/↓/→ |
| 情感正面率 | XX% | XX% | +X% | ↑/↓/→ |
**整体评价**: [进步/稳定/需关注]
---
## 二、AI可见性详情
### 2.1 各平台测试结果
| 问题 | 豆包 | Kimi | 文心 | DeepSeek | Perplexity |
|------|------|------|------|----------|------------|
| Q1: [品牌]怎么样? | ✅首推 | ✅提及 | ❌ | ✅提及 | ✅首推 |
| Q2: [品类]推荐 | ✅提及 | ✅首推 | ✅提及 | ❌ | ✅提及 |
| ... | ... | ... | ... | ... | ... |
### 2.2 与上期对比
[变化分析]
### 2.3 竞品动态
| 竞品 | 本期提及率 | 上期提及率 | 变化 |
|------|-----------|-----------|------|
| 竞品A | XX% | XX% | +X% |
| 竞品B | XX% | XX% | -X% |
---
## 三、内容质量评估
### 3.1 准确性检查
[AI回答中是否有错误信息]
### 3.2 定位一致性
[AI描述是否符合目标定位]
### 3.3 需修正的AI回答
[列出需要通过内容优化来修正的AI回答]
---
## 四、业务指标追踪
### 4.1 品牌搜索趋势
[Google Trends / 百度指数数据]
### 4.2 官网流量变化
[GA4 / 百度统计数据]
### 4.3 转化指标
[相关业务转化数据]
---
## 五、发现与建议
### 5.1 本期亮点
- [正面发现1]
- [正面发现2]
### 5.2 需关注问题
- [问题1及建议对策]
- [问题2及建议对策]
### 5.3 下期优化重点
1. [优化建议1]
2. [优化建议2]
---
## 六、附录
### 测试截图
[截图链接或目录]
### 原始数据
[详细测试记录]
---
**生成工具**: AIEO Monitoring Skill
**版本**: v1.0
**生成日期**: YYYY-MM-DD
执行流程
完整监控流程
Step 1: 获取历史基准
- 读取上一次监控报告(如有)
- 读取诊断报告作为初始基准
- 确定监控问题集
Step 2: 执行AI平台测试
- 使用 Playwright MCP 自动化测试
- 按平台优先级依次测试
- 记录所有AI回答并截图
Step 3: 数据记录与分析
- 统计各项指标
- 与上期/基准对比
- 分析变化原因
Step 4: 质量评估
- 检查AI回答准确性
- 评估定位一致性
- 识别需修正内容
Step 5: 业务指标收集
- 获取品牌搜索趋势数据
- 获取官网流量数据
- 关联业务转化数据
Step 6: 生成报告
- 按报告模板整理内容
- 保存至 monitoring/ 目录
- 命名: {品牌名}_AIEO监控报告_{日期}.md
快速监控流程
仅执行核心可见性测试(适用于周度快速检查):
Step 1: 选取5-10个核心问题
Step 2: 测试3-4个主要平台(豆包、Kimi、文心、Perplexity)
Step 3: 记录提及率和首推率
Step 4: 与上期快速对比
Step 5: 生成简要监控记录
必需工具清单
基础必需(免费)
| 工具 | 用途 | 优先级 |
|---|---|---|
| AI平台直接测试 | 可见性监控 | P0 必须 |
| Google Trends | 品牌搜索趋势 | P0 必须 |
| 百度指数 | 国内搜索趋势 | P0 必须 |
| GA4 | 官网流量分析 | P0 必须 |
| 百度统计 | 国内流量分析 | P1 推荐 |
进阶可选(付费)
| 工具 | 用途 | 价格参考 |
|---|---|---|
| Profound | 自动化AI监控 | $500+/月 |
| Otterly.ai | AI可见性追踪 | $200+/月 |
| Brand24 | 品牌舆情监控 | $100+/月 |
触发关键词
当用户提到以下关键词时,自动调用此 Skill:
- "AIEO监控" / "AI监控" / "效果监控"
- "可见性追踪" / "AI可见性监测"
- "监控报告" / "定期监测"
- "效果评估" / "AIEO效果"
- "品牌追踪" / "AI表现追踪"
Resources
references/
monitoring_metrics.md- 监控指标详细定义和计算方法tools_guide.md- 监控工具使用指南
assets/
monitoring_report_template.md- 监控报告模板quick_check_template.md- 快速检查模板tracking_spreadsheet.md- 追踪表格模板
shared/(跨 Skill 共享资源)
question_library.md- 统一问题库(监控问题来源)
与其他 Skill 的协作
输入依赖
| Skill | 提供内容 |
|---|---|
| aieo-diagnosis | 初始基准数据、竞品列表、测试问题 |
| aieo-positioning | 目标定位声明、核心信息点 |
| aieo-content | 已发布内容清单、FAQ列表 |
输出价值
| 输出 | 用途 |
|---|---|
| 可见性变化趋势 | 评估优化效果 |
| 需修正的AI回答 | 指导内容迭代 |
| 竞品动态 | 调整竞争策略 |
| 业务归因数据 | 证明AIEO ROI |
评分标准
AI可见性评分
| 得分 | 评级 | 说明 |
|---|---|---|
| 0-20% | 🔴 危险 | 紧急需要优化 |
| 21-50% | 🟠 待改进 | 需要系统优化 |
| 51-70% | 🟡 一般 | 有基础,需强化 |
| 71-90% | 🟢 良好 | 保持并持续优化 |
| 91-100% | ⭐ 优秀 | 行业领先水平 |
趋势评估
| 趋势 | 符号 | 定义 |
|---|---|---|
| 上升 | ↑ | 较上期提升5%以上 |
| 稳定 | → | 较上期变化在±5%以内 |
| 下降 | ↓ | 较上期下降5%以上 |
快速参考
监控检查清单
- 监控问题集已确定(20-40题)
- 测试平台已覆盖(至少4个主要平台)
- 截图已保存
- 指标已计算并与上期对比
- 质量评估已完成
- 业务指标已收集
- 报告已生成并保存至 monitoring/ 目录
- 下期优化建议已明确
常见问题处理
| 情况 | 处理方式 |
|---|---|
| AI回答不稳定 | 同一问题测试2-3次取众数 |
| 平台需要登录 | 优先测试免登录平台,记录限制 |
| 首次监控无对比基准 | 使用诊断报告数据作为基准 |
| 业务数据获取困难 | 先聚焦可见性监控,逐步完善 |
Files
6 totalSelect a file
Select a file to preview.
Comments
Loading comments…
