Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

AIEO monitoring

AIEO 效果监控与追踪工具,用于定期监测品牌在 AI 搜索平台的可见性变化、内容质量评估和业务转化追踪。当用户提到"AIEO监控"、"AI可见性追踪"、"效果监控"、"监控报告"、"定期测试"或需要追踪品牌在AI平台表现变化时,自动调用此Skill。监控报告保存至 monitoring/ 目录,文件名格式:{品...

MIT-0 · Free to use, modify, and redistribute. No attribution required.
0 · 36 · 0 current installs · 0 all-time installs
byKaden Lau@kenerlee
MIT-0
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
The skill is an instruction-only AIEO monitoring tool that uses browser automation (Playwright MCP actions), WebFetch/WebSearch and local read/write of monitoring/ and screenshots—these capabilities are consistent with automated cross‑platform monitoring. However, references to a shared dot-folder path (.claude/skills/shared/question_library.md) and audits/positioning/* suggest the skill expects access to other local skill resources or hidden config directories; the relationship of those paths to the user's environment isn't explained.
!
Instruction Scope
Runtime instructions instruct automated navigation to multiple AI platforms and saving screenshots/reports locally. That is expected for monitoring, but Playwright-based automation can access and capture content from logged-in sessions (chat.openai.com, claude.ai, yiyan.baidu.com). The SKILL.md and references also point to reading question libraries from local/shared paths (audits/positioning, .claude/skills/shared/...), which could read files outside the monitored project. The skill does not explicitly limit or warn about capturing sensitive page content or reading hidden folders.
Install Mechanism
Instruction-only skill with no install spec, no downloads, and no declared required binaries or env vars. This minimizes disk persistence risk and matches the simple documentation-only structure.
Credentials
The skill declares no required environment variables or credentials, which is proportional. But the allowed runtime tools (Playwright browser actions, WebFetch/WebSearch) permit access to web sessions and could capture secrets present in browser state (cookies, SSO tokens, account info) if the agent runs with logged-in sessions. The references to .claude shared paths imply reading other local skill resources—no justification or explicit scoping is provided.
Persistence & Privilege
always:false and no install means the skill does not request permanent, force-included presence or system modifications. It writes outputs to monitoring/ as part of normal function. There is no instruction to change other skills' configs or persistent agent settings.
What to consider before installing
This is an instruction-only monitoring skill that uses browser automation to query AI platforms and save reports/screenshots locally. Before installing or running it: 1) Confirm the skill's source/trustworthiness—there is no homepage or publisher info. 2) Inspect or control the question libraries it will read (audits/positioning/* and .claude/skills/shared/question_library.md) to ensure it won't read sensitive or unrelated files. 3) Run automation in an isolated environment (dedicated VM/container) or with browsers that are not logged into personal/organizational accounts—Playwright screenshots can capture sensitive UI content and session cookies. 4) Check where monitoring/screenshots/ and monitoring/ are stored and who can access them. 5) If you expect the skill to access any credentials or post/update content (UTM guidance is present), require explicit consent and review those steps before enabling autonomous runs. If the publisher identity, intended question libraries, or explicit file-scope restrictions are provided, re-evaluate; that information would increase confidence and could move the assessment toward benign.

Like a lobster shell, security has layers — review code before you run it.

Current versionv1.0.0
Download zip
latestvk97d1cqfdzw2mwprkf5fkbq0ps83prdp

License

MIT-0
Free to use, modify, and redistribute. No attribution required.

SKILL.md

AIEO 服务流程: 诊断(生成问题库初稿) → 定位(修正迭代问题库) → 内容(使用问题库) → 监控(使用问题库)

AIEO 效果监控 Skill

专业的 AI Engine Optimization 效果监控工具,帮助品牌定期追踪和评估 AIEO 优化效果,包括 AI 可见性变化、内容质量评估、竞品动态监测和业务转化追踪。

核心价值

AIEO 监控的特殊性

与传统 SEO 监控不同,AIEO 监控面临独特挑战:

维度传统SEO监控AIEO监控
数据获取GA/Search Console无直接数据,需手动测试
结果稳定性相对稳定AI回答存在随机性
平台数量主要看Google/百度6+ AI平台需同时监测
归因追踪清晰的流量来源间接归因为主
更新频率实时/每日每周/每两周

监控三层体系

┌─────────────────────────────────────────────────────────────┐
│                     第一层:可见性监控                        │
│         品牌是否被AI提及?排名如何?竞品动态?                  │
├─────────────────────────────────────────────────────────────┤
│                     第二层:质量监控                          │
│         AI回答是否准确?定位是否一致?情感是否正面?            │
├─────────────────────────────────────────────────────────────┤
│                     第三层:转化监控                          │
│         品牌搜索量变化?官网流量变化?业务指标变化?            │
└─────────────────────────────────────────────────────────────┘

报告输出规范

保存位置

monitoring/

命名格式

{品牌名}_AIEO监控报告_{YYYY-MM-DD}.md

示例:
- 百威中国_AIEO监控报告_2025-12-13.md
- 飞鹤奶粉_AIEO监控报告_2025-12-13.md
- OurSchool_AIEO监控报告_2025-12-13.md

截图保存

monitoring/screenshots/
├── {品牌名}_{平台名}_{问题编号}_{日期}.png
├── 百威中国_豆包_Q1_2025-12-13.png
└── ...

监控指标体系

一、可见性指标 (Visibility Metrics)

指标代码指标名称定义计算方式目标值
V-1AI提及率品牌被AI提及的问题比例提及问题数/测试问题数>80%
V-2AI首推率品牌被首先推荐的比例首推问题数/测试问题数>30%
V-3平台覆盖率品牌在各平台的覆盖有提及平台数/总平台数>70%
V-4竞品提及率竞品被同时提及的比例用于竞争分析监测

二、质量指标 (Quality Metrics)

指标代码指标名称定义评估方式目标值
Q-1内容准确率AI回答中信息的准确性人工评估>90%
Q-2定位一致率AI描述与目标定位的一致性对照定位声明>70%
Q-3情感正面率AI描述的情感倾向正面/中性/负面>70%
Q-4信息完整率核心信息点的覆盖程度检查核心卖点>60%

三、业务指标 (Business Metrics)

指标代码指标名称数据来源监测频率
B-1品牌搜索量Google Trends / 百度指数每周
B-2官网流量GA4 / 百度统计每周
B-3AI来源流量GA4 UTM标记每周
B-4品牌词转化电商后台 / CRM每月

监控问题库

问题库来源

监控阶段使用定位阶段输出的问题库定稿(v2.0)作为监控基准:

问题库获取路径:
audits/positioning/{品牌名}_问题库_*.md

注意: 问题库经过诊断(v1.0初稿)→定位(v2.0定稿)的迭代,已包含完整的核心问题和扩展问题。

问题库流转示意

诊断阶段                    定位阶段                     内容阶段                    监控阶段
    │                          │                           │                          │
    ▼                          ▼                           ▼                          ▼
生成问题库初稿 ──────→ 修正/扩展问题库 ──────→ 基于问题库生成FAQ ──────→ 使用问题库监控
(v1.0 初稿)              (v2.0 定稿)              (内容输出)                (追踪变化)
    │                          │                           │                          │
audits/diagnosis/        audits/positioning/       content/                  monitoring/

监控问题选取原则

从问题库定稿中选取 20-40 个核心问题作为监控基准:

问题类型建议数量选取优先级来源
品牌认知类 (BR)5-8题P0 必选问题库 Tier 1
品类推荐类 (CR)5-8题P0 必选问题库 Tier 1
对比决策类 (CP)5-8题P0 必选问题库 Tier 1
场景推荐类 (SC)3-5题P1 推荐问题库 Tier 2
产品详情类 (PD)2-3题P2 可选问题库 Tier 2
行业专属问题3-5题P1 推荐问题库 Tier 3

基准问题设定

首次监控时,读取问题库定稿设定监控基准:

Step 1: 读取问题库定稿
        Glob: audits/positioning/{品牌名}_问题库_*.md
        Read: 最新版本的问题库

Step 2: 选取监控问题
        - 全部 Tier 1 问题(约15题)
        - 筛选 Tier 2 核心问题(约10题)
        - 筛选 Tier 3 行业关键问题(约5题)

Step 3: 记录监控基准
        在监控报告中记录本次使用的问题清单
        后续监控使用相同问题集,确保可比性

Step 4: 问题集更新
        当定位策略调整时,同步更新监控问题集
        记录变更历史,便于趋势分析

AI 平台测试配置

必测平台矩阵

平台URL优先级免登录监测重点
豆包doubao.comP0是(有限制)国内主流用户
Kimikimi.moonshot.cnP0深度内容消费者
文心一言yiyan.baidu.comP0百度生态用户
DeepSeekchat.deepseek.comP1技术人群
Perplexityperplexity.aiP1国际市场参考
ChatGPTchat.openai.comP2国际市场参考

Playwright MCP 自动化测试

使用 Playwright MCP 进行自动化测试:

测试流程:
1. mcp__playwright__browser_navigate → 导航到AI平台
2. mcp__playwright__browser_snapshot → 获取页面快照定位输入框
3. mcp__playwright__browser_type → 输入测试问题
4. mcp__playwright__browser_press_key (Enter) → 发送问题
5. mcp__playwright__browser_wait_for → 等待AI响应
6. mcp__playwright__browser_snapshot → 获取AI回答
7. mcp__playwright__browser_take_screenshot → 截图保存证据

监控频率建议

按阶段推荐

阶段时间段监控频率监控范围
初期优化后1-3个月每周一次全量问题+全平台
稳定期优化后3-6个月每两周一次核心问题+重点平台
维护期优化后6个月+每月一次抽样问题+主要平台

特殊监控时机

  • 内容发布后: 新FAQ/对比内容上线后3-7天
  • 竞品动态: 发现竞品优化动作后立即监测
  • 负面舆情: 发现负面AI回答后立即监测
  • 重大事件: 品牌重大活动/事件前后

监控报告结构

完整的监控报告应包含以下章节:

# {品牌名} AIEO监控报告

**监控日期**: YYYY-MM-DD
**监控周期**: 第X周/月
**对比基准**: 上次监控日期

---

## 一、核心指标摘要

| 指标 | 本期 | 上期 | 变化 | 趋势 |
|------|------|------|------|------|
| AI提及率 | XX% | XX% | +X% | ↑/↓/→ |
| AI首推率 | XX% | XX% | +X% | ↑/↓/→ |
| 定位一致率 | XX% | XX% | +X% | ↑/↓/→ |
| 情感正面率 | XX% | XX% | +X% | ↑/↓/→ |

**整体评价**: [进步/稳定/需关注]

---

## 二、AI可见性详情

### 2.1 各平台测试结果

| 问题 | 豆包 | Kimi | 文心 | DeepSeek | Perplexity |
|------|------|------|------|----------|------------|
| Q1: [品牌]怎么样? | ✅首推 | ✅提及 | ❌ | ✅提及 | ✅首推 |
| Q2: [品类]推荐 | ✅提及 | ✅首推 | ✅提及 | ❌ | ✅提及 |
| ... | ... | ... | ... | ... | ... |

### 2.2 与上期对比

[变化分析]

### 2.3 竞品动态

| 竞品 | 本期提及率 | 上期提及率 | 变化 |
|------|-----------|-----------|------|
| 竞品A | XX% | XX% | +X% |
| 竞品B | XX% | XX% | -X% |

---

## 三、内容质量评估

### 3.1 准确性检查

[AI回答中是否有错误信息]

### 3.2 定位一致性

[AI描述是否符合目标定位]

### 3.3 需修正的AI回答

[列出需要通过内容优化来修正的AI回答]

---

## 四、业务指标追踪

### 4.1 品牌搜索趋势

[Google Trends / 百度指数数据]

### 4.2 官网流量变化

[GA4 / 百度统计数据]

### 4.3 转化指标

[相关业务转化数据]

---

## 五、发现与建议

### 5.1 本期亮点

- [正面发现1]
- [正面发现2]

### 5.2 需关注问题

- [问题1及建议对策]
- [问题2及建议对策]

### 5.3 下期优化重点

1. [优化建议1]
2. [优化建议2]

---

## 六、附录

### 测试截图

[截图链接或目录]

### 原始数据

[详细测试记录]

---

**生成工具**: AIEO Monitoring Skill
**版本**: v1.0
**生成日期**: YYYY-MM-DD

执行流程

完整监控流程

Step 1: 获取历史基准
        - 读取上一次监控报告(如有)
        - 读取诊断报告作为初始基准
        - 确定监控问题集

Step 2: 执行AI平台测试
        - 使用 Playwright MCP 自动化测试
        - 按平台优先级依次测试
        - 记录所有AI回答并截图

Step 3: 数据记录与分析
        - 统计各项指标
        - 与上期/基准对比
        - 分析变化原因

Step 4: 质量评估
        - 检查AI回答准确性
        - 评估定位一致性
        - 识别需修正内容

Step 5: 业务指标收集
        - 获取品牌搜索趋势数据
        - 获取官网流量数据
        - 关联业务转化数据

Step 6: 生成报告
        - 按报告模板整理内容
        - 保存至 monitoring/ 目录
        - 命名: {品牌名}_AIEO监控报告_{日期}.md

快速监控流程

仅执行核心可见性测试(适用于周度快速检查):

Step 1: 选取5-10个核心问题
Step 2: 测试3-4个主要平台(豆包、Kimi、文心、Perplexity)
Step 3: 记录提及率和首推率
Step 4: 与上期快速对比
Step 5: 生成简要监控记录

必需工具清单

基础必需(免费)

工具用途优先级
AI平台直接测试可见性监控P0 必须
Google Trends品牌搜索趋势P0 必须
百度指数国内搜索趋势P0 必须
GA4官网流量分析P0 必须
百度统计国内流量分析P1 推荐

进阶可选(付费)

工具用途价格参考
Profound自动化AI监控$500+/月
Otterly.aiAI可见性追踪$200+/月
Brand24品牌舆情监控$100+/月

触发关键词

当用户提到以下关键词时,自动调用此 Skill:

  • "AIEO监控" / "AI监控" / "效果监控"
  • "可见性追踪" / "AI可见性监测"
  • "监控报告" / "定期监测"
  • "效果评估" / "AIEO效果"
  • "品牌追踪" / "AI表现追踪"

Resources

references/

  • monitoring_metrics.md - 监控指标详细定义和计算方法
  • tools_guide.md - 监控工具使用指南

assets/

  • monitoring_report_template.md - 监控报告模板
  • quick_check_template.md - 快速检查模板
  • tracking_spreadsheet.md - 追踪表格模板

shared/(跨 Skill 共享资源)

  • question_library.md - 统一问题库(监控问题来源)

与其他 Skill 的协作

输入依赖

Skill提供内容
aieo-diagnosis初始基准数据、竞品列表、测试问题
aieo-positioning目标定位声明、核心信息点
aieo-content已发布内容清单、FAQ列表

输出价值

输出用途
可见性变化趋势评估优化效果
需修正的AI回答指导内容迭代
竞品动态调整竞争策略
业务归因数据证明AIEO ROI

评分标准

AI可见性评分

得分评级说明
0-20%🔴 危险紧急需要优化
21-50%🟠 待改进需要系统优化
51-70%🟡 一般有基础,需强化
71-90%🟢 良好保持并持续优化
91-100%⭐ 优秀行业领先水平

趋势评估

趋势符号定义
上升较上期提升5%以上
稳定较上期变化在±5%以内
下降较上期下降5%以上

快速参考

监控检查清单

  • 监控问题集已确定(20-40题)
  • 测试平台已覆盖(至少4个主要平台)
  • 截图已保存
  • 指标已计算并与上期对比
  • 质量评估已完成
  • 业务指标已收集
  • 报告已生成并保存至 monitoring/ 目录
  • 下期优化建议已明确

常见问题处理

情况处理方式
AI回答不稳定同一问题测试2-3次取众数
平台需要登录优先测试免登录平台,记录限制
首次监控无对比基准使用诊断报告数据作为基准
业务数据获取困难先聚焦可见性监控,逐步完善

Files

6 total
Select a file
Select a file to preview.

Comments

Loading comments…