Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Multi Ai Search Analysis

同时调用多家 AI 独立分析复杂问题,交叉验证数据,综合多视角提炼对比分析报告。

MIT-0 · Free to use, modify, and redistribute. No attribution required.
0 · 9 · 1 current installs · 1 all-time installs
MIT-0
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
The name/description and SKILL.md describe browser automation to query multiple chat AIs and aggregate answers, which matches the provided scripts (run.py, reporter.py, extractor.py). That core capability is coherent. However, the repository also contains a pre-populated browser-profile directory and EntityExtraction/autofill mappings that are not explained in the docs and look unrelated to simply asking AI chat pages for responses.
!
Instruction Scope
SKILL.md instructs creating a persistent browser context (userDataDir ./browser-profile) and automating login checks and snapshots of responses. While prompting the user to log in is expected, the instructions + code imply reading/writing a persistent profile on disk and using selector-based extraction. The repo's browser-profile contains broad site lists and entity/autofill configs (credit card, password, account fields), which go beyond extracting AI replies and could be used to access or scrape sensitive site data if the automation ever visits other pages or if the profile already contains cookies/credentials.
!
Install Mechanism
There is no formal install spec (no remote downloads), which reduces supply-chain risk, but the package includes an embedded browser-profile directory that will be used as userDataDir. Shipping a pre-filled browser profile in the repo is risky because it may contain cookies, session state, or intrusive config. The code expects Playwright and a Python env (requirements.txt/install.py), so running install scripts will create/modify a local browser context on disk.
!
Credentials
The skill requests no environment variables or API keys, which is proportional. However, the included files reveal capabilities that could access highly sensitive data: EntityExtraction/domains_config.json (autofill mappings including passwords, credit card fields), SiteList.xml and many domain entries (banks, enterprise sites), and browser arbitration/config files. Those artifacts are not justified by the stated purpose and increase the risk that sensitive data could be read from a persistent profile or misused by automation.
!
Persistence & Privilege
The config explicitly sets userDataDir to ./browser-profile and the SKILL.md and scripts emphasize persistent login state ('save login state', 'persistent context'). Persistent profiles are useful for this task but increase blast radius: cookies, auth sessions, and saved autofill data in the provided browser-profile could be exposed or reused. The repo includes a pre-populated profile rather than a clean template, which is more privilege than the skill's description requires.
What to consider before installing
What to check before installing or running: 1) Don't run this in your primary machine: run inside an isolated VM/container or sandbox. 2) Inspect scripts/login.py, scripts/run.py, scripts/extractor.py for any network endpoints or unexpected POST/GET calls and for any code that reads local filesystem paths beyond the included browser-profile. 3) Remove or replace the provided ./browser-profile before first run (the repo's profile may contain cookies/config); start with a fresh Playwright profile. 4) Grep the repo for any hardcoded remote endpoints, secrets, or telemetry URLs; verify no private upload/exfil endpoints exist. 5) If you need persistent login, log in interactively rather than importing someone else's profile. 6) Prefer running with headless=false and watch the automation the first few runs to confirm it only opens the documented AI chat pages. 7) If you are not comfortable auditing the code, avoid installing or run only the documentation/instruction parts; do not provide any credentials or copy sensitive profiles into the project's userDataDir. Additional information that would raise or lower confidence: seeing that the included browser-profile is empty/sanitized and login automation does not read autofill/storage would lower risk; finding scripts that read cookies, local storage, or send extracted credentials to external endpoints would make this clearly malicious.

Like a lobster shell, security has layers — review code before you run it.

Current versionv1.0.2
Download zip
latestvk97aabz1b403trhejde4txzr9n83ag6g

License

MIT-0
Free to use, modify, and redistribute. No attribution required.

SKILL.md

multi-ai-search-analysis - 多 AI 搜索分析报告

技能描述

名称:多 AI 搜索分析(Multi-AI Search Analysis)

用途:同时调用多家 AI 助手(DeepSeek、Qwen、豆包、Kimi 等)对同一复杂问题进行独立分析,然后综合汇总生成对比报告。

适用场景(通用型):

  • 时事分析:局势分析、政策解读、影响评估
  • 技术对比:语言/框架/工具选型对比
  • 产品评测:数码产品、软件服务深度评测
  • 市场研究:行业趋势、竞争格局、投资机会
  • 学术研究:文献综述、研究现状分析
  • 商业决策:投资分析、战略规划、风险评估
  • 学习规划:学习路径、资源推荐、时间规划
  • 任何需要多角度验证的复杂问题分析

核心价值

  1. 交叉验证:多家 AI 独立分析,避免单一来源偏差
  2. 视角互补:不同 AI 训练数据和擅长领域不同,可提供多元视角
  3. 数据校验:关键数据点可在多家 AI 间对比验证
  4. 综合精炼:最终报告去重求精,保留最核心洞察

使用方式

标准流程

用户提问 → 依次询问多家 AI → 等待所有回复 → 综合汇总 → 输出精炼报告

示例命令

帮我用五家 AI 分析一下 [主题],然后汇总对比

用 DeepSeek、Qwen、豆包、Kimi、Gemini 分别问下 [问题],最后给我综合报告

或(快速版)

帮我分析 [主题],用默认 5 家 AI 对比

操作流程

第一步:明确分析主题

确认用户想要分析的核心问题,根据场景类型确定:

通用结构

  • 核心议题:如"Python vs Java 对比"、"iPhone 16 Pro 评测"
  • 分析维度:如"性能、易用性、生态"(3-6 个为宜)
  • 延伸问题(可选):如"各自适合什么场景?" "未来趋势如何?"

场景示例

场景主题示例典型维度
技术对比编程语言选型性能、易用性、生态、就业
产品评测手机/电脑评测性能、拍照、续航、价格
市场研究行业趋势分析技术、投资、应用、竞争
时事分析局势分析政治、经济、军事、外交

第二步:选择执行模式

模式 A:串行询问(v1.0 默认)

推荐顺序:DeepSeek → Qwen → 豆包 → Kimi → Gemini

统一问题模板

请帮我分析一下 [主题],包括 [维度 1]、[维度 2]、[维度 3] 等方面的情况。
另外,[延伸问题]?包括 [子问题 1]、[子问题 2]、[子问题 3]。

注意事项

  • 每家 AI 使用相同的问题表述,确保可比性
  • 等待每家 AI 完整回复后再继续下一家
  • 如遇登录验证,提示用户完成验证
  • Gemini 需要 Google 账号登录,如遇未登录请先完成验证

预计耗时:15-22 分钟(5 家)

模式 B:并行询问(v1.1+ 推荐)

执行方式:同时打开多个浏览器标签页,分别访问各家 AI

统一问题模板:(同上,确保一致性)

并行执行流程

1. 同时打开 5 个标签页(DeepSeek、Qwen、豆包、Kimi、Gemini)
2. 检查各家登录状态(如有未登录,提示用户完成验证)
3. 确保所有会话上下文干净(点击"新建会话")
4. 同时在所有标签页输入相同问题
5. 同时发送问题,等待各家响应
6. 依次获取完整回复内容
7. 综合汇总生成报告

平台选择建议

  • 默认 5 家:DeepSeek + Qwen + 豆包 + Kimi + Gemini(增强版,全球视角)⭐
  • 标准 4 家:DeepSeek + Qwen + 豆包 + Kimi(国内访问友好,无需 Google 账号)
  • 技术对比:DeepSeek + Qwen + Gemini(代码和技术分析强)

技术实现要点

// 1. 同时打开多个标签页
browser.open(url1, {newTab: true})
browser.open(url2, {newTab: true})
browser.open(url3, {newTab: true})
browser.open(url4, {newTab: true})
browser.open(url5, {newTab: true})

// 2. 切换到各标签页并执行操作
browser.tabs.switch(tabId1)
act(type, text)
act(press, 'Enter')

// 3. 并行等待(可设置统一等待时间)
wait(10000-20000) // 根据最慢的 AI 调整

// 4. 依次获取回复
browser.tabs.switch(tabId1) → snapshot() → 提取内容
browser.tabs.switch(tabId2) → snapshot() → 提取内容
...

注意事项

  • 确保浏览器支持多标签页操作
  • 各家 AI 使用相同的问题表述,确保可比性
  • 并行模式下更需注意登录状态检查
  • 如遇验证码,可能需要串行处理
  • Gemini 需要 Google 账号登录,首次使用请提前登录

预计耗时

  • 5 家平台(默认):4-6 分钟(节省 50-65% 时间)
  • 4 家平台:3-5 分钟(节省 60-75% 时间)

第三步:记录关键信息

在等待过程中,记录每家 AI 的:

  • 核心数据点(油价、通胀率、GDP 预测等)
  • 独特视角或洞察
  • 引用来源数量和质量
  • 分析框架和结构特色

第四步:综合汇总

汇总维度

  1. 事实性数据:取多家共识值,标注差异
  2. 预测性判断:列出各家预测区间
  3. 分析框架:整合最优分析结构
  4. 独特视角:保留每家独有洞察

输出结构

# [主题] 综合分析报告

## 一、核心概览
- 事件时间线
- 关键数据汇总

## 二、分维度分析
- 维度 1(如政治)
- 维度 2(如经济)
- ...

## 三、影响预测
- 基准情景
- 风险情景
- 极端情景

## 四、各方观点对比
- 机构/专家观点
- 数据差异说明

## 五、关键观察点
- 短期风险
- 中期风险
- 缓和路径

## 六、各家 AI 分析特色
- 对比表格

技术实现建议

浏览器自动化要点

// 1. 打开 AI 网站
browser.open(url)

// 2. 检查登录状态
snapshot() → 判断是否需要登录

// 3. 输入问题
act(type, text)

// 4. 发送并等待
act(press, 'Enter')
wait(5000-15000) // 根据 AI 响应速度调整

// 5. 获取完整回复
snapshot() → 提取回复内容

常见 AI 平台 URL

AIURL登录方式特点
DeepSeekhttps://chat.deepseek.com微信扫码/手机号推理能力强,代码能力出色
Qwenhttps://chat.qwen.aiGitHub/Google/Apple开源生态,长上下文支持
豆包https://www.doubao.com手机号字节出品,搜索能力强
Kimihttps://kimi.moonshot.cn手机号超长上下文(200k+)
Geminihttps://gemini.google.comGoogle 账号多模态强,全球知识覆盖

推荐组合

  • 标准 4 家:DeepSeek + Qwen + 豆包 + Kimi(国内访问友好)
  • 增强 5 家:DeepSeek + Qwen + 豆包 + Kimi + Gemini(增加全球视角)
  • 技术对比:DeepSeek + Qwen + Gemini(代码和技术分析强)

最佳实践

✅ 推荐做法

  1. 统一问题表述:确保各家 AI 回答具有可比性
  2. 等待完整回复:不要打断 AI 思考/搜索过程
  3. 记录数据来源:标注每家 AI 的引用来源
  4. 标注时间戳:记录分析时间,便于后续追踪
  5. 精炼不堆砌:综合报告要去重求精

❌ 避免做法

  1. 不要在 AI 回复完成前关闭页面
  2. 不要修改问题表述(会导致不可比)
  3. 不要盲目相信单一数据点
  4. 不要忽略 AI 的免责声明

输出模板

综合报告模板

# [主题] 综合分析报告
## 四家 AI 对比分析

### 执行摘要
[200 字以内核心结论]

### 一、核心事实
[时间线、关键数据]

### 二、分维度分析
[按主题划分]

### 三、预测与情景
[基准/风险/极端]

### 四、数据对比表
[关键数据横向对比]

### 五、各家特色
[AI 优势对比]

### 六、参考来源
[列出主要引用]

快速对比表模板

维度DeepSeekQwen豆包KimiGemini共识值
数据 1
数据 2
预测 1

版本历史

  • v2.2(2026-03-19 21:20):新增可视化图表生成

    • 图表模块:新增 charts.py,支持柱状图、雷达图、折线图
    • 数据对比图:自动生成多家 AI 关键数据对比柱状图
    • 质量评分图:生成 5 维度质量评分雷达图
    • 趋势分析图:支持时间序列趋势折线图
    • 综合报告:一键生成多图表综合报告
    • 中文字体:自动检测并配置中文字体支持
    • 依赖更新:requirements.txt 添加 matplotlib、numpy
  • v2.2(2026-03-17 23:17):默认配置升级为 5 家 AI

    • 默认组合变更:从"标准 4 家"升级为"增强 5 家"(DeepSeek + Qwen + 豆包 + Kimi + Gemini)
    • 文档更新:所有示例、表格、耗时说明同步更新
    • Gemini 提示:明确标注需要 Google 账号登录
  • v2.1(2026-03-17):数据提取与质量评分

    • 数据自动提取:NLP + 正则表达式提取百分比、日期、预测、关键洞察
    • 质量评分系统:5 维度评分(字数 20% + 数据点 30% + 结构 20% + 引用 15% + 具体性 15%)
    • 对比表生成:自动生成数据对比表和质量评分对比表
    • 新模块:extractor.py(数据提取器)、reporter.py 增强
    • 报告增强:在报告中自动插入质量评分汇总和数据对比表
  • v2.0(2026-03-17):稳定性大幅提升

    • 登录检测增强:新增登录按钮检测,明确区分已登录/未登录状态
    • 平台特定优化:为 Qwen、豆包、DeepSeek、Kimi、Gemini 分别定制选择器策略
    • 预执行检查:运行前自动验证所有平台登录状态,提前发现问题
    • 内容提取增强:支持 inner_text、text_content、inner_html 三种提取方式
    • 错误提示优化:明确提示需要登录的平台,支持手动登录后继续
    • 选择器调试:显示实际使用的选择器,便于排查问题
  • v1.9(2026-03-17):选择器增强优化

    • 输入框选择器增强(10 个 → 30+ 个)
    • 发送按钮选择器增强(8 个 → 15+ 个)
    • 响应内容选择器增强(10 个 → 25+ 个)
    • 智能回退机制(按优先级尝试)
    • 调试输出优化(显示使用的选择器)
  • v1.8(2026-03-17):质量评分与进度条优化

    • 添加 tqdm 进度条支持(专业进度显示)
    • 实现响应质量评分(字数 + 结构 + 数据 + 完整性)
    • 优化结果数据结构(增加 word_count 和 quality_score)
    • 增强错误处理(独立提取内容方法)
    • 添加 requirements.txt 依赖管理
  • v1.7(2026-03-17):持续优化自动化脚本

    • 增强新建会话检测(3 层策略:按钮 + 输入框 + 欢迎语)
    • 优化发送重试机制(3 次重试 + 智能回退)
    • 改进进度条显示(百分比 + 旋转字符)
    • 增加输入框回退选择器(contenteditable、role="textbox"等)
    • 优化发送方式(fill → type 回退)
    • 添加 Enter 键发送回退机制
  • v1.6(2026-03-17):深度优化自动化脚本

    • 增强登录检测(多指标:输入框 + 发送按钮 + 欢迎语)
    • 优化选择器回退(每个元素 5-7 个选择器)
    • 添加动态进度条(旋转字符动画)
    • 改进超时处理(30 秒自动检测 + 手动确认)
    • 优化错误信息(区分登录/选择器/超时问题)
    • 支持非阻塞等待(每 5 秒检测一次)
  • v1.5(2026-03-17):全面优化自动化脚本

    • 添加超时重试机制(发送失败自动重试 2 次)
    • 添加响应进度提示(每 10 秒显示等待进度)
    • 优化选择器回退机制(多个选择器依次尝试)
    • 添加新建会话自动检测
    • 增强错误处理和异常捕获
    • 改进登录状态检测逻辑
  • v1.4(2026-03-17):增加 Gemini 平台支持

    • 添加 Gemini 平台配置(URL、选择器、特性)
    • 更新平台选择建议(标准 4 家/增强 5 家/技术对比)
    • 更新预计耗时说明(4 家/5 家)
    • 添加各平台特点说明
  • v1.3(2026-03-17):添加会话管理规范

    • 新增"会话管理"重要注意事项
    • 明确每次分析前必须新建会话
    • 添加各平台新建会话按钮位置说明
    • 解释为什么要确保上下文干净
  • v1.2(2026-03-16):通用化改造,支持任意主题分析

    • 移除硬编码的问题模板
    • 添加 4 种报告模板(general/comparison/trend/evaluation)
    • 支持自定义问题模板和延伸问题
    • 默认维度改为空(由用户指定)
  • v1.1(2026-03-16):新增并行询问功能,节省 60-75% 时间

  • v1.0(2026-03-16):初始版本,基于伊朗局势分析案例提炼


注意事项

⚠️ 会话管理(重要)

每次分析前必须确保上下文干净!

标准操作流程

1. 打开 AI 平台页面
2. 检查是否有历史对话内容
3. 如有历史内容 → 点击"新建会话"/"开启新对话"按钮
4. 确认页面显示空白对话状态
5. 发送分析问题

为什么要新建会话

  • 避免上下文污染:历史对话会影响 AI 的回答质量
  • 确保独立分析:每次分析都从零开始,不受之前话题干扰
  • 提高响应速度:干净的上下文减少 AI 处理负担
  • 便于结果对比:所有 AI 都在相同起始状态下回答

各平台新建会话按钮位置

平台按钮名称位置快捷键
DeepSeek"开启新对话"左侧边栏顶部Ctrl + J
Qwen"新建对话"左侧边栏顶部-
豆包"新对话"左侧边栏-
Kimi"新建会话"左侧边栏顶部Ctrl + K

自动化脚本处理

# 自动化脚本会自动检测并新建会话
# 手动操作时请遵循上述流程

📋 其他注意事项

  1. 时效性:AI 搜索结果受训练数据和实时搜索能力限制
  2. 准确性:关键决策请交叉验证权威信源
  3. 合规性:遵守各 AI 平台使用条款
  4. 成本意识:多家 AI 同时调用可能产生 API 费用或时间成本
  5. 登录状态:首次使用需完成登录,登录状态会持久化保存

扩展方向

  1. 增加 AI 数量:可扩展至 Claude、Gemini、Perplexity 等
  2. 自动化汇总:未来可用脚本自动提取各家关键数据
  3. 质量评分:为每家 AI 的分析质量打分
  4. 趋势追踪:对同一主题进行多次追踪分析

本技能由小呱(🐸)在 2026-03-16 创建,基于 DeepSeek、Qwen、豆包、Kimi、Gemini 五家 AI 对伊朗局势分析的实战经验提炼而成。

Files

55 total
Select a file
Select a file to preview.

Comments

Loading comments…