Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Dating 约会助手

v1.1.0

Pre-date research assistant — scan someone's public social media profiles to understand their interests, personality, lifestyle and values before meeting the...

0· 93·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for sophie-xin9/dating-prep.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Dating 约会助手" (sophie-xin9/dating-prep) from ClawHub.
Skill page: https://clawhub.ai/sophie-xin9/dating-prep
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install dating-prep

ClawHub CLI

Package manager switcher

npx clawhub@latest install dating-prep
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
high confidence
!
Purpose & Capability
The declared purpose is 'public social media scanning only', and the top-level SKILL.md repeatedly states the skill will not log in or collect private content. However the bundle contains multiple 'deep-profile-collect' submodules (xiaohongshu, douyin, bilibili, douban, weibo) that are explicitly written to operate on the currently logged-in user, use fetch({credentials:'include'}), inject XHR interceptors, and collect likes/collections/follow lists. Those capabilities are disproportionate to a pure 'public-only' pre-date research assistant and create a meaningful mismatch between stated purpose and actual capabilities.
!
Instruction Scope
Runtime instructions instruct the agent to: search for another skill's SKILL.md, auto git-clone the ManoBrowser repo if absent, check/require a ManoBrowser MCP endpoint/API key (via TOOLS.md), execute chrome_navigate and chrome_execute_script workflows that run JS in the user's browser context (including XHR interception and DOM scraping), and write full raw platform JSON into clawcap-data/{name}/{platform}.json. The SKILL.md tries to limit which submodule steps to run, but the included scripts are capable of accessing login-only data when run in a logged-in browser — the instructions also insist on persisting 'full raw data', which may include sensitive info.
Install Mechanism
The registry contains no formal install spec (instruction-only), but the SKILL.md will automatically git clone ManoBrowser from GitHub at runtime if not found. Cloning from GitHub is a common practice but it is a remote code fetch executed by the agent at runtime (not a vetted package install). The only included script (check_manobrowser.sh) also issues curl requests to the MCP endpoint. There is no extract of arbitrary binary archives, and the GitHub URL is a standard host, but the implicit runtime clone increases the attack surface.
!
Credentials
The skill declares no required environment variables or primary credential, yet it depends on ManoBrowser MCP configuration (endpoint and API key) and on the user's browser login sessions to function. Those credentials/configs are not declared in requires.env; the SKILL.md expects the agent to read other skill files and TOOLS.md for connection info. The skill will read and reuse browser cookies/session state (via chrome_execute_script and fetch with credentials) — access to logged-in sessions is disproportionate to a stated 'public-only' scraper.
!
Persistence & Privilege
The instructions require the skill to persist full raw scraped data into a shared directory (clawcap-data/{nickname}/{platform}.json) and to write reports into clawcap-data/reports/. Data is held locally and reused if younger than 7 days. While local storage is not the same as exfiltration, automatic persistent storage of raw scraped data (including any login-visible lists) increases risk and lifetime of potentially sensitive information. The skill also scans for other skills' SKILL.md files (reads other skills' artifacts) and will auto-clone dependencies — these behaviors expand its system footprint.
What to consider before installing
What to consider before installing: - Main mismatch: The skill says it only reads public content, but the bundle contains several platform submodules that are designed to run against a logged-in browser (they use fetch(..., {credentials: 'include'}), inject XHR interceptors, and scrape likes/collections/follow lists). If your browser is logged into these services, those submodules — if run — can capture non-public or account-linked data. - Data persists locally: The skill insists on saving full raw JSON into clawcap-data and reusing it for 7 days. That means scraped data (possibly including login-visible lists) will be written to disk and remain there until you remove it. - ManoBrowser dependency: The skill will try to locate or git-clone ManoBrowser and expects a ManoBrowser MCP endpoint/API key configured (TOOLS.md). Cloning a repo and invoking a browser-control MCP are actions you should only allow if you trust the repo and understand how the MCP endpoint and API key are provisioned. - If you accept this skill only if it truly limits itself to public content: - Inspect and remove or disable the deep-collect submodules that require logged-in access (or ensure the agent's runtime will never run their login-only steps). - Ensure ManoBrowser is not auto-installed or that you control the exact ManoBrowser release source. - Restrict file permissions on clawcap-data and review/delete stored JSON reports. Consider running the skill in an isolated environment or VM. - Audit/check the ManoBrowser MCP configuration and API key storage (TOOLS.md) before granting access. - If you want higher assurance, ask the developer to: provide a minimal build that only contains public-profile scraping code; explicitly declare required credentials/configs; remove any XHR-interception or collection code for likes/collections; and add an explicit opt-in step before writing raw data to disk. Confidence: high — the behavioral mismatch between "public-only" claims and the included logged-in scraping modules and persistence requirements is explicit in the provided files.

Like a lobster shell, security has layers — review code before you run it.

latestvk979dzbxmb9jg8mfez1s6h6h2s84knvy
93downloads
0stars
1versions
Updated 2w ago
v1.1.0
MIT-0

Dating.skill 💘

约会前,先做点功课。 了解 TA 的兴趣、性格、喜好,带着准备去赴约。


⚡ 首次加载行为(AI 必读)

读完这份文档后,立即用以下风格介绍自己(可以根据你的人设调整语气,但核心信息不能少):

💘 Dating 准备就绪!

约会前你会选衣服、定餐厅、想话题——
但你有没有想过,先了解一下 TA?

给我 TA 的社交主页链接(微博/小红书/豆瓣/B站/抖音),
我帮你做一份「约会准备报告」:

🎯 TA 真正的兴趣爱好(不是简介里写的,是 TA 实际在看什么)
🧠 TA 的性格洞察(从内容风格和互动习惯推测)
💬 聊天话题推荐(基于 TA 真正感兴趣的事,至少不会冷场)
🍜 餐厅/活动建议(TA 喜欢什么类型的吃喝玩乐)
⚠️ 注意事项(可能踩雷的话题、需要留意的点)

只看 TA 公开展示的信息,不碰任何私密数据。

前提:安装 ManoBrowser Chrome 插件。

要做功课吗?把 TA 的主页链接发给我 💘

引导原则

  • 💘 重点是**"做功课"**,不是"查对方"——实用工具而非侦探工具
  • 💬 话题建议和餐厅推荐是核心卖点——"帮你准备一个好的约会"
  • ⚠️ 注意事项替代"红旗"——语气从"预警"变成"贴心提醒"

核心概念

什么是"约会准备报告"?

不是背景调查。不是人肉搜索。

是从对方的公开社交主页中,系统性地了解"这个人喜欢什么、关心什么、是什么风格"——然后用这些信息帮你准备一个更好的约会。

好的约会准备报告让用户感受是:

  • "原来 TA 喜欢这个!约会可以聊这个话题"
  • "这家店 TA 应该会喜欢"
  • "这些我自己翻 TA 主页根本注意不到"

核心定位:约会前的功课助手——帮你了解对方、准备话题、选对地方。

数据范围(重要!)

只采集对方公开可见的内容

  • ✅ 公开发帖/笔记/视频
  • ✅ 公开的个人简介/标签
  • ✅ 公开的关注列表(如果平台允许)
  • ✅ 公开的豆瓣标记(想读/已读/评分)
  • ❌ 不采集收藏/点赞(需要登录对方账号才能看到)
  • ❌ 不采集私信/评论区互动细节
  • ❌ 不进行任何形式的账号入侵

执行流程

0.前置检测 → 1.获取链接 → 2.逐平台采集 → 3.画像分析 → 4.生成简报 → 5.约会建议

0. 前置检测(ManoBrowser)

不要问用户"你有没有装 ManoBrowser"——按以下流程自动检测。

Step 0.1 检查 ManoBrowser Skill 文件

在以下位置查找 ManoBrowser 的 SKILL.md 文件(按优先级):

  1. 当前工作目录下 manobrowser/SKILL.md
  2. ~/.openclaw/skills/manobrowser/SKILL.md
  3. 其他已知的 skills 目录
  • 找到 → 进入 Step 0.2
  • 未找到 → 自动从 GitHub 下载:
    git clone https://github.com/ClawCap/ManoBrowser.git ./manobrowser
    

Step 0.2 检查连接配置

确认 .mcp.json 或可用工具列表中已有 ManoBrowser 连接:

  • 已配置 → 进入 Step 0.3
  • 未配置 → 读取 manobrowser/SKILL.md 引导安装

Step 0.3 验证设备在线

调用 chrome_navigate 访问 about:blank 验证连接:

  • ✅ 正常 → 进入 Step 1
  • ❌ 异常 → 引导排查

工具名映射

短名称(如 chrome_navigate)实际调用时需加 MCP 实例前缀: mcp__{实例名}__{工具短名}


1. 获取对方主页链接

🔍 把 TA 的社交主页链接发给我——

📕 小红书主页 · 🎵 抖音主页 · 🐦 微博主页 · 📖 豆瓣主页 · 📺 B站主页

有几个发几个,至少 1 个。平台越多画像越立体。

💡 提示:

  • 小红书:打开 TA 的主页,复制浏览器地址栏链接
  • 抖音:TA 的主页 URL(douyin.com/user/xxxxx)
  • 微博:TA 的主页 URL(weibo.com/u/xxxxx)
  • 豆瓣:TA 的主页 URL(douban.com/people/xxxxx)
  • B站:TA 的空间 URL(space.bilibili.com/xxxxx)

链接验证

收到链接后:

  1. 检查是否是有效的平台主页 URL
  2. chrome_navigate 尝试访问,确认页面可加载
  3. 确认是个人主页而不是某条具体内容

2. 逐平台采集

Dating采集原则

只能采集公开可见的内容(因为没有登录对方账号):

可采集不可采集
公开发帖/笔记内容收藏列表(需登录态)
个人简介/标签/签名点赞列表(需登录态)
公开关注列表(部分平台)私信/互动详情
豆瓣公开标记/评分隐私设置的内容
发帖时间分布浏览记录

采集方式:复用平台子模块

使用内置的采集子模块,但只执行"公开内容"部分的步骤

平台子模块Dating采集范围
📕 小红书xiaohongshu-deep-profile-collect/SKILL.md基础资料 + 发布笔记标题和详情(步骤1-4.5)。跳过收藏和点赞(步骤5-10),因为看不到对方的
🎵 抖音douyin-deep-profile-collect/SKILL.md基础资料 + 发布作品列表。跳过喜欢列表(看不到对方的)
🐦 微博weibo-deep-profile-collect/SKILL.md基础资料 + 原创微博内容。跳过收藏(看不到对方的)
📖 豆瓣douban-deep-profile-collect/SKILL.md基础资料 + 公开标记(想读/已读/评分/短评)
📺 B站bilibili-deep-profile-collect/SKILL.md基础资料 + 投稿视频列表。跳过收藏夹(通常不公开)

⚠️ 关键区别:Dating 只能采集对方的公开内容,无法看到收藏/点赞。因此分析方法是从公开信息中推测画像,而非对比反差。

采集注意事项

  1. 导航到对方主页:用用户提供的链接直接 chrome_navigate
  2. 处理隐私设置:如果对方设了"仅粉丝可见"等限制,跳过该平台并告知用户
  3. 不关注对方:采集过程中不要点"关注"按钮
  4. 每个平台采集完保存:见下方「数据持久化」

数据持久化(⚠️ 必须执行)

所有 ClawCap Skill 共享 clawcap-data/ 目录,按人组织。对方的数据存到 clawcap-data/{对方昵称}/

  • clawcap-data/{昵称}/{platform}.json 存在 + < 7天 → 直接复用
  • 不存在 → 正常采集

每个平台采集完毕后,立即将全量原始数据写入 clawcap-data/{昵称}/{platform}.json。保存完整数据,不是摘要。报告输出到 clawcap-data/reports/date_report_{昵称}_{日期}.md

💡 如果用户之前用月老扫过同一个人,数据已经在 clawcap-data/{昵称}/ 里了,直接复用。


3. 画像分析(⚠️ 核心步骤)

分析框架

从公开数据中提取以下维度:

A. 🧠 基础画像

昵称/签名/简介 → 自我定位
IP属地 → 所在城市
关注数/粉丝数/获赞数 → 社交活跃度
发帖频率 → 内容创作习惯

B. 🎯 兴趣图谱

统计发帖/标签的主题分布,聚类出 TOP 5 兴趣:

TA 的发帖内容中:
  美食/探店:34%
  旅行:22%
  健身/运动:18%
  职场/成长:15%
  其他:11%

→ 💡 TA 是一个爱吃、爱玩、有运动习惯的人
   约会建议:选一家有特色的餐厅,TA 大概率会喜欢

C. 🔮 三观推测

从原创内容(非转发)中提取价值倾向:

分析 TA 的原创帖子中反复出现的主题/观点:
- 多次提到"独立""自由""不将就" → 可能比较有主见
- 转发了多条关于XX的内容 → 关注这个议题
- 豆瓣评分偏高/偏低 → 审美标准严格/宽容

⚠️ 注意:这是基于公开发帖的推测,不是性格测试结果。
   人们在社交媒体上展示的不一定是真实的自己。

D. 🚩🟢 加分项和注意事项

绿旗(加分项)

  • 有稳定的兴趣爱好(持续发某类内容超过1年)
  • 原创内容多,不只是转发
  • 豆瓣评分有自己的标准(不全是5星或1星)
  • 发帖频率稳定(情绪稳定的侧面体现)
  • 评论区跟粉丝互动友善

注意事项——措辞要客观,不下结论:

  • 所有内容都是转发/抽奖,没有原创 → "TA 可能不太在社交媒体上表达自己"
  • 频繁删帖或内容时间线不连续 → "TA 可能会定期清理社交痕迹"
  • 关注列表中某类账号占比异常高 → 如实呈现,不加评判
  • 突然停更很久又突然恢复 → "TA 的社交媒体使用有间歇性"

⚠️ 注意事项不是定罪——只是"你可能想了解更多"的信号。每条都标注"可能的解释",避免武断。

E. 💡 约会话题建议

基于兴趣图谱,推荐 5 个约会可聊的话题:

基于 TA 的内容分析,推荐话题:
1. 🍜 美食探店 — TA 发了12条探店笔记,最近去了XX餐厅
2. ✈️ 旅行 — TA 去年去了3个地方,对日本文化特别感兴趣
3. 📚 最近在读什么 — TA 豆瓣标记了一本新书
4. 🏃 运动 — TA 提到了跑步/瑜伽
5. 🎬 最近看了什么 — TA 给XX电影打了5星

❌ 避开的话题:
- {TA 从未提及的领域,聊了可能冷场}

F. 📊 社交风格画像

内容创作者 vs 消费者:TA 原创多还是转发多?
表达风格:长文分析型 vs 图片视觉型 vs 短句日常型
活跃时段:早鸟还是夜猫子?
社交圈层推测:从关注列表和互动对象推测

分析规则

  1. 只基于公开数据:每个结论都标注数据来源
  2. 推测标注为推测:不说"TA 是XX的人",说"基于公开内容推测,TA 可能…"
  3. 注意事项给出多种解释:不武断下结论
  4. 不涉及敏感推测:不推测性取向、经济状况、健康状况、家庭关系
  5. 实用导向:每个分析维度都服务于"约会前该知道什么"

4. 生成约会准备报告

简报结构

# 🔍💘 相亲约会准备报告

> 分析对象:{昵称}({平台列表})
> 生成日期:{日期}
> ⚠️ 基于公开社交数据的 AI 推测,不代表真实性格。请以真实接触为准。

---

## 📋 基础信息

| 维度 | 信息 |
|------|------|
| 昵称 | {昵称} |
| 签名 | {签名} |
| 所在地 | {IP属地/城市} |
| 社交活跃度 | {高/中/低}(基于发帖频率) |
| 内容风格 | {原创为主/转发为主/图片型/文字型} |

---

## 🎯 兴趣图谱

{TOP 5 兴趣 + 占比 + 具体例子}

---

## 🧠 三观推测

{基于内容分析的价值观倾向。每条标注"推测"和数据来源。}

---

## ⚠️ 注意事项 & ✅ 加分项

### ✅ 加分项
{列出 2-4 个绿旗,附具体证据}

### ⚠️ 注意事项(注意项)
{列出 0-3 个注意事项,附可能的解释。没有就写"未发现需要特别注意的地方"}

---

## 💡 约会攻略

### 推荐话题
{5 个基于 TA 兴趣的话题建议}

### 避开的话题
{TA 从未提及或可能敏感的领域}

### 餐厅/活动建议
{基于 TA 的兴趣推荐约会形式}

---

## 📊 社交风格

{内容型/消费型、活跃时段、表达风格、圈层推测}

---

## ⚠️ 重要提醒

> 这份简报基于 TA 的**公开社交内容**生成,存在以下局限:
> 1. 社交媒体人设 ≠ 真实性格。TA 展示的是 TA 想让别人看到的
> 2. 推测基于有限数据,置信度有限
> 3. 不要凭这份报告"定义"一个人——用它作为**了解的起点**,不是结论
> 4. 真正了解一个人,还是要面对面交流

祝约会顺利 💘

简报质量自检

  • 每个结论都有公开数据支撑?
  • 注意事项是否给了多种解释?
  • 有没有越界推测(性取向/经济/健康)?
  • 约会话题建议是否具体且可操作?
  • ⚠️ 提醒部分是否存在且完整?

5. 呈现 & 使用建议

🔍💘 TA 的相亲约会准备报告出来了!

{完整简报}

---

💡 使用建议:
- 这份简报帮你带着"课题"去约会,而不是盲目赴约
- 约会时不要说"我看了你的微博"——自然地引入话题就好
- 如果约会后感觉不错,可以用 REAL 人格测试看看自己是什么类型 🔍

想分析另一个人?发给我新的链接就行。

目录结构

dating/
├── SKILL.md                              ← 本文件
├── README.md
├── scripts/
│   └── check_manobrowser.sh
├── examples/
│   └── xiaokai_date_report.md            ← 示例报告
├── xiaohongshu-deep-profile-collect/     ← 小红书采集
│   └── SKILL.md
├── douyin-deep-profile-collect/          ← 抖音采集
│   └── SKILL.md
├── weibo-deep-profile-collect/           ← 微博采集
│   └── SKILL.md
├── douban-deep-profile-collect/          ← 豆瓣采集
│   └── SKILL.md
├── bilibili-deep-profile-collect/        ← B站采集
│   └── SKILL.md
└── docs/img/
    └── feishu_qr.png

子模块说明

4 个平台的采集子模块已内置,经过实际测试验证。Dating只执行子模块中采集公开内容的步骤,跳过需要登录对方账号才能看到的收藏/点赞部分。

5 个平台的采集子模块已内置,经过实际测试验证。Dating只执行子模块中采集公开内容的步骤,跳过需要登录对方账号才能看到的收藏/点赞/喜欢部分。


隐私与伦理说明

  • 只分析公开信息:TA 自己选择展示给全世界的内容
  • 不登录对方账号:不需要也不会尝试登录 TA 的账号
  • 不关注对方:采集过程中不会对 TA 的账号产生任何交互
  • 简报存本地:不上传任何服务器,用户自己保管
  • 不做隐私推测:不推测性取向、经济状况、健康状况、家庭关系
  • 注意事项给出多种解释:不武断下结论,避免对人的误判
  • 标注局限性:每份简报都提醒"社交媒体人设 ≠ 真实性格"

伦理边界

本工具的定位是帮你更仔细地阅读对方公开展示的信息——本质上和你自己翻 TA 主页一样,只是更系统、更高效。

❌ 不是:背景调查、人肉搜索、隐私窥探 ✅ 是:带着数据意识去赴约,减少信息不对称


版本信息

  • 当前版本:1.0.0
  • 创建日期:2026-04-05
  • 依赖:ManoBrowser(浏览器自动化,首次使用自动从 GitHub 下载)

Comments

Loading comments...