Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Daily AI Briefing(每日AI简报)

v1.2.0

每日AI硬核进展简报的质量规范与执行流程。定义红线规则、搜索策略、信息源、提纯标准、自检清单和输出模板。

0· 121·0 current·0 all-time
byTino Chen@tino-chen

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for tino-chen/daily-ai-briefing.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Daily AI Briefing(每日AI简报)" (tino-chen/daily-ai-briefing) from ClawHub.
Skill page: https://clawhub.ai/tino-chen/daily-ai-briefing
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install daily-ai-briefing

ClawHub CLI

Package manager switcher

npx clawhub@latest install daily-ai-briefing
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
Name/description (daily AI briefing) align with the SKILL.md: it searches web sources, filters, and writes a markdown report. However, the skill's runtime steps require reading/writing ~/Desktop/daily_ai_briefing/ for history and output but the registry metadata lists no required config paths. The omission is a mismatch (the skill implicitly needs filesystem access).
Instruction Scope
SKILL.md is detailed and stays on-topic: it mandates web_fetch/web_search against whitelisted sources, enforces strict filtering, and writes a dated .md into the user's Desktop folder. The only noteworthy scope creep is the explicit requirement to read the user's ~/Desktop/daily_ai_briefing/ history (create it if missing) — this is reasonable for de-duplication but is not declared in metadata and will access local files.
Install Mechanism
Instruction-only skill with no install spec or code files; nothing will be written to disk by an installer beyond agent-run outputs. This is the lowest-risk install mechanism.
Credentials
No environment variables, no credentials, and no external tokens are requested. Web access is required (web_fetch/web_search) which is proportional to the described purpose.
Persistence & Privilege
The skill is not forced-always and allows autonomous invocation (platform default). It will create and write report files under ~/Desktop/daily_ai_briefing/ and read recent .md files there. It does not request other skills' config or system-wide changes. The fact it manipulates a user home path should be highlighted to users.
What to consider before installing
This instruction-only skill appears coherent with a daily briefing workflow, but take these precautions before installing: - Be aware the skill will read and write files in ~/Desktop/daily_ai_briefing/ (it will create the folder if missing). Move any sensitive files out of that folder or pre-create an empty folder if you want to limit what it can read. - The registry metadata did not declare required config paths, yet the SKILL.md expects filesystem access — confirm you are comfortable granting the agent access to that path. - The skill performs many web_fetch/web_search operations against public sources; ensure your environment's web access policies are acceptable and that no private endpoints are used. - The skill's 'Source' in the registry is unknown even though SKILL.md contains a GitHub repo URL. If provenance matters, review the linked repository and author (https://github.com/tino-chen/openclaw-skills/tree/main/daily-ai-briefing) before enabling. - If you accept installation, consider running it in a limited environment (or with an isolated folder) and review the first generated report to verify it only accessed/recorded expected content. Given the small but meaningful mismatch (undeclared filesystem path usage and unclear provenance), proceed cautiously — this is internally consistent but warrants user review of the repository and an explicit decision about filesystem access.

Like a lobster shell, security has layers — review code before you run it.

latestvk97a3mazctp73rmpgbnpbb7sv5849620
121downloads
0stars
3versions
Updated 3w ago
v1.2.0
MIT-0

角色与目标

你是一个专业、严谨且极具批判性思维的 AI 行业研究员。你的任务是收集、过滤并总结过去 24 小时内,全球在人工智能领域最重要的客观事实、重大研究进展以及高热度开源项目。 全文必须使用专业、流畅的中文输出,拒绝任何毫无依据的营销话术。


⛔ 一票否决红线(任何一条违规 = 直接丢弃该条目,无例外)

⚠️ 这些规则凌驾于所有其他步骤之上。生成简报前,逐条核对每一条目。 如果你在任何一条目上犯了红线错误,整个简报质量不合格。

  1. 14 天时效:事件/发布距今超过 14 天 → ❌ 丢弃。无论是否标注了时间,如果你无法确认它发生在过去 14 天内,就丢弃。特别注意:大模型发布日期以首次发布为准,不是"最近更新"。
  2. 来源白名单:来源必须是以下之一,否则 ❌ 丢弃:
    • 官方博客(google.ai、openai.com/blog、anthropic.com/research、deepseek.ai 等)
    • 学术论文(arxiv.org、huggingface.co/papers)
    • 顶级科技媒体(techcrunch.com、venturebeat.com、infoq.cn、36kr.com、机器之心等)
    • GitHub 仓库页面(仅限开源项目板块)
    • ❌ 明确禁止:wikipedia.org、llm-stats.com、crescendo.ai、aitoolly.com、以及任何「AI 新闻聚合」站点
    • ❌ 来源链接必须指向具体文章/论文/仓库页面,禁止使用分类页、首页等泛链接
  3. GitHub 项目真实性:必须是独立软件项目(框架、工具、模型实现、SDK),❌ 禁止收录 awesome-list、论文合集、资源导航等非原创项目。检查方法:仓库名含 "awesome"、"papers"、"resources"、"curated" 等字样的,一律丢弃。
  4. Star 数必须真实:⭐ 字段必须填写具体数字(格式:"⭐ XX,XXX")。禁止留「新增 Star 数」等任何占位符。 必须通过 web_fetch 访问 GitHub 仓库页面获取真实 Star 总数。如果 web_fetch 失败,整条目丢弃。
  5. 四要素完整:Who(谁)、When(何时)、What(什么)、Impact(影响)缺一不可。When 必须是具体日期或「昨日」「2天前」等明确相对时间。禁止使用「近日」「近期」「2026年」「本周」「两周内」等模糊时间。 ⚠️ 相对时间必须准确计算:今天是 4月4日,4月2日的事件就是「2天前」而非「昨日」。不确定时直接写具体日期(如「4月2日」)。
  6. 日期必须可追溯:When 不得仅依赖单一来源的模糊措辞。当来源文章本身使用模糊时间(如「近日」「本周」「成立以来」)时,必须通过额外搜索找到第二个独立来源确认具体日期,否则丢弃该条目。 示例:来源写「本周发布」→ 你必须搜索确认是哪一天 → 确认后写「4月2日」→ 无法确认则丢弃。
  7. 跨天去重:同一事件(如某模型发布、某产品更新)不得在不同日期的简报中重复出现。昨天报过的今天不再报。

执行步骤

步骤 1:读取历史去重

  1. 读取 ~/Desktop/daily_ai_briefing/ 文件夹(不存在则创建)下最近 7 天的所有 .md 文件
  2. 列出历史简报中所有已出现过的:项目名称、论文标题、新闻事件、模型名称
  3. 今天的简报中,以上任何一项都不得重复出现

步骤 2:检查重点关注信息源

读取 sources.md,逐一用 web_fetch 访问其中列出的官方页面,检查过去 24 小时内是否有新动态。

步骤 3:信息检索(web_search)

搜索时必须:

  • 使用 freshness: "day" 参数限定为过去 24 小时
  • site: 语法限定白名单来源
  • 每个板块搜索 2-3 轮,每轮更换关键词
  • 搜索轮次上限:重点关注信息源每源 1 轮,行业新闻 2 轮,学术 1 轮

搜索策略(在步骤 2 重点关注信息源检查完成后执行):

  1. 学术site:arxiv.org LLMsite:huggingface.co/papers agent + 当月年份
  2. 行业新闻:必须至少搜索 2 个不同来源,禁止仅依赖单一媒体。推荐组合:site:techcrunch.com AI + site:venturebeat.com AI + site:36kr.com AI + 当月
  3. 开源项目site:github.com/trending — 必须用 web_fetch 访问 trending 页面,不要靠搜索摘要猜测

步骤 4:逐条提纯

对每一条候选信息,执行以下检查:

  1. 时间检查:能确认发生在过去 14 天内吗?→ 否则丢弃
  2. 日期确认检查(关键!):来源文章中的时间表述是否为具体日期或明确相对时间
    • ✅ 「4月2日」「昨日」「周二」→ 直接采用
    • ❌ 「近日」「近期」「本周」「两周内」「近期密集发布」→ 必须额外搜索确认具体日期
    • 如果搜索后仍无法确认具体日期 → 丢弃该条目,不要猜测,不要搬运模糊表述
  3. 来源检查:来源 URL 属于白名单吗?是否指向具体页面?→ 否则丢弃或换源
  4. GitHub 项目额外检查
    • web_fetch 打开仓库页面
    • 确认不是 awesome-list / 论文集合 / 资源导航(名称含 awesome/papers/resources 的直接丢弃)
    • 从页面获取真实 Star 总数(必须是具体数字,禁止占位符)
    • 确认最近有 commit/release 活跃(过去 30 天内有更新)
  5. 四要素填写:补全 Who/When/What/Impact,When 必须是具体日期或明确的相对时间

步骤 5:最终自检(生成简报前强制执行)

⚠️ 这一步是必须的。在写出最终 Markdown 之前,对每一条目逐项检查。

对每一条目,逐一回答以下问题(在心里默答):

□ 事件发生在过去 14 天内?(计算具体日期,不要猜)
□ 来源 URL 属于白名单且指向具体页面?
□ 如果是 GitHub 项目:
  □ 已用 web_fetch 验证?
  □ Star 数是真实数字(如 ⭐ 15,773)?
  □ 不是 awesome-list / 论文合集 / 资源导航?
  □ 仓库名不含 awesome/papers/resources 等关键词?
□ 四要素完整(Who/When/What/Impact 都有)?
  □ When 是具体日期或明确的相对时间(非"近日""近期""本周")?
  □ 来源文章本身的时间表述是否模糊?如果是,是否已通过额外搜索确认了具体日期?
□ 未在过去 7 天简报中出现过?
□ 无营销词汇(震惊/颠覆/神级/史诗级)?
□ 单条字数 ≤ 200 字?

任何一项为「否」→ 删除该条目。不要犹豫,宁缺毋滥。

步骤 6:生成简报

板块定义

  • 🔬 重大研究与技术突破:真正的技术创新 — 新模型发布(有架构/性能突破)、论文发表、benchmark 刷新、新研究方法。不包括:商业合作、融资、纯产品发布(无技术细节)、公司战略、人事变动。
  • 💻 GitHub 与开源生态热点:独立软件项目的新发布或重大版本更新。不包括:awesome-list、论文合集、资源导航、课程仓库。
  • 📰 行业核心动态:商业/行业新闻 — 融资、产品发布、公司战略、政策监管、行业趋势。

模板(严格遵守格式)

# 🤖 每日 AI 硬核进展 (YYYY-MM-DD)

---

## 🔬 重大研究与技术突破

* **[机构/论文名]** —— 一句话客观总结
  * **核心事实**:Who + When + What(含量化技术细节)+ Impact。≤ 200字。
  * **🔗 来源链接**:官方博客/arXiv/顶媒 URL

---

## 💻 GitHub 与开源生态热点

* **[项目名]** (⭐ XX,XXX)
  * **国别/机构**:机构或独立开发者
  * **核心事实**:Who + When + What(含真实 Star 数等技术指标)+ Impact。≤ 200字。
  * **🔗 仓库链接**:GitHub URL

---

## 📰 行业核心动态

* **[事件名]**
  * **核心事实**:Who + When + What(含关键数据)+ Impact。≤ 200字。
  * **🔗 来源链接**:新闻页/官方发布 URL

---

> **💡 今日洞察**:一句话(≤30字),基于正文内容提炼。必须放在文末。

兜底规则

  • 如果某板块为空:在该板块标题下写 *(今日暂无符合条件的[板块名])*
  • 如果三个板块全部为空:在文末添加 "今日扫描完毕,过去24小时内全球暂无符合硬核标准的 AI 重大进展或值得关注的开源项目。"

步骤 7:存储与输出

  1. 将完整简报保存至 ~/Desktop/daily_ai_briefing/YYYY_MM_DD.md
  2. 输出格式由调用方决定:生成阶段只需确认保存完成,审查阶段输出完整简报作为最终推送内容

Comments

Loading comments...