Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Intel Briefing

v1.4.0

全域情报简报生成系统。每日定时或手动触发,从多信源采集、评分、去重、输出HTML情报简报。覆盖国际形势、AI应用、社会民生、潮流热点四大分类。触发词:情报简报、早报、午报、晚报、推送简报、生成简报、daily briefing。

0· 96·1 current·1 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for lodligos/intel-briefing.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Intel Briefing" (lodligos/intel-briefing) from ClawHub.
Skill page: https://clawhub.ai/lodligos/intel-briefing
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install intel-briefing

ClawHub CLI

Package manager switcher

npx clawhub@latest install intel-briefing
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
The name/description match the behavior: it collects news, scores, dedups, and writes an HTML briefing. However the SKILL.md claims '不依赖任何外部 CLI 工具' and 'zero external dependencies' while the cron prompt files explicitly instruct using Bash + curl against r.jina.ai as a P0 fetch fallback. That is an inconsistency (sloppy or outdated docs) that affects where content is sent.
!
Instruction Scope
Runtime prompts instruct the agent to run read_daily/read_memory/edit_daily (read and modify the user's personal memory/daily notes) and to save files to ~/my-project/download. They also include explicit curl commands to https://r.jina.ai/https://<target>, which sends target URLs and fetched page content to a third‑party proxy. Reading/writing user memory and sending fetched pages externally are beyond merely 'fetching public news' and are privacy‑sensitive. The instructions also demand strict, autonomous cron behavior (multiple scheduled runs and retry logic).
Install Mechanism
This is instruction-only with no install spec and only a small helper script (setup-cron.sh) that creates a download directory and prints cron-creation instructions. No archives or external installers are downloaded by the skill itself.
!
Credentials
The skill declares no environment variables or credentials, but its runtime behavior requires reading and updating local memory files (read_daily, read_memory, edit_daily) and writing to a download directory. Those file accesses are sensitive and were not declared in metadata as required config paths. The external curl fallback exposes URLs/pages to a third party (r.jina.ai). Both the undisclosed file access and external network forwarding are disproportionate if you expect a purely read‑only news aggregator.
Persistence & Privilege
The skill is not marked always:true and does not request elevated platform privileges. It does instruct the agent to edit the user's daily/long-term memory (edit_daily), which is normal for a deduplication workflow but is an impactful write permission and should be considered before enabling automated cron runs.
What to consider before installing
This skill appears to do what it claims (collect, score, dedupe, output HTML), but there are two things to watch for before installing: 1) It will read and update your personal memory/daily notes (read_daily/read_memory/edit_daily). If those files contain sensitive personal or operational data, the skill will access them — confirm you are comfortable granting that. 2) The fallback P0 fetch uses curl to https://r.jina.ai/https://<target>, which forwards target URLs/content to a third party; this can leak which pages you requested and their content. If you prefer to avoid that, remove or modify the fallback to rely only on OpenClaw's internal web_fetch or an approved fetcher. Also note the SKILL.md has inconsistent statements (claims no external CLI but the prompts use curl), which suggests the materials are out of date—ask the author to clarify and to document exactly which tools/endpoints will be used. Recommendations: run the skill in an isolated project workspace, review/backup your memory files before enabling cron, disable automatic cron until you verify behavior, and replace the r.jina.ai fallback with a trusted extractor or disable that step if you cannot trust the proxy.

Like a lobster shell, security has layers — review code before you run it.

latestvk971g94mg62nvk9m4smjgfaq2n84g507
96downloads
0stars
3versions
Updated 2w ago
v1.4.0
MIT-0

Intel Briefing — 全域情报简报生成系统

每日定时或手动触发的情报简报生成工具。从多信源采集信息,经评分、去重、排序后输出 HTML 简报。


一、工具链

核心原则

搜索优先使用 OpenClaw 内置搜索能力(如 Kimi),抓正文用 curl r.jina.ai。不依赖任何外部 CLI 工具。

工具分工

工具用途调用方式
web_fetchP0信源正文抓取(财联社/36氪)OpenClaw内置工具,extractMode=text
OpenClaw 内置搜索搜索引擎查询(中英文均可)直接在对话中搜索
curl r.jina.aiURL→Markdown转换(已不可用)已被web_fetch替代,保留作为远期备用

环境兼容性

本 Skill 设计为零外部依赖,可在以下环境运行:

  • ✅ OpenClaw 本地 TUI(内置搜索 + Bash 工具)
  • ✅ OpenClaw 云端(内置搜索 + Bash 工具)
  • ✅ 任何支持 OpenClaw 的环境

不需要安装: z-ai-web-dev-sdkweb-scraper-jinamulti-search-engine 等外部包。

搜索策略

首选:OpenClaw 内置搜索

  • 直接在对话中提出搜索请求,OpenClaw 会调用配置的搜索 provider(如 Kimi)
  • 中文搜索质量优秀,适合中文情报采集
  • 无需任何额外配置

备选:web-search 技能

  • 如果 OpenClaw 内置搜索不可用,尝试使用 web-search 技能
  • clawhub install web-search(如需安装)

备选:Bash + curl

  • 仅用于 r.jina.ai 抓取新闻正文,不用于搜索引擎查询

r.jina.ai 实测结果

信源状态最后测试说明
财联社快讯2026-04-08返回空内容
华尔街见闻2026-04-08返回空内容
36氪快讯2026-04-08返回空内容
央视新闻2026-04-07登录UI多,有效新闻少
路透社中文2026-04-07返回空内容
澨湃新闻2026-04-07返回空内容
搜索引擎2026-04-07全部屏蔽

注意: 以上为 r.jina.ai 抓取状态,搜索降级仍可获取信息。每次推送时如尝试Jina抓取,需更新对应信源的时间戳和状态。


二、信源清单

P0 信源(每次必须采集)

信源URL主方案备用方案说明
财联社快讯https://www.cls.cn/telegraphweb_fetch搜索降级财经快讯,信息密度最高 ✅ 已验证
华尔街见闻https://wallstreetcn.com搜索降级curl代理抓取JS渲染,web_fetch仅返回标题
36氪快讯https://36kr.com/newsflashesweb_fetch搜索降级科技/AI/创投 ✅ 已验证

策略说明(2026-04-08更新): web_fetch对财联社和36氪提取质量优秀(质量9/10),设为主方案。华尔街见闻为JS渲染页面,web_fetch无法提取,保持搜索降级。每次推送时如web_fetch返回内容<200字符或质量不佳,立即搜索降级。

P1 信源(Jina 失败时用搜索降级)

信源降级搜索关键词说明
路透社"路透社 最新 国际新闻"国际权威
澎湃新闻"澎湃新闻 最新 社会热点"社会民生
央视新闻"央视新闻 最新"官方权威

P2 信源(补充采集,每次尝试)

信源采集方式说明
机器之心web_fetch / 搜索降级AI垂直深度,优先尝试web_fetch
量子位搜索降级AI前沿
虎嗅搜索降级科技商业分析
新华社搜索降级官方政策信号

策略: P2信源作为信息补充,每次推送时尝试采集。如时间/资源不足,优先保证P0+P1,P2可裁剪。

热榜(每次至少搜索2个平台)

平台搜索关键词
微博热搜"微博热搜 今日"
知乎热榜"知乎热榜 今日"
百度热搜"百度热搜榜"

AI新闻(6维度搜索)

如果 ai-news-collectors 技能已安装,直接调用。否则用 OpenClaw 内置搜索按以下6维度搜索:

维度搜索关键词
A: 周报聚合"AI weekly roundup [当前月份年份]"
B: 社区热度"viral AI tool trending [当前月份]"
C: 产品发布"AI model release launch [当前月份]"
D: 融资并购"AI startup funding acquisition [当前年份]"
E: 研究突破"AI research paper breakthrough [当前月份]"
F: 开源趋势"AI open source trending GitHub [当前月份]"

三、执行流程

Step 1:读取记忆(去重基准 + 上次复盘验证)

  1. 运行 read_daily 读取最近两天的日常笔记
  2. 运行 read_memory 读取长期记忆
  3. 在 daily 笔记中找到最近一次"简报复盘"段落,提取"下次执行待验证"列表

Step 2:AI新闻采集(必须首先执行)

优先调用 ai-news-collectors 技能(如已安装)。

如未安装,用 OpenClaw 内置搜索按6维度搜索(见信源清单)。

Step 3:热榜搜索

用 OpenClaw 内置搜索获取至少2个平台的热搜榜单。

Step 4:P0信源采集

主方案:web_fetch(财联社 + 36氪)

使用OpenClaw内置 web_fetch 工具抓取(extractMode=text,maxChars=5000):

  • https://www.cls.cn/telegraph — 财联社快讯
  • https://36kr.com/newsflashes — 36氪快讯

搜索降级(华尔街见闻 + web_fetch失败时)

  • 华尔街见闻为JS渲染页面,web_fetch无法提取,直接搜索降级:"华尔街见闻 最新 [当前日期]"
  • 如财联社/36氪的web_fetch返回<200字符或质量不佳,搜索降级:"财联社 最新 快讯 [当前日期]" / "36氪 最新 快讯 [当前日期]"

降级规则:

  • web_fetch返回<200字符或无实质内容 → 搜索降级
  • 搜索结果质量不足 → 用更精确关键词重新搜索
  • 两种方式均失败 → 在简报中标注该信源采集失败,不虚报内容

Step 5:P1信源降级搜索

用 OpenClaw 内置搜索搜索3个P1信源关键词(见信源清单)。

Step 6:补充搜索(最多5轮)

根据已采集信息中的关键事件,补充搜索最新进展。

Step 7:分析、评分、输出

去重分析(必须执行):

  1. 读取上一版已推送内容(memory/YYYY-MM-DD.md)
  2. 逐条对比,标注每条状态:
    • 🆕 新增:上一版未出现
    • 📰 更新:已报事件有新进展
    • ⏸️ 维持:已报事件无新变化(仅在文末简要回顾)
    • 移除:重要性下降或已被覆盖
  3. 仅保留 🆕 和 📰 的条目在正文,⏸️ 移入文末"此前已报"

评分与排序: 4. 按评分体系评分,每类内按综合评分降序排列 5. 生成 HTML 简报(按 template.html 模板格式) 6. 保存到 download 目录

Step 8:更新记忆

运行 edit_daily 更新当日笔记,记录已推送内容摘要。

Step 9:执行复盘

按复盘规则(第九章)记录本次执行情况,通过 edit_daily 追加到当日笔记。


四、评分体系

综合评分 = 影响力(40%) + 敏感度(30%) + 热度(30%),每项满分100,加权求和。

影响力(权重40%)

条件分值
涉及大国博弈/全球格局+30
影响全球经济/金融市场+20
影响区域稳定+20
仅行业级影响+5

敏感度(权重30%)

条件分值
军事冲突/武装对抗+30
重大人事变动(国家级/巨头级)+20
政策转向+25
一般动态/常规新闻+5

热度(权重30%)

条件分值
多平台热搜同时出现+30
权威信源头条/置顶+20
社交媒体讨论度高+15
仅垂直领域关注+5

评分规则

  • 同一信息可叠加多个条件,单项不超过100
  • 综合评分低于45的信息不报
  • 单类信息超过5条时,去除评分低于50的
  • 每类内按综合评分降序排列

置信度评分规则

每条信息根据信源可靠性和交叉验证情况,评定1-5级置信度:

等级定义条件
5/5 确认事实清晰,可信度最高多个权威信源交叉验证,信息一致
4/5 较高基本可信,细节待确认权威信源报道,但部分细节尚未得到多方印证
3/5 中等方向正确,但不够确定信源可靠但单一,或多个信源表述存在出入
2/5 较低参考价值有限非权威信源,或存在明显矛盾说法
1/5 存疑不可轻信转载链不完整,或信源有明显议程设置嫌疑
  • 置信度作为独立标签显示在卡片中,与综合评分分开
  • 置信度低于2/5的信息标注「风险信息」标签

五、去重规则

基础去重

  1. 同一事件的新事实(新战果、新声明、新数据、新反转)→ 视为新进展,纳入简报
  2. 同一事实的不同媒体报道 → 视为重复,不重复纳入
  3. 已报事件无新进展 → 不重复提及
  4. 去重基准:读取最近一次简报的 daily 笔记

更新版去重(同日多次推送)

当同一天多次生成简报时,更新版必须严格执行以下规则:

  1. 逐条对比上一版已推送内容,明确标注每条状态:
    • 🆕 新增:上一版未出现过的事件
    • 📰 更新:已报事件有新进展(展开新事实,不重复旧内容)
    • ⏸️ 维持:已报事件无新变化,仅在文末简短回顾(1句话以内)
    • 移除:已报事件重要性下降或已被后续事件覆盖
  2. 不允许整份重写:更新版应聚焦增量信息,而非把上一版内容重新排版
  3. 短间隔更新(<2h):只报真正有新进展的事件,其余一律移入文末"此前已报"区域,不超过3行
  4. 新增/更新的条目综合评分应重新计算,反映最新情况

模板同步提醒: 每次修改评分体系、标签规范、输出格式时,必须同步检查 references/template.html 的CSS样式和HTML结构是否匹配。新增的标签类(如置信度、风险等级)必须有对应的CSS定义。


六、输出规范

文件命名

  • 存档版:intel-briefing_YYYYMMDD_HHMM.html(如 intel-briefing_20260408_1900.html
  • 最新版副本:intel-briefing.html(每次推送覆盖)

注:不区分早间/午间/晚间,统一用实际时间 HH:MM 标识

保存路径

使用 OpenClaw 的 download 目录(通常是 {项目目录}/download/)。

  • 云端环境:/home/z/my-project/download/
  • 本地环境:由 OpenClaw 自动管理的 download 目录

注意: 不要硬编码绝对路径。使用相对路径 download/ 或让 OpenClaw 自动管理文件位置。

输出格式

  • 必须为 HTML 网页(移动端优先深色主题)
  • 参考模板:references/template.html
  • 页面结构:吸顶导航 → 日期栏 → 分类筛选标签 → 四类统计卡片 → 分类信息卡片列表 → Agent结论 → 页脚

卡片设计

每条信息生成一个可折叠卡片,包含:

  • 排名编号(1-5 不同颜色)
  • 标题
  • 综合评分
  • 置信度标签(1-5)
  • 信源标签
  • 风险标签(如有)
  • 展开后显示详情

风险标签使用规范

风险等级标签类名使用场景视觉效果
高风险risk-inline军事冲突、战争威胁、重大安全事件红色渐变背景+白色粗体+阴影
中风险risk-mid-inline政策变动、市场波动、社会不稳定橙色渐变背景+白色粗体+阴影
信息风险risk-info-inline可能存在议程设置、情绪操控、标题党黄色渐变背景+黑色粗体+阴影

何时标注:

  • 军事冲突/武装对抗(敏感度评分+30)→ 使用 risk-inline
  • 重大政策转向/经济危机 → 使用 risk-mid-inline
  • 可能存在议程设置、情绪操控的信息 → 使用 risk-info-inline
  • 标题党/夸张表述、单一信源的重大事件、明显情绪煽动性语言 → 使用 risk-info-inline
  • 缺乏数据支撑的健康/安全警告 → 使用 risk-info-inline

高风险卡片样式:

  • 添加 risk-high 类到 .item 元素
  • 显示2px红色边框+红色发光阴影
  • 在标题中使用 <span class="risk-inline">⚠ 风险描述</span>

中风险卡片样式:

  • 添加 risk-mid 类到 .item 元素
  • 显示2px橙色边框+橙色发光阴影
  • 在标题中使用 <span class="risk-mid-inline">⚠ 风险描述</span>

推送方式

根据当前通道自动选择推送方式:

通道推送方式操作
QQ (qqbot)发送HTML文件使用 <qqmedia>绝对路径</qqmedia> 标签
其他/未知保存文件+回复摘要保存到download目录,回复文字摘要

通用规则:

  • 文件路径必须为绝对路径(如 /Users/yuda/my-project/download/intel-briefing_20260408_2249.html
  • 每次推送后回复简报摘要(分类条数、最高分条目、重点摘要)
  • 保存路径统一使用 download 目录,由 OpenClaw 自动管理

省略规则

  • 省略"与以往简报的对比"段落,直接报新增信息

七、输出前自检清单

每次推送输出前逐项确认

  • ai-news-collectors 已调用(如已安装),或6维度搜索已完成
  • 四个分类都有内容(或明确标注"无重大新增")
  • 每条信息综合评分≥45
  • 每条信息包含置信度标签(1-5)
  • 每类内按评分降序排列
  • 去重:逐条对比 daily_log 中已报事件(更新版需标注每条状态)
  • 人名注释完整(非全球顶级知名人物均需注释)
  • 风险预警标注
  • P0信源已采集(搜索或Jina,至少一种成功)
  • 输出格式为 HTML
  • 文件已保存到 download 目录
  • 文件名包含日期(存档版)且更新了最新版副本
  • 通过当前通道发送文件(QQ用qqmedia标签,其他环境回复摘要)
  • edit_daily 已更新当日笔记

八、推送失败处理

  • 如果推送过程中断(工具调用超限、抓取大面积失败等),必须输出一条告警信息告知用户本次推送未完成
  • 记录失败原因到当日 daily 笔记,供下次推送参考
  • 自动续接:中断后自动继续执行直至完成,不等待用户发送"继续"

九、复盘机制

复盘频率

  • 前20次推送:每次复盘
  • 第21-50次推送:每天复盘(当天最后一次推送时记录)
  • 第50次以后:每周复盘(每周最后一次推送时记录)

复盘内容

每次复盘记录以下内容(通过 edit_daily 写入当日笔记):

  1. 自检清单达标情况(14项表格)
  2. 信源采集统计(有效信源数/总数)
  3. 未达标项分析(问题/严重级/根因/改进措施)
  4. 下次执行待验证列表

问题分级

级别定义处理方式
致命导致核心功能无法执行立即修复,下次执行前必须验证
严重影响信息质量或覆盖度当次记录,下次执行前修复
一般体验优化类问题积累后批量修复

迭代闭环

推送执行 → 自检清单 → 复盘记录 → 问题分级 → 自动修复 → 下次执行验证
     ↑                                                        |
     └────────────────────────────────────────────────────────┘

关键规则:

  1. 复盘记录写入 edit_daily(当日笔记),不写入长期记忆
  2. 致命级问题的修复措施必须标注"下次执行待验证"
  3. 下次执行时,必须先读取上一次复盘记录,逐项验证待验证项
  4. 连续3次同一问题未修复 → 升级为致命级,暂停自动推送并告警用户

十、依赖技能

技能用途必要性安装命令
ai-news-collectorsAI新闻6维度聚合推荐(未安装时用搜索替代)clawhub install ai-news-collectors

无需安装的外部依赖:

  • z-ai-web-dev-sdk — 已移除,使用 OpenClaw 内置搜索
  • web-scraper-jina — 已移除,直接用 curl r.jina.ai
  • multi-search-engine — 已移除,使用 OpenClaw 内置搜索

十一、定时任务配置

如需自动推送,创建以下3个 cron 任务。prompt 内容见 references/cron-morning.mdreferences/cron-noon.mdreferences/cron-evening.md

任务时间Cron表达式
定时简报07:000 7 * * *
定时简报12:000 12 * * *
定时简报19:000 19 * * *

前提条件: Gateway 已配对(需要 OpenClaw 手机 App 扫描配对二维码)。

失败重试机制(v1.4.0新增)

为避免因API限流、网络波动导致简报生成失败,建议配置补偿任务

补偿任务时间说明
早间补偿07:15检查07:00任务是否成功,失败则重试
午间补偿12:15检查12:00任务是否成功,失败则重试
晚间补偿19:15检查19:00任务是否成功,失败则重试

重试逻辑:

  1. 读取当日笔记,检查是否已有简报记录
  2. 如无记录或标记失败 → 执行完整简报流程
  3. 如有成功记录 → 跳过,回复"无需补偿"

Prompt文件:references/cron-retry-morning.mdcron-retry-noon.mdcron-retry-evening.md


十二、架构审查

重大版本变更后,必须进行架构审查,确保SKILL文档与实际输出一致。

审查清单

检查项方法预期结果
SKILL规则完整性逐章阅读,检查逻辑闭环无规则冲突、无遗漏
模板一致性对比第六章(输出规范)和references/template.html所有标签类(tag-conf/risk-info等)都有CSS定义
信源可用性实际测试web_fetch/搜索降级P0/P1/P2信源按优先级分层可用
自检清单覆盖模拟一次完整推送所有关键步骤都有检查项

模板一致性核对表

SKILL中定义的输出元素,必须在模板中有对应实现:

SKILL定义模板CSS类
置信度5/5.tag-conf
置信度4/5.tag-conf-mid
置信度1-2/5.tag-conf-low
高风险标签.risk-inline + .risk-high卡片
中风险标签.risk-mid-inline + .risk-mid卡片
信息风险标签.risk-info-inline + .risk-info卡片
新增标签(NEW).tag-new
更新标签(UPD).tag-update

审查频率: 每次大版本变更(v1.x→v1.y+1)后强制审查。


十三、版本历史

版本日期变更
1.0.02026-04-07初始版本(硬编码 z-ai CLI)
1.1.02026-04-07移除 z-ai CLI 依赖,改用 OpenClaw 内置搜索;移除硬编码路径;移除 web-scraper-jina 依赖;提升环境兼容性
1.2.02026-04-08①新增置信度评分规则 ②新增更新版去重规则 ③P0信源策略调整为搜索优先/Jina备用 ④更新实测结果表 ⑤自检清单增加置信度+去重+通道校验 ⑥推送方式通用化 ⑦实测表增加时间戳
1.3.02026-04-08①P0信源改用web_fetch ②华尔街见闻搜索降级 ③模板样式同步 ④新增架构审查章节 ⑤启用P2信源 ⑥Step 7明确去重流程 ⑦简报格式统一:不区分早/午/晚,用实际时间HH:MM标识 ⑧文件命名统一格式
1.4.02026-04-09①新增失败重试机制(3个补偿任务)②增加cron-retry-{morning,noon,evening}.md配置文件 ③优化定时任务章节文档 ④架构审查:模板一致性通过 ⑤信源可用性验证:P0财联社/36氪 web_fetch 正常

Comments

Loading comments...