Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Mzu 每日简报 · News Briefing

v1.1.4

Multi-source AI/Tech news aggregator with intelligent daily briefings. Covers AI, technology, finance, and world events — with hot/cold ranking and source at...

0· 185·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for sweesama/mzu-news-briefing.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Mzu 每日简报 · News Briefing" (sweesama/mzu-news-briefing) from ClawHub.
Skill page: https://clawhub.ai/sweesama/mzu-news-briefing
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Canonical install target

openclaw skills install sweesama/mzu-news-briefing

ClawHub CLI

Package manager switcher

npx clawhub@latest install mzu-news-briefing
Security Scan
Capability signals
Requires sensitive credentials
These labels describe what authority the skill may exercise. They are separate from suspicious or malicious moderation verdicts.
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
The name/description (AI/tech news aggregator) align with the runtime instructions: multi-source searches, use of bird (Twitter) or Grok as search backends, and installing an agent-reach helper. The required tools (bird CLI, agent-reach, Grok) are coherent with the stated purpose.
Instruction Scope
SKILL.md gives concrete step-by-step runtime instructions (install agent-reach, install bird, extract auth_token and ct0 from browser cookies, save to ~/.agent-reach-twitter.env, or save Grok key to ~/.grok-api-key). These instructions are within the task scope, but they explicitly direct the user to copy browser cookies (sensitive credentials) into local files and export them into the agent environment, which is a security-sensitive operation and should be highlighted to users.
Install Mechanism
This is an instruction-only skill (no install spec). It asks users to pip install agent-reach and npm install -g @steipete/bird. Those are standard package-manager installs; no arbitrary download URLs or archive extraction are specified in the skill itself.
!
Credentials
The registry metadata declares no required env vars or primary credential, but the SKILL.md requires either Twitter cookies (auth_token + ct0) or a Grok API key saved in the home directory and loaded into environment variables. That mismatch is an incoherence. Additionally, instructing users to extract browser cookies (auth_token/ct0) is sensitive: those tokens can grant account-level access if misused or leaked. The credentials requested are functionally needed for the described search backends, but the omission in metadata and the guidance to store them in plaintext are concerning.
Persistence & Privilege
The skill does not request elevated platform privileges or always:true. It suggests (user-invoked) cron jobs for scheduled briefings and storing credentials in home files. Scheduling and local credential files are normal for this use-case but are persistent actions the user must opt into; file permissions and cron configuration are important to secure.
What to consider before installing
This skill appears to do what it says (an aggregator) but there are two things to consider before installing: (1) SKILL.md requires sensitive credentials (Twitter auth_token + ct0 or a Grok API key), yet the registry metadata lists none — ask the publisher to update the metadata so you know what you'll be asked to provide. (2) The instructions tell you to copy browser cookies into a plaintext file and export them into the agent environment. That is functionally necessary for using the bird CLI route but is risky: those tokens can be abused if leaked. If you proceed, prefer using the Grok API key route (less invasive), restrict file permissions (chmod 600), store keys in a secure secrets manager if possible, and consider creating a dedicated or limited-permission account for the Twitter route. Also verify the origin of agent-reach and @steipete/bird packages (check PyPI/NPM pages and maintainers) before running installs. If you need higher assurance, ask the skill author to declare required env vars in the registry and provide guidance for secure storage/rotation of tokens.

Like a lobster shell, security has layers — review code before you run it.

latestvk977fdpv36r2eg6j8s1y3t39vn85absd
185downloads
0stars
10versions
Updated 4d ago
v1.1.4
MIT-0

Mzu News Briefing · 每日科技简报

多源新闻聚合与智能简报生成工具。覆盖 AI / 科技 / 财经 / 世界大事,按热度分级输出。

双搜索后端可选:Twitter/X(需 cookies 配置)或 Grok API(需 API Key)。两者至少配一个,以 Twitter 为优先。


快速开始

第一步:安装依赖

# 1. 安装 agent-reach(bird CLI + RSS 读取)
python -m venv ~/.agent-reach-venv
source ~/.agent-reach-venv/bin/activate  # Windows: .\.agent-reach-venv\Scripts\activate
pip install agent-reach

# 2. 配置搜索后端(二选一)
# 选项 A:Twitter/X 搜索(优先,免费,需 cookies)
#   → 见"配置 Twitter/X" 章节

# 选项 B:Grok API 搜索(需 xAI API Key)
#   → 见"配置 Grok API" 章节

第二步:生成简报

# 告诉你的 AI 助手:
"帮我生成今天的新闻简报"

第三步:设置定时推送(可选)

# 每天 08:00 自动推送
openclaw cron add "0 8 * * *" "请按 mzu-news-briefing 技能生成简报并发送给我" --announce

# 每天 22:00 自动推送
openclaw cron add "0 22 * * *" "请按 mzu-news-briefing 技能生成简报并发送给我" --announce

配置指南

配置 Twitter/X(选项 A)

安装 bird CLI

npm install -g @steipete/bird

导出 Twitter Cookies

  1. Chrome 中登录 x.com
  2. F12 → Application → Cookies → x.com
  3. 复制 auth_tokenct0 的完整值

保存认证信息

# 创建认证文件
echo "AUTH_TOKEN=你的auth_token值" > ~/.agent-reach-twitter.env
echo "CT0=你的ct0值" >> ~/.agent-reach-twitter.env

验证连接

bird --auth-token 你的auth_token --ct0 你的ct0 whoami
# 应返回你的 Twitter 用户名

加载认证(每次新 session 前)

# PowerShell(Windows)
Get-Content "~\.agent-reach-twitter.env" | ForEach-Object { $kvp = $_.Split('=',2); [Environment]::SetEnvironmentVariable($kvp[0], $kvp[1], 'Process') }

# Linux/macOS
export $(cat ~/.agent-reach-twitter.env | xargs)

配置 Grok API(选项 B)

获取 API Key

  1. 访问 https://x.ai/api 免费注册
  2. 免费额度含实时搜索
  3. 将 API Key 保存到 ~/.grok-api-key

验证连接

curl https://api.x.ai/v1/models \
  -H "Authorization: Bearer $(cat ~/.grok-api-key)"

使用方式

Grok API 集成在搜索工作流里,无需额外工具调用——在维度 C 直接用 Grok 模型搜索即可:

使用 Grok 模型,工具:web_search,搜索:
"OpenAI announcement" OR "Anthropic Claude" this week

内容优先级

层次比重覆盖范围
🥇 核心50%AI / 大模型 / Agent / 工具 / 研究 / 融资
🥈 延伸30%科技行业 · 大厂动态 · 产品发布 · 平台新闻
🥉 补充20%财经市场 · 股市 · 大宗商品 · 货币政策
🌍 背景10%世界大事 · 地缘冲突 · 重大突发事件

军事新闻:少报,仅当事件对科技/财经/AI领域产生实质影响时入选。重大例外:若军事事件直接冲击科技供应链、能源市场或AI行业格局,可突破比重限制。


工作流程

第一步(必须优先执行):锁定日期窗口

⚠️ 本步不可跳过。未锁定日期就直接开始搜索是导致旧闻污染的主要原因。

在开始任何搜索之前,立即确认:

  1. 今天日期(YYYY-MM-DD)
  2. date_after 参数 = 今天日期的前一天(YYYY-MM-DD)
    • 例如:今天是 2026-03-27 → date_after: "2026-03-26"
  3. 每条搜索都必须携带 date_after,所有维度统一

错误做法:搜索词里写 "this week" / "March 2026" 而不带 date_after → 搜索引擎返回整月 SEO 聚合旧文 正确做法:搜索词 + date_after: "2026-03-26" → 强制只取昨天之后的新内容

第二步:多维度分层搜索

⚠️ Brave 并发限制:Brave Free Plan 同时只接受 1 个请求。逐一串行执行,每次间隔 ≥2 秒。

维度 A:周报 / Newsletter 聚合(最优先)

信息密度最高,一篇覆盖 10+ 条新闻。

搜索词(均需携带 date_after 参数):
web_search("AI weekly roundup today", date_after="YYYY-MM-DD")
web_search("site:substack.com AI news", date_after="YYYY-MM-DD")

发现周报后,用 web_fetch 抓取全文,提取所有新闻线索。

实测有效周报源:

维度 B:社区热度信号(关键)

自下而上的社区爆款,泛搜索几乎无法触达。

搜索词(均需携带 date_after 参数):
web_search("site:news.ycombinator.com AI", date_after="YYYY-MM-DD")
web_search("site:reddit.com/r/MachineLearning AI today", date_after="YYYY-MM-DD")
web_search("site:github.com/trending AI", date_after="YYYY-MM-DD")

维度 C:AI 模型 / 大厂动态(重点)

搜索后端优先级:Twitter bird > Grok API > Brave 搜索引擎

# Twitter bird(已配置时)
bird search "@OpenAI OR @AnthropicAI OR @GoogleAI" -n 10
bird search "OpenAI announcement today" -n 5

# Grok API(无 Twitter 时)
使用 Grok 模型搜索:"OpenAI OR Anthropic OR Google DeepMind today"

# Brave(最后备用,所有搜索必须带 date_after)
web_search("GPT-5 OR Claude 4 OR Gemini 3 announcement", date_after="YYYY-MM-DD")
web_search("DeepSeek OR MiniMo OR Llama model release", date_after="YYYY-MM-DD")

固定页面抓取(web_fetch,每次都要当天日期过滤):

维度 D:中文专业媒体

搜索词(均需携带 date_after 参数):
web_search("site:36kr.com AI 大模型", date_after="YYYY-MM-DD")
web_search("site:jiqizhixin.com AI", date_after="YYYY-MM-DD")
web_search("量子位 OR 机器之心 AI", date_after="YYYY-MM-DD")

实测有效固定信源:

  • 36氪(36kr.com)
  • 机器之心(jiqizhixin.com)
  • 量子位(1baijia.com)

维度 E:财经 / 市场信号

搜索词(均需携带 date_after 参数):
web_search("AI startup funding today", date_after="YYYY-MM-DD")
web_search("AI IPO OR AI acquisition today", date_after="YYYY-MM-DD")
web_search("AI 融资 OR 人工智能投资 今天", date_after="YYYY-MM-DD")

推荐固定信源:

维度 F:监管 / 政策

搜索词(均需携带 date_after 参数):
web_search("AI regulation policy", date_after="YYYY-MM-DD")
web_search("AI law government today", date_after="YYYY-MM-DD")

实测有效固定信源:

  • Reuters AI 政策报道
  • Politico / Nextgov(美国政策)
  • NYT AI 政策报道

维度 G:财经市场(补充)

当本日有重大市场事件时补充:

搜索词(均需携带 date_after 参数):
web_search("AI stocks market today", date_after="YYYY-MM-DD")
web_search("Nasdaq OR S&P 500 AI stocks", date_after="YYYY-MM-DD")

第三步:内容验证(关键,必须执行)

⚠️ 本步不可跳过。搜索摘要 ≠ 真实内容。SEO 聚合页会显示丰富摘要,但页面正文可能为空或无关。

每条拟进入简报的新闻,必须完成以下验证之一:

规则 A:官方/权威来源

  • 来源为官方公告(OpenAI Blog、Anthropic 官网、Google Blog)、Reuters、BBC、36氪、机器之心等
  • → 用 web_fetch 抓取正文,确认摘要内容与正文一致

规则 B:SEO 聚合页降级为线索,不作主链

  • 来源为未验证的 News 聚合站、AI 内容站(如 crescendo.ai 等)
  • → 用 web_fetch 抓取
    • 正文有实质内容且与摘要吻合 → 降级为线索,搜索该事件找更权威来源确认
    • 正文为空/极少(如低于 500 字)/ 与摘要不符 → 丢弃该来源,不进入简报

规则 C:无法验证的高热度话题

  • 若某事件仅有不可靠来源,但热度信号极强(3+ 个低质量源同时提及)
  • → 搜索该事件找官方或权威媒体确认
  • → 确认不了 → 降低热度等级或丢弃

规则 D:模型发布/版本升级类新闻 — 必须确认实际发布日期(新增,v1.1.2)

  • 若某模型版本号(如 GPT-5.4)出现在媒体报道中,必须追溯到官方发布渠道确认实际发布时间
  • 媒体报道日期 ≠ 模型发布日期(典型错误:今天媒体报道"GPT-5.4 发布",但模型已发布约两周)
  • 验证方式:访问 releasebot.io/updates/openaillm-stats.com/llm-updates 确认实际版本发布日期
  • 结论判断:
    • 媒体报道日期 == 官方发布时间 → 当天新闻,可信
    • 媒体报道日期 > 官方发布时间(模型已发布多日)→ 降级为"跟进讨论"或"行业动态",不列入当天高热度新闻
    • 确认不了 → 降级或丢弃

验证失败的标准(满足任一即丢弃)

  • web_fetch 返回正文低于 500 字
  • 页面内容与搜索摘要描述明显不符
  • 来源域名无实质内容团队(可通过域名判断:纯聚合/SEO 农场特征)
  • 属于已知的假新闻/谣言模式(如:凭空出现的"神秘模型发布")
  • 模型发布类新闻无法追溯官方发布日期 → 丢弃

第四步:交叉验证与补漏

  • Newsletter 提到但初轮未覆盖 → 专项搜索
  • 同一事件被 3+ 个不同来源提及 → 确认热点,深入挖掘
  • 中文源与英文源热点完全不同 → 两边各保留最有代表性条目
  • 搜索不足 8 次 不开始输出

第五步:去重与合并

  • 选最权威来源作为主链,注明"多家媒体报道"
  • 更名项目视为同一事件

第六步:热度分级

等级信号输出
🔥 高3+ 来源确认 / 社区病毒传播 / 大厂官方公告 / 重大政策深度分析段落
⚡ 中2 个来源 / 有数据支撑 / 行业影响明确标准摘要
💤 低单来源 / 泛泛报道 / PR稿仅标题或丢弃

第七步:输出语言

  • 中文为主
  • 专业术语首次出现:英文原词(中文翻译)
  • 例:Large Language Model(大语言模型)

输出格式

📰 Mzu 每日简报 YYYY-MM-DD HH:MM

本班共收录 XX 条 | 搜索 XX 次 | 覆盖维度:A/B/C/D/E/F
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

🔥 高热度

1. [新闻标题](https://...)
   来源:媒体名 | 时间:YYYY-MM-DD | 标签:#AI #Agent
   摘要:(50字以内)

   ▶ 深度:为什么这条重要
   · (分析点1)
   · (分析点2)

⚡ 中热度

2. [新闻标题](https://...)
   来源:媒体名 | 时间:YYYY-MM-DD | 标签:#大厂 #产品
   摘要:(含关键数据)

💤 低热度(如有)

3. [新闻标题](https://...)
   来源:... | 标签:...

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
维度覆盖:A(X) B(X) C(X) D(X) E(X) F(X)

信息源质量分级

等级来源说明
🟢 权威/官方OpenAI Blog、Anthropic 官网、Google Blog、Reuters、BBC官方公告,直接使用
🟡 专业媒体TechCrunch、Ars Technica、36氪、机器之心、The Verge记者核实,可信
🔵 社区/UGCHacker News、Reddit/r/ML、GitHub Trending反映真实热度,需交叉验证
🟠 投资分析Motley Fool、The Fool、Seeking Alpha、Business Insider观点/预测为主,不是新闻事实,降级处理
🔴 聚合/SEO未具名的 News 聚合站、内容农场摘要≠正文,不作主链

反模式清单

"AI news today" → SEO 聚合页噪音 ❌ 加具体年月日 → 偏向预测文章 ❌ 搜索时不带 date_after 参数 → 搜索引擎返回整月旧闻合集 ❌ 只根据搜索摘要就进入简报 → 未验证内容导致今日 GPT-5.4 假新闻事故 ❌ 只搜 3 次 → 覆盖率不到 30% ❌ 信任 SEO 聚合页/内容农场的摘要 → 页面可能为空,摘要≠正文 ❌ 把投资分析网站当新闻源 → Motley Fool、The Fool、Seeking Alpha 等网站的标题常含观点性表述("Huge News"、"Why X Matters"、"Is X Good?"),这类内容是分析观点而非新闻事实 → 降级处理或丢弃 ❌ 把预期/预测当新闻 → "即将发布"、"预计"、"目标 Q2" 等表述不是已发生的事实,需标注为"行业动态"或"跟进"而非高热度新闻

✅ 每条搜索都必须携带 date_after: "YYYY-MM-DD"(今天的前一天) ✅ 至少 8 次搜索 ✅ 用 date_after 约束时间窗口,而非依赖 "today"/"this week" 等模糊词 ✅ 进入简报前,必须用 web_fetch 验证正文;正文不足 500 字或与摘要不符 → 丢弃 ✅ 优先以官方来源/权威媒体为主链;SEO 聚合页只作线索,不作主链


注意事项

  • 优先 HTTPS 链接
  • 付费墙标注「需订阅」
  • 不做主观评价
  • 总条数 10-15 条,高热度占 3-5 条
  • 全程保留来源标注,每条均可溯源

Comments

Loading comments...