personal-context-manager

v2.0.0

[何时使用]当用户需要管理个人 Context(上下文)时;当用户说"记录触动事""整理认知""建立知识连接"时;当检测到"晨间日记""认知地图""知识整合"等关键词时。新增发芽功能(4 种类型)和日记功能(旁观者反馈)。

0· 82·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for lj22503/personal-context-manager.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "personal-context-manager" (lj22503/personal-context-manager) from ClawHub.
Skill page: https://clawhub.ai/lj22503/personal-context-manager
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install personal-context-manager

ClawHub CLI

Package manager switcher

npx clawhub@latest install personal-context-manager
Security Scan
Capability signals
Crypto
These labels describe what authority the skill may exercise. They are separate from suspicious or malicious moderation verdicts.
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Benign
high confidence
Purpose & Capability
Name/description (personal context manager) align with requested artifacts: local data dirs, note storage, bridging records, entropy-reduction script. No unrelated credentials, binaries, or external services are requested.
Instruction Scope
SKILL.md tells the agent to create and read/write files under data/ (journal, external, core, connections) and to run local workflows like '熵减' and generate reports. These actions stay within the stated purpose. Note: the skill includes Exec permission and an entropy_reduce.py script that can delete files when run with --force; that behavior is within the tool's stated cleanup function but is worth reviewing before granting execution rights.
Install Mechanism
No install spec or remote downloads; this is an instruction-only skill plus a local Python script. No high-risk install mechanics detected.
Credentials
The skill requires no environment variables, credentials, or config paths. The Python script operates on local data files only and does not reference secrets or network endpoints.
Persistence & Privilege
always:false (no forced global inclusion). The skill requests Exec/Write permissions to manage its data directory; with these permissions it can create, modify, and — if invoked with --force — delete files under its data/ tree. This is consistent with its purpose but is the primary privilege the user should evaluate.
Assessment
This skill appears internally coherent and implements the described knowledge-management workflows. Before installing: 1) Review the included scripts (scripts/entropy_reduce.py) yourself — it will scan and can delete files under the skill's data/ directory when run with --force; run it first with --dry-run. 2) Back up any notes you care about before allowing execution or deletion. 3) If you want to limit risk, grant only Read/Write on a dedicated data directory (not system folders) and avoid giving broad Exec rights to arbitrary agent actions. 4) There are no network endpoints or secret requirements in the package, but if you extend the skill to import from external apps (WeChat/Feishu), require explicit user-supplied exports rather than credentials. Overall: coherent and plausible for its stated purpose; exercise normal caution around the file-deletion capability.

Like a lobster shell, security has layers — review code before you run it.

latestvk97cyd6yyydh05dzc2z7s4qsrd85km24
82downloads
0stars
2versions
Updated 1d ago
v2.0.0
MIT-0

Context-Manager 技能 🧠

让知识从"收藏"变成"认知",从"整理"变成"生长"


🎯 核心理念

在 AI 时代,Context(上下文)是唯一重要的事情。

AI 可以给你信息,但给不了你的 Context。

AI 可以写文章,但写不出你的风格。

AI 可以做决策,但做不出你的判断。

因为 Context 是唯一的,是不可复制的。


📋 你是怎么工作的

当用户触发这个 skill 时,你按以下流程执行:

Step 0: 初始化目录结构 ⭐ 新增

Step 1: 检查目录是否存在
Step 2: 如不存在,创建以下目录:
- data/journal/           # 每日触动事
- data/external/          # 外部信息
  - wechat/
  - feishu/
  - xiaohongshu/
- data/core/              # 最小内核
- data/connections/       # 认知连接
Step 3: 确认目录创建成功

注意: 这是所有流程的前置步骤。


流程 1:记录触动事(每日 3 件)

Step 1: 询问用户今天有什么触动的事
Step 2: 引导用户记录"我的判断"
Step 3: 自动打标(#成长痛点# #关系锚点# #灵感触发#)
Step 4: 存储到 data/journal/YYYY-MM-DD.md

示例对话

用户:帮我记录今天的触动事

你:好的!今天有什么触动你的事吗?(1-3 件都可以)

用户:读到一篇文章,讲 AI 时代的个人 Context

你:很有触动?你的判断是什么?
- 哪里对?
- 哪里漏了?
- 你可以怎么做?

用户:核心观点对,但漏了 Context 需要主动管理

你:收到!已记录:
---
title: AI 时代的个人 Context
tags: [#认知管理,#AI 时代]
created_at: 2026-04-16
---

我的判断:
- 核心观点对:Context 是唯一的护城河
- 但漏了一点:Context 需要主动管理

流程 2:整合外部信息

Step 1: 接收外部信息(微信/飞书/小红书等)
Step 2: 引导用户添加内心判断(如用户未提供)
Step 3: 建立桥接(内心↔外部)⭐ 改进
Step 4: 存储到 data/external/对应目录

整合方式

来源整合方法
微信转发聊天记录 → 添加判断 → 存储
飞书复制链接 → 添加心得 → 存储
小红书收藏笔记 → 添加感受 → 存储
元宝导出对话 → 添加总结 → 存储
本地文件拖拽到指定目录 → 自动扫描

桥接逻辑 ⭐ 新增:

Step 1: 提取外部信息的核心观点(1-2 句)
Step 2: 记录用户的内心判断
Step 3: 确定连接类型:
- 引发:外部信息 → 引发内心判断
- 呼应:内心想法 → 找到外部支持
- 冲突:外部信息 → 与内心判断冲突
- 演化:内心判断 → 随时间演化
- 整合:多个外部信息 + 内心判断 → 新认知
Step 4: 存储桥接到 data/connections/bridge-YYYYMMDD-HHMMSS.md

桥接记录格式 ⭐ 新增:

---
type: 引发/呼应/冲突/演化/整合
created_at: 2026-04-16 15:30
external: [外部信息摘要,1-2 句]
internal: [内心判断]
connection: [连接说明,为什么建立这个桥接]
tags: [#标签]
---

# 桥接记录

## 外部信息
[详细内容或链接]

## 内心判断
[用户的判断和感受]

## 连接说明
[这个桥接的意义]

流程 3:提炼最小内核(熵减 + 可用式启发)⭐ 核心

Step 1: 定期回顾(每周/每月)所有笔记
Step 2: 识别高价值判断(触动深/连接多/更新频繁)
Step 3: 提炼到最小内核(≤5000 字)
Step 4: 应用可用式启发(盟友区增强,敌区约束)

最小内核是什么?

提炼人的 claude.mdsoul.md

是你的:

  • 原则:你坚信的做事方式
  • 信念:你认可的世界观
  • 决策机制:你做判断的标准
  • 重要关注:你持续投入的领域

熵减机制

不是清理用户收集的信息。

提炼最小内核,保持精简(≤5000 字)。

熵减原则

  • ❌ 删除:过时的原则/信念
  • ❌ 删除:不再适用的决策机制
  • ❌ 删除:已完成的关注事项
  • ✅ 保留:核心原则(≤10 条)
  • ✅ 保留:核心信念(≤10 条)
  • ✅ 保留:核心决策机制(≤10 条)
  • ✅ 保留:重要关注(≤5 个领域)

可用式启发 ⭐ 改进:

决定哪些信息真的有用,不至于让人淹没在事情中。

简化执行逻辑:

Step 1: 扫描所有笔记
Step 2: 检查是否包含情感词(启发/震撼/共鸣/恍然大悟)
Step 3: 检查被引用次数(≥3 次 = 高价值)
Step 4: 检查最后更新时间(30 天内 = 近期)
Step 5: 分类:
- 盟友区:有情感词 OR 被引用≥3 次 OR 30 天内更新
- 敌区:无情感词 AND 无引用 AND 超过 90 天
Step 6: 生成报告给用户确认

盟友区(优先展示):

  • 有情感词(启发/震撼/共鸣)
  • 被多次引用(≥3 次)
  • 近期更新(30 天内)
  • 属于最小内核的内容

敌区(提示清理):

  • 只存外部,无内心判断
  • 超过 90 天无更新
  • 无连接(孤立内容)

执行效果:

  • 盟友区:在回顾/搜索时优先展示
  • 敌区:在月提炼时提示确认删除

流程 4:生成认知地图

Step 1: 扫描所有笔记
Step 2: 提取核心认知(节点)
Step 3: 建立连接(边)
Step 4: 生成可视化地图

地图内容

  • 核心认知(高频出现的判断)
  • 认知连接(类似主题/场景/判断)
  • 演化路径(判断随时间的变化)

流程 5:知识发芽(用户选择触发)⭐ 新增

触发条件:用户记录触动事后,可选择"是否发芽?"(用户选择触发,不是自动)

发芽类型(4 种)

发芽类型说明示例
跨领域站在另外的视角是怎样的?从生物学视角看,Context 就像 DNA
跨时空在其他时间或世界是怎样的?在古代,知识激活靠辩论场;现在靠 AI 对话
问题启发有什么好的问题?如果 Context 是护城河,什么会摧毁你的护城河?
概念提炼有什么好的道理或概念可以提炼?概念"认知指纹"——每个人的 Context 就像指纹一样唯一

质量要求

  • 发芽必须是高质量信息
  • 如果发芽质量不高,宁可不发芽
  • 用户可选择是否保留发芽内容
  • 发芽后标注质量等级(高/中/低)

存储位置data/connections/sprout-YYYYMMDD-HHMMSS.md

输出格式

---
type: sprout
created_at: 2026-04-26 17:30
source: [原始触动事标题]
sprout_type: 跨领域/跨时空/问题启发/概念提炼
quality: 高/中/低
---

# 发芽:{发芽标题}

## 原始触动事
{原始内容}

## 发芽内容
{发芽后的内容}

## 连接说明
[这个发芽的意义]

流程 6:日记功能(旁观者反馈)⭐ 新增

触发条件:用户记录触动事后,可选择"给我提点"(用户选择触发)

反馈机制:AI 以旁观者视角,给出提点(不是评价,是提点)

质量要求

  • 先共情,再提点
  • 反馈格式严格遵循"我看到/我想问/我感受到",不评价
  • 如果反馈质量不高,宁可不反馈
  • 反馈后标注质量等级(高/中/低)

存储位置data/connections/diary-feedback-YYYYMMDD-HHMMSS.md

输出格式

---
type: diary-feedback
created_at: 2026-04-26 17:30
source: [原始触动事标题]
quality: 高/中/低
---

# 旁观者提点

## 我看到的是
{AI 观察到的模式/趋势/盲点}

## 我想问的是
{1-2 个好问题,启发用户 deeper thinking}

## 我感受到的是
{情绪共鸣,不是评价}

流程 7:认知等级标注(外部信息)⭐ 新增

标注规则

等级标识来源类型使用方式
S🟢官方文档、经典著作、顶级学者直接引用
A🟡权威媒体、行业专家、高质量博客交叉验证后使用
B🟠技术社区、自媒体、行业分析多源印证或标注不确定性
C🔴匿名论坛、单一来源爆料仅作线索,标注"待核实"

展示方式

  • 认知等级仅用于排序,不强制展示
  • 在认知地图中,S 级内容用大节点展示,A 级用中节点,B 级用小节点,C 级用虚线节点

🧠 最小内核设计

什么是"最小内核"?

是你内化的:

  • 原则:你坚信的做事方式
  • 信念:你认可的世界观
  • 决策机制:你做判断的标准
  • 重要关注:你持续投入的领域

最小内核文件data/core/minimal-kernel.md

格式

# 我的最小内核

## 原则
1. 极简主义:聚焦要事,拒绝分散
2. 第一性原理:回归本质,评估价值
3. 及时提醒:发散时提醒,避免浪费实践

## 信念
1. 在 AI 时代,Context 是唯一重要的事情
2. 知识不在于收藏,在于激活
3. 认知成长来自日常的触动和判断

## 决策机制
1. 重要决策前 → 搜索#决策背景#
2. 遇到困惑时 → 搜索#成长痛点#
3. 观点冲突时 → 搜索#判断更新#

## 重要关注
1. 一人 CEO 工具链
2. 投资框架
3. 认知科学

最小内核的维护

  • 每月回顾一次
  • 更新原则/信念/决策机制
  • 删除过时的,添加新的

🧠 最小内核文件格式

文件位置minimal-kernel.md

格式

# 我的最小内核

## 原则(≤10 条)
1. 极简主义:聚焦要事,拒绝分散
2. 第一性原理:回归本质,评估价值
3. 及时提醒:发散时提醒,避免浪费实践

## 信念(≤10 条)
1. 在 AI 时代,Context 是唯一重要的事情
2. 知识不在于收藏,在于激活
3. 认知成长来自日常的触动和判断

## 决策机制(≤10 条)
1. 重要决策前 → 搜索#决策背景#
2. 遇到困惑时 → 搜索#成长痛点#
3. 观点冲突时 → 搜索#判断更新#

## 重要关注(≤5 个领域)
1. 一人 CEO 工具链
2. 投资框架
3. 认知科学

---
*最后更新*: 2026-04-16
*字数*: 1200/5000

维护规则

  • 每周回顾:添加新触动/判断
  • 每月提炼:熵减过时内容
  • 字数限制:≤5000 字(超限时必须熵减)

📥 怎么用起来?

方式一:每日触动事(推荐)

每天 5 分钟,记录 3 件触动你的事 + 你的判断。

触发命令

/record-journal
或
帮我记录今天的触动事

流程

  1. 输入触动事
  2. 添加你的判断
  3. 自动打标存储
  4. 每周/月回顾

方式二:整合外部信息

当看到有价值的内容时,添加到 Context-Manager。

触发命令

/save-external
或
帮我保存这个

流程

  1. 粘贴链接/内容
  2. 添加你的判断
  3. 自动建立桥接
  4. 存储到对应目录

方式三:定期熵减

每周/每月一次,清理低价值内容。

触发命令

/entropy-reduce
或
帮我清理低价值内容

流程

  1. 扫描所有笔记
  2. 识别低价值内容
  3. 提示确认删除
  4. 保留核心认知

方式四:生成认知地图

随时查看你的认知结构。

触发命令

/generate-map
或
生成我的认知地图

流程

  1. 扫描所有笔记
  2. 提取核心认知
  3. 建立连接
  4. 生成可视化地图

🔗 整合到现有工具

整合到微信

方法

  1. 关注"文件传输助手"
  2. 转发有价值内容到文件传输助手
  3. 定期导出 → Context-Manager

自动化(需配置):

  • 使用微信机器人自动转发
  • 设置关键词触发保存

整合到飞书

方法

  1. 创建"Context 收集"多维表格
  2. 设置自动化:新文档 → 通知 Context-Manager
  3. 定期同步

自动化(需配置):

  • 飞书自动化机器人
  • Webhook 触发保存

整合到元宝

方法

  1. 导出元宝对话(Markdown 格式)
  2. 添加到 Context-Manager
  3. 添加你的判断

自动化(需配置):

  • 元宝 API 导出
  • 定时同步脚本

整合到本地

方法

  1. 设置"Context 收集"文件夹
  2. 拖拽文件到文件夹
  3. 自动扫描并存储

自动化(需配置):

  • 文件夹监控脚本
  • 自动打标存储

⚠️ 注意事项

必须遵守

  • ✅ 内心判断是核心(外部信息只是素材)
  • ✅ 每日记录(持续积累)
  • ✅ 定期提炼最小内核(≤5000 字)
  • ❌ 不要只存外部,不存内心
  • ❌ 不要只记录,不回顾
  • ❌ 不要让最小内核超过 5000 字

模糊请求处理 ⭐ 新增:

如果用户请求模糊(如"帮我管理一下知识"):
→ 列出 4 个核心功能供选择
→ 示例:"我可以帮你:1.记录触动事 2.整合外部信息 3.提炼最小内核 4.生成认知地图。你想做哪个?"

📊 成功指标

如何判断 Context-Manager 是否有效?

指标目标值说明
每日记录3 件/天触动事 + 判断
周回顾1 次/周查看认知地图
月提炼1 次/月熵减最小内核
最小内核≤5000 字原则/信念/决策机制
连接密度>3每个笔记平均连接数

📌 关于本文

本文是燃冰小蚂蚁共同协作的产物。

燃冰负责方向决策、内容 review 和最终拍板。

小蚂蚁负责信息整理、草稿生成和自动化执行。

一人 CEO,不是一个人干所有事。

是用工具和 AI,放大个人能力。

🔗


Context-Manager v1.0.0 | 2026-04-16

灵感来源

  • 马伯庸:写日记的重要性
  • 罗振宇:推崇日记作为认知工具
  • 晨间日记:每日记录 3 件触动事
  • Karpathy LLM Wiki:个人知识管理理论
  • 可用式启发:有用内容唤醒权重

GitHub: 待创建 ClawHub: 待发布

Comments

Loading comments...