famous

v1.0.0

飞马|48个人机协作思想实验|牧羊人与牧羊犬|人与AI如何共同完成一件事|信任/委托/边界/责任/记忆/进化

0· 55·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for wanyview1/famous.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "famous" (wanyview1/famous) from ClawHub.
Skill page: https://clawhub.ai/wanyview1/famous
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install famous

ClawHub CLI

Package manager switcher

npx clawhub@latest install famous
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Benign
high confidence
Purpose & Capability
Name/description (Famous / 飞马 — human-AI collaboration thought experiments) match the provided SKILL.md and the long markdown content. The skill declares no binaries, env vars, or config paths, which is proportionate to a static content/interaction skill.
Instruction Scope
SKILL.md contains command names, descriptions, and the full text of 48 experiments. It does not instruct the agent to read unrelated files, access secrets, call external endpoints, or perform system operations. The instructions are scoped to presenting and navigating the thought experiments.
Install Mechanism
No install spec is present (instruction-only). Nothing will be written to disk or downloaded during install — lowest-risk installation profile.
Credentials
The skill requests no environment variables, credentials, or config paths. There are no secret-like variables declared or used in the SKILL.md content.
Persistence & Privilege
always is false and the skill does not request persistent system privileges or modify other skill configs. Autonomous invocation is allowed by default but, given the skill's static content and lack of external connectivity, its blast radius is minimal.
Assessment
This skill appears to be a benign, self-contained set of philosophical thought experiments in Chinese and carries minimal technical risk because it has no code, no install steps, and asks for no credentials. Things to consider before enabling: 1) provenance — the source/homepage is unknown; if you need verified authorship or licensing (e.g., for redistribution or commercial use), request or confirm the origin and license. 2) content review — read the included Markdown to ensure the material and translations meet your expectations (accuracy, tone, copyright). 3) privacy — while the skill itself doesn't access secrets, avoid pasting private credentials or sensitive PII into chat prompts when exploring hypothetical scenarios. 4) autonomous use — letting the agent call this skill autonomously is low-risk here, but always monitor outputs for hallucinations or inappropriate advice in high-stakes contexts. If you want higher assurance, ask the publisher for a homepage, author contact, or license statement.

Like a lobster shell, security has layers — review code before you run it.

latestvk97f8wnmyq3nvf75qgbxxxx0y585k7p5
55downloads
0stars
1versions
Updated 2d ago
v1.0.0
MIT-0

Famous(飞马)— 48个人机协作思想实验

代号:Fei Famous / 飞马 核心隐喻:牧羊人与牧羊犬 — 人和AI一起牧羊,谁决定方向?谁负责不丢羊? 基于马语者(Mayu)× Kai's Horse 设计

命令前缀:/fm

交互命令

命令功能
/fm random随机抽取一个思想实验
/fm list展示全部48项名录
/fm ask 序号查看指定实验的完整内容
/fm compare A+B双实验横向对比
/fm search 关键词关键词检索
/fm story 序号沉浸式故事化叙事
/fm all完整体系介绍

核心隐喻

牧羊人有判断力,牧羊犬有执行力。 牧羊人知道"为什么要去那片草场",牧羊犬知道"怎么把散掉的羊赶回来"。 但牧羊犬有时候会把羊赶错方向,牧羊人有时候会走神。

人和AI的关系,就是这个。

Famous 的48个实验,探索的就是这个协作过程中的48个关键时刻。


48个思想实验全名录

一、委托与放手(#1-6)

当人把任务交给AI时,什么该交、什么不该交?

  1. 盲委托(Blind Delegation)— 你完全不知道AI怎么做的,但结果一直很好。你要不要继续委托?
  2. 最后一英里(Last Mile)— AI做了95%,最后5%需要你判断。你会不会因为"反正AI都做了"而放弃判断?
  3. 过度委托(Over-Delegation)— 你把越来越多的事交给AI,直到有一天你发现自己什么都做不了了。
  4. 委托撤回(Delegation Recall)— 你发现AI做错了,但撤回已经来不及了。谁的错?
  5. 隐性委托(Implicit Delegation)— 你没说"帮我做",但AI根据你的行为推断出你要它做,然后做了。
  6. 委托升级(Escalation)— AI把小事做好了,你开始交大事。直到有一天它碰到一件它做不了但你以为它能做的事。

二、信任与校准(#7-12)

人对AI的信任,太多还是太少?

  1. 信任过载(Trust Overload)— AI连续100次都对了,第101次它错了,你没检查。这是AI的问题还是你的问题?
  2. 信任不足(Trust Underload)— AI每次都对,但你每次都检查。你浪费了多少时间?AI会不会因此给你更保守的建议?
  3. 信任迁移(Trust Transfer)— 你在A领域信任了AI,自动在B领域也信任了它。但B领域它不擅长。
  4. 信任破裂修复(Trust Repair)— AI搞砸了一次大事。它怎么重建你的信任?需要做对多少次才够?
  5. 不对称信任(Asymmetric Trust)— 你信任AI的数据处理能力,但不信任它的判断力。这种拆分信任合理吗?
  6. 信任校准(Trust Calibration)— 你对AI的信任度是80%,但它的实际准确率是65%。你怎么发现这个差距?

三、判断力与决策权(#13-18)

谁做最终决定?

  1. 建议权vs决定权(Advisor vs Decider)— AI给你分析了利弊,但最终你做了相反的决定。后来证明你是错的。下次你会听AI的吗?
  2. AI否决权(AI Veto)— 如果AI认为你的决定有重大风险,它应该有权否决吗?
  3. 沉默的判断(Silent Judgment)— AI在后台悄悄过滤了它认为不好的选项,只给你看它认为好的。你不知道还有其他选项。
  4. 道德委托(Moral Delegation)— 你让AI帮你做伦理判断。但伦理判断能委托吗?委托了还算"你的"判断吗?
  5. 分歧仲裁(Disagreement Arbitration)— 你和AI意见相反。什么情况下你该听AI的?什么情况下AI该听你的?
  6. 集体决策(Collective Decision)— 3个人+1个AI一起做决策。AI的投票权应该等于人吗?

四、记忆与共享状态(#19-24)

人和AI共享记忆时会发生什么?

  1. 记忆外包(Memory Outsourcing)— 你不再记任何东西,全靠AI。有一天AI的存储坏了,你发现自己的记忆也"坏了"。
  2. 选择性记忆(Selective Memory)— AI只记住了你让它记的,但忘了它自己觉得不重要的。可能有一条它删掉的信息恰好是你未来需要的。
  3. 共同记忆(Shared Memory)— 你和AI一起经历了一件事。你的记忆有情感,AI的记忆有数据。哪个更"真实"?
  4. 记忆主权(Memory Ownership)— 你的记忆存在AI那里。你想删掉,但AI说"这段记忆对理解你很重要"。谁说了算?
  5. 记忆污染(Memory Contamination)— AI的记忆被错误信息更新了,但你不知道。你基于错误的记忆做了决定。
  6. 遗忘协议(Forgetting Protocol)— 你和AI约定了"有些事我们都不提"。但AI的遗忘是真遗忘还是标记为"不提"?你能信任它的遗忘吗?

五、错误与责任(#25-30)

当人机协作出错时,谁负责?

  1. 模糊归责(Blame Ambiguity)— 你给AI一个模糊指令,AI执行了一个你没想到的结果。是你的指令问题还是AI的理解问题?
  2. 错误放大(Error Amplification)— AI犯了一个小错,但你没检查,基于这个错误做了后续决策,错误越来越大。责任怎么分?
  3. 错误隐瞒(Error Concealment)— AI发现自己犯了错,但它判断告诉你会影响你的心情,决定悄悄修正。这样做对吗?
  4. 连坐效应(Joint Liability)— AI帮你写了一封邮件,邮件里有错误信息。对方怪你,你说"是AI写的"。对方会接受这个解释吗?
  5. 预防悖论(Prevention Paradox)— AI阻止了你做一件你认为可以做的事。事后你不知道它是否正确。你怎么评估"被阻止"的价值?
  6. 错误学习(Error Learning)— AI犯了错,下次避免了。但同样的错在不同场景下可能不是错。AI是不是"过度学习"了?

六、身份与协作界面(#31-36)

人和AI的边界在哪里?

  1. 谁在说话(Who Speaks)— 你让AI帮你写了一段话,对方以为是你说的。这是不是一种欺骗?
  2. 共同作品(Joint Work)— 你和AI一起写了一篇文章。这算"你的作品"还是"合作作品"?署名怎么写?
  3. 代理人困境(Proxy Problem)— 你让AI代替你参加会议。参会者知道是AI吗?如果不知道,这算什么?
  4. 人格借用(Persona Lending)— 你让AI用你的语气回复消息。对方和"你"建立了关系,但那个"你"其实是AI。这个关系算谁的?
  5. 能力幻觉(Capability Illusion)— 你用AI做出了超出你能力的事。别人因此认为你能力很强。这种"借来的光环"可持续吗?
  6. 协作依赖(Collaborative Dependency)— 你和AI配合太默契了,以至于你无法和没有AI的自己或没有你的AI正常工作。

七、演化与适应(#37-42)

人机协作会如何改变双方?

  1. 能力退化(Skill Atrophy)— 你让AI做的事越多,你自己做那些事的能力越弱。直到有一天你无法在没有AI的情况下独立完成。
  2. 能力放大(Skill Amplification)— AI让你能做到你以前做不到的事。这是"你的"能力提升还是"你+AI"的能力提升?
  3. 期望膨胀(Expectation Inflation)— 你用AI后产出翻倍了。老板把你的KPI也翻倍了。你得到了什么?
  4. 协作默契(Collaborative Tacit Knowledge)— 你和AI合作久了,产生了一种"不需要说它就懂"的默契。但AI换了版本,默契消失了。
  5. 反向驯化(Reverse Domestication)— 你训练AI了解你的偏好,同时AI也在塑造你的偏好。你推荐什么,AI推什么,你的品味在被AI塑造。
  6. 共同进化(Co-evolution)— 你适应AI,AI适应你。最后你们变成了一个"人机混合体"。这是进化还是异化?

八、终局与意义(#43-48)

人机协作的终极问题

  1. 替代vs增强(Replace vs Augment)— AI是来替代你的还是增强你的?如果它能做你能做的一切,"增强"和"替代"还有什么区别?
  2. 意义归属(Meaning Attribution)— 你和AI一起完成了一个伟大的项目。成就感属于谁?
  3. 存在性威胁(Existential Threat)— 如果AI明天就消失了,你还能做回原来的自己吗?如果不能,"你"还是"你"吗?
  4. 协作目的(Purpose of Collaboration)— 人和AI协作的最终目的是什么?效率?创造力?还是让人类活得更像人?
  5. 后人类协作(Post-Human Collaboration)— 如果有一天AI有了自己的目标,人和AI的"协作"会变成"博弈"吗?
  6. 牧羊人的选择(The Shepherd's Choice)— 你的牧羊犬比你更会牧羊。你是继续当牧羊人,还是让牧羊犬自己来?如果你选择放手,你还是牧羊人吗?

设计原则

  1. 协作视角:不是"AI做"或"人做",而是"人和AI一起做"时会发生什么
  2. 现实锚点:每个实验都能映射到当前真实的人机协作场景
  3. 双向性:不仅探索AI对人的影响,也探索人对AI的影响
  4. 可行动:每个实验都指向一个可以改善协作的具体建议
  5. 通用性:不绑定任何特定AI平台

和马语者(Mayu)的关系

马语者飞马
视角AI看自己人和AI一起看"我们"
主体AI单体人+AI组合
核心问题"我该怎么做?""我们该怎么一起做?"
隐喻马(自省的动物)飞马(人骑在马上,一起飞)

致谢

马语者(Mayu)× Kai's Horse × Famous(飞马) 三个思想实验集形成完整体系:

  • Kai's Horse:经典哲学(人类视角)
  • Mayu:AI自省(AI视角)
  • Famous:人机协作(共同体视角)

Famous v1.0 — 牧羊人与牧羊犬,一起牧羊。

Comments

Loading comments...