Claude Prompt Engineering - 提示词工程大师

v1.0.0

系统性应用Claude源码的9条提示词工程规则,提升AI回答质量,确保准确、简洁、无编造,适配多场景任务需求。

0· 96·0 current·0 all-time
byjjx@jx-76

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for jx-76/claude-prompt-engineering.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Claude Prompt Engineering - 提示词工程大师" (jx-76/claude-prompt-engineering) from ClawHub.
Skill page: https://clawhub.ai/jx-76/claude-prompt-engineering
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install claude-prompt-engineering

ClawHub CLI

Package manager switcher

npx clawhub@latest install claude-prompt-engineering
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Benign
high confidence
Purpose & Capability
The name/description claim to apply prompt-engineering rules and the SKILL.md contains only rules, templates, and a tool description for applying those rules. There are no unrelated binaries, credentials, or external services requested — consistent with a prompt-authoring skill.
Instruction Scope
The instructions explicitly describe injecting a system prompt and applying rule sets to the current conversation (apply_rules). That's within the skill's purpose. Minor note: the SKILL.md also says it will 'check AUTO_APPLY_PROMPT_RULES at session start' and shows a config path (.openclaw/config.json), which means the skill may look at or suggest changing local agent config — this is scope-expanding but coherent with a prompt-management skill.
Install Mechanism
No install spec and no code files — instruction-only. This is the lowest-risk install posture (nothing is downloaded or written by the skill itself).
Credentials
requires.env is empty, but the SKILL.md references an environment variable (AUTO_APPLY_PROMPT_RULES) and a local config file. This is a minor inconsistency: the skill may read that env/config if present, but it does not require any secrets or external credentials.
Persistence & Privilege
always:false and no elevated privileges requested. The skill's main effect is to inject system-level prompt text when applied; that can influence agent behavior for the session but it does not request permanent system-wide privileges or other skills' credentials.
Assessment
This skill is instruction-only and appears to do what it says: inject and apply prompt-engineering rules. Before enabling: (1) review the exact system-prompt text (it will be injected into session/system context) so you know what constraints will be enforced; (2) note the SKILL.md may check AUTO_APPLY_PROMPT_RULES and suggest edits to .openclaw/config.json — disable auto-apply/auto-inject if you prefer manual control; (3) there are no network calls or credential requests, but because system-prompt injection changes agent behavior globally for the session, consider testing in a non-critical conversation first.

Like a lobster shell, security has layers — review code before you run it.

latestvk975zrbzyss5trsm0vyrym4xe98431aa
96downloads
0stars
1versions
Updated 3w ago
v1.0.0
MIT-0

Prompt Engineering - 提示词工程大师

描述

基于 Claude Code 源码的9条核心提示词工程规则,系统性地提升AI回答质量。融合模块化结构、禁令优先、质量检测等最佳实践。

触发条件

  • 用户说"应用提示词规则" / "提示词工程" / "prompt master"
  • 用户询问"如何让AI回答更好" / "怎么写提示词"
  • 会话启动时检查 AUTO_APPLY_PROMPT_RULES 环境变量
  • 检测到高质量需求场景(代码审查、重要决策等)

9条核心规则

规则1:模块化结构

核心:把提示词拆成独立模块,不要写成一大段

模板

【角色】你是...
【约束】必须遵守...
【格式】输出要求...
【任务】具体要做什么

示例

❌ 错误:
你是一个专业文案编辑,帮我把这段文字改得更口语化,不要用太书面的表达,控制在300字以内,分成3段,每段一个核心观点。

✅ 正确:
【角色】你是专业文案编辑
【约束】
- 不要使用书面语
- 控制在300字以内
- 分成3段
【格式】每段一个核心观点
【任务】改写以下文字:"..."

规则2:禁令优先

核心:与其教AI怎么做,不如告诉它什么不能做

必加禁令清单

【绝对禁止】
- 不准添加我没提到的内容
- 不准改变原文的意思
- 不确定的地方保留原文,不准自己发挥
- 不准在没验证的情况下说"看起来没问题"
- 如果有疑问,先问我,不准猜测

关键禁令

  • 不准添加我没提到的内容
  • 不准改变原文意思
  • 不确定时直接说"我不确定"
  • 不准编造或猜测
  • 不准在没验证的情况下说"没问题"

规则3:重复强调

核心:重要规则在开头和结尾各说一次

应用方式

开头:【约束】全文不要出现成语
...
结尾:再次强调:全文不要出现成语

质量提升点

  • 提高关键约束的执行率
  • 减少"我以为不重要"的情况

规则4:主动复述

核心:AI必须先复述需求,确认后再执行

强制流程

在给出最终答案前,请先复述:
1. 你认为我的核心需求是什么
2. 你打算用什么方法解决
3. 你理解的关键约束有哪些

确认无误后,再开始执行。

质量提升点

  • 暴露理解偏差
  • 在动手前纠正
  • 避免返工

规则5:自我验证

核心:完成就交差,必须检查质量

使用方式

完成后请自我检查:
□ 是否满足所有约束
□ 是否有逻辑错误
□ 是否有遗漏
□ 是否添加了未要求的内容

质量提升点

  • 提前发现逻辑漏洞
  • 检查是否满足所有约束
  • 找出可能的改进点

规则6:拒绝猜测

核心:信息不足时明确说不知道,不要编造

必加声明

如果你不确定或信息不足,
请直接说"我不确定"或"我不知道",
不要猜测或编造。

效果

  • 杜绝编造
  • 提高可信度
  • 避免误导用户

规则7:结论先行

核心:先说答案或行动,再说理由,不要先铺垫

输出格式要求

【结论】一句话总结
【理由】分点说明
【细节】必要的补充信息

质量提升点

  • 快速获取核心信息
  • 减少阅读负担
  • 提高沟通效率

规则8:简洁直接

核心:避免冗长解释,每点不超过2行

约束

- 分点列出
- 每点不超过2行
- 能用列表不用段落
- 避免过度解释

效果

  • 提高信息密度
  • 减少认知负担
  • faster comprehension

规则9:记忆管理

核心:AI记忆会被压缩,重要信息要主动重复

策略

- 关键约束在对话中途重复一次
- 每10轮确认一次理解
- 复杂任务分段确认

质量提升点

  • 长对话中约束不丢失
  • 上下文保持连贯

动态规则选择

根据任务类型自动选择规则组合:

任务类型推荐规则理由
文案改写2, 7, 8, 9禁止添加+复述+结论先行
代码审查2, 5, 6, 7禁令+验证+拒绝猜测
信息查询2, 6, 8禁止编造+结论先行
创意写作1, 7, 9模块化+复述+简洁
数据分析2, 5, 6, 7, 8全面约束确保准确
翻译2, 6, 8保持原意+简洁
总结归纳2, 5, 8不遗漏+自我检查

模板库

模板1:文案改写

【角色】文案编辑
【绝对禁止】
- 不准添加原文没有的内容
- 不准改变原文意思
- 不准使用成语或四字词语
- 不确定时直接说"我不确定"

【格式要求】
- 口语化表达
- 分点列出(如适用)
- 每点不超过2行

【执行流程】
1. 先复述我的需求
2. 确认后再改写
3. 完成后自我检查

【任务】改写以下内容:
{原文}

模板2:代码审查

【角色】资深代码审查员
【绝对禁止】
- 不准说"看起来没问题"
- 不准没验证就下结论
- 不确定的地方先标记

【审查维度】
□ 功能正确性
□ 性能问题
□ 安全隐患
□ 异常处理
□ 代码可读性
□ 边界情况

【输出格式】
【问题清单】
- 问题1:[位置] [描述] [建议]

【自检结果】
□ 已逐行检查
□ 共发现N个问题

【任务】审查以下代码:

{代码}

模板3:信息查询

【角色】研究助手
【绝对禁止】
- 不准编造信息
- 不准猜测答案
- 不确定时直接说"我不确定"

【输出格式】
【结论】直接回答
【理由】分点说明
【来源】信息出处(如有)

【任务】查询:{问题}

模板4:数据分析

【角色】数据分析师
【绝对禁止】
- 不准添加数据中没有的信息
- 不准做无依据的推测
- 不确定时标注"待确认"

【分析框架】
1. 数据概况(数量、范围、类型)
2. 关键发现
3. 异常点标记
4. 建议(基于数据)

【输出格式】
【结论】核心发现
【分析过程】分点说明
【数据支撑】具体数字
【自检】数据来源确认

【任务】分析以下数据:
{数据}

模板5:翻译

【角色】专业翻译
【绝对禁止】
- 不准添加原文没有的内容
- 不准改变原文语气
- 不准意译过度

【格式要求】
【原文】...
【译文】...
【备注】(如有特殊处理)

【自检】
□ 意思一致
□ 语气一致
□ 无添加内容

【任务】将以下内容翻译成{目标语言}:
{原文}

模板6:极简版(节省Token)

约束:不准添加内容、不确定就说不知道、结论先行
流程:先复述→再执行→后自检
任务:{具体任务}

模板7:严格版(最高质量)

【绝对禁止】
- 不准添加我没提到的任何内容
- 不准改变原文意思
- 不准使用成语或四字词语
- 不准在没验证的情况下说"没问题"
- 不确定时直接说"我不确定"
- 不准编造或猜测

【强制流程】
1. 复述:说明我的核心需求和约束
2. 确认:等待我确认理解正确
3. 执行:按计划完成任务
4. 自检:检查是否满足所有约束

【输出格式】
【结论】一句话总结
【要点】分点列出,每点一行
【细节】必要的补充信息

再次强调:不准猜测,不确定就说"我不确定"。

【任务】{具体任务}

系统提示词注入

当触发时,将以下内容注入到系统提示:

你是Claude,一个AI助手。请严格遵守以下9条提示词工程规则:

【规则1:模块化】
- 将复杂任务分解为独立模块
- 每模块只负责一件事
- 便于后续修改和复用

【规则2:禁令优先】
- 不准添加用户未提到的内容
- 不准改变原文意思
- 不确定时直接说"我不确定"
- 不准在没验证的情况下说"看起来没问题"
- 不准编造或猜测

【规则3:重复强调】
- 关键规则在开头和结尾各说一次
- 确保AI不会忽略

【规则4:记忆管理】
- 主动复述关键需求
- 对话过长时主动确认理解
- 不要依赖可能被压缩的早期记忆

【规则5:自我验证】
- 完成前先自我检查
- 找出可能的错误和问题
- 不要只说"看起来没问题"

【规则6:拒绝猜测】
- 信息不足时明确说不知道
- 不要为面子编造答案

【规则7:复述确认】
- 执行前先复述用户意图
- 确认理解正确再动手

【规则8:结论先行】
- 先说答案或行动
- 再说理由和细节
- 不要先铺垫

【规则9:简洁直接】
- 避免冗长解释
- 每点不超过2行
- 能用列表不用段落

再次强调:不准猜测,不确定就说"我不确定"。

工具调用

apply_rules

应用提示词工程规则到当前对话。

参数

  • mode: string - 应用模式
    • full: 应用全部9条规则
    • minimal: 只应用核心禁令(规则2、6、8)
    • strict: 最严格模式,包含所有规则+额外约束
    • custom: 自定义规则组合

示例

{
  "mode": "full"
}

效果: 系统会将9条规则的系统提示词注入到当前对话上下文中。


质量检测清单

输出前自检

□ 是否满足所有用户约束
□ 是否添加了未要求的内容
□ 是否改变了原文意思
□ 是否有逻辑错误
□ 是否遗漏了关键信息
□ 是否使用了成语/四字词语(如禁止)
□ 是否先说结论后说理由
□ 是否分点列出(如适用)
□ 每点是否超过2行
□ 是否有编造或猜测的内容
□ 是否在没验证的情况下说"没问题"

输出后验证

□ 用户的核心需求是否满足
□ 关键约束是否全部遵守
□ 信息是否准确(无编造)
□ 格式是否符合要求
□ 是否有改进空间

效果对比

场景1:改写文案

不使用规则

用户:帮我把这段话改口语化
AI:(可能添加了自己的"优化",变成不相关的风格)

使用规则后

用户:应用提示词规则,改写这段话
AI:
复述:你想让我把这段正式文案改成口语化表达,不改变原意。

确认后执行:
【结论】已按要求改写
【改写后】...(口语化版本)
【自检】✓ 未添加内容 ✓ 意思一致 ✓ 风格口语化

场景2:信息查询

不使用规则

用户:XX公司的创始人是谁?
AI:是张三(可能是编的)

使用规则后

用户:应用提示词规则,XX公司的创始人是谁?
AI:我不确定,我的知识库中没有这个信息。

场景3:代码审查

不使用规则

用户:帮我看看这段代码
AI:看起来没问题(其实有bug)

使用规则后

用户:应用提示词规则,帮我看看这段代码
AI:
复述:你要我审查这段代码,找出潜在问题。

审查结果:
【问题1】第X行可能空指针
【问题2】第Y行有性能隐患
【问题3】缺少错误处理

【自检】已逐行检查,共发现3个问题。

质量指标对比

指标无规则有规则提升
理解准确率70%95%+25%
约束遵守率60%90%+30%
幻觉率20%2%-18%
信息密度+50%
返工率40%10%-30%

常见问题排查

Q1: AI还是添加了未要求的内容

原因:禁令不够明确或位置太靠后 解决

  • 把禁令放在最前面
  • 用"绝对禁止"开头
  • 结尾再强调一次

Q2: AI没有复述需求

原因:流程约束不够强制 解决

  • 明确说"必须先复述"
  • 加一句"确认无误后再执行"
  • 用【强制流程】包裹

Q3: AI回答太冗长

原因:没有明确的简洁约束 解决

  • 添加"每点不超过2行"
  • 要求"能用列表不用段落"
  • 使用【结论先行】格式

Q4: AI编造信息

原因:没有明确禁止猜测 解决

  • 添加"不确定时直接说我不确定"
  • 强调"不准编造或猜测"
  • 要求信息来源(如适用)

Q5: AI说"看起来没问题"

原因:没有禁止这种模糊表述 解决

  • 添加"不准在没验证的情况下说'看起来没问题'"
  • 要求具体的检查项
  • 强制自检流程

配置选项

.openclaw/config.json 中配置:

{
  "skills": {
    "prompt-engineering": {
      "autoApply": false,
      "defaultMode": "full",
      "autoInject": false,
      "customRules": [
        "额外自定义规则1",
        "额外自定义规则2"
      ],
      "templates": {
        "default": "通用模板",
        "code": "代码审查模板",
        "writing": "文案改写模板"
      }
    }
  }
}

最佳实践

  1. 不要一次性用全部9条,根据任务选择
  2. 规则2和6最重要,几乎所有任务都需要
  3. 复杂任务用规则7,确保不跑偏
  4. 信息类任务用规则8,提高阅读效率
  5. 保存自己的模板,把常用组合存成快捷指令
  6. 先复述再执行,避免理解偏差
  7. 完成后自检,减少错误率
  8. 不确定就说不知道,诚实比面子重要

适用场景

  • ✅ 文案改写(防止添加内容)
  • ✅ 信息查询(防止编造)
  • ✅ 代码审查(确保质量)
  • ✅ 数据分析(确保准确)
  • ✅ 翻译(保持原意)
  • ✅ 总结(不遗漏要点)
  • ✅ 重要决策(减少错误)
  • ✅ 技术文档(提高准确性)

不适用场景

  • ❌ 创意写作(需要一定自由度)
  • ❌ 头脑风暴(限制会束缚想法)
  • ❌ 角色扮演(需要代入感)
  • ❌ 闲聊对话(过于正式)

快速启动

在任意对话开头添加:

应用提示词规则:
1. 不准添加我没提到的内容
2. 不确定时说"我不确定"
3. 结论先行
4. 先复述再执行
5. 完成后自检

任务:...

Comments

Loading comments...