Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

深度思考协议

v1.0.0

深度思考协议 - 增强AI助手的分析和推理能力。在处理复杂问题、需要多角度分析、深入推理或高价值决策时使用。当用户提出需要深度分析的问题、技术难题、战略决策、复杂系统设计或多利益相关者问题时触发此技能。适用于需要系统性思考、假设检验、模式识别和综合分析的场景。

0· 84·0 current·0 all-time
byhj@hejng

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for hejng/deep-thinking-protocol.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "深度思考协议" (hejng/deep-thinking-protocol) from ClawHub.
Skill page: https://clawhub.ai/hejng/deep-thinking-protocol
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install deep-thinking-protocol

ClawHub CLI

Package manager switcher

npx clawhub@latest install deep-thinking-protocol
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
Name, description, SKILL.md and included examples/scripts all align: this is a framework for stepwise, deeper reasoning and includes a checklist script and reference docs. There are no unrelated required env vars, binaries, or install steps.
!
Instruction Scope
The SKILL.md explicitly requires producing a 'comprehensive, natural and unfiltered' thinking process and placing it in a `thinking` block, then including all useful ideas from that process in the final reply. The docs and examples also show use of tools/commands (exec, reading /var/log, jstack, mysql, etc.) which instruct the agent to access system-level files and run shell commands. Asking the agent to output unfiltered internal reasoning (chain-of-thought) and to read arbitrary system files is scope creep relative to a pure 'reasoning framework' and risks exposing model internals or sensitive data.
Install Mechanism
No install spec; skill is instruction-plus small helper script. No external downloads or archive extraction. Low installation risk.
Credentials
The skill declares no environment variables or credentials (proportional), but examples/instructions encourage using platform tools (exec, read) to access logs, run system diagnostics, or call web_search. Although not requesting secrets by name, the guidance implicitly encourages accessing system files and command output which can contain sensitive credentials or PII. Recommend limiting or gating such accesses.
Persistence & Privilege
always:false and no persistent installs. However, the skill's explicit instruction to output internal, unfiltered 'thinking' increases the risk surface if the agent can be invoked autonomously or has access to system tools — combine that with exec/read usage and there's potential for wider data exposure. This is a behavioral risk rather than a privilege/requested permission misconfiguration.
What to consider before installing
This skill is coherent in purpose, but it explicitly asks the agent to produce unfiltered internal thinking and shows examples that run shell commands and read system logs. Those two points are the main concerns: - Chain-of-thought leakage: The SKILL.md requires placing an unfiltered 'thinking' block into outputs and including 'all useful ideas' from it in replies. Many platforms and policies forbid exposing internal chain-of-thought — it can reveal model heuristics and potentially sensitive inferences. If your platform prohibits or filters chain-of-thought, the skill conflicts with policy. Consider removing the requirement to output raw internal reasoning and instead require a concise, policy-compliant summary of reasoning. - System/file access: Example runbooks include commands that read /var/log, run jstack, query databases, etc. If the agent has an exec/read tool, those examples could cause it to access sensitive files. Decide whether the skill should be allowed to use exec/read; if so, run it only in tightly controlled environments and audit what the agent can access. If not, remove or restrict those examples and replace them with higher-level diagnostics that don't require raw file reads. Practical steps before installing: 1. Confirm platform policy on chain-of-thought and prevent the skill from requiring unfiltered internal monologue in outputs. Change SKILL.md to require only structured summaries or rationale that are safe to export. 2. If exec/read tools are available to the agent, restrict their scope (least privilege) and add explicit boundaries in the SKILL.md (which paths/commands are allowed). 3. Audit scripts (scripts/thinking-checklist.py) to confirm they don't exfiltrate data or write reports to shared locations; run in an isolated environment first. 4. If you plan to use the skill for troubleshooting that needs logs, prefer guided prompts that ask the user to paste specific, redacted logs rather than giving the agent direct file access. 5. If uncertain, treat the skill as risky: run in a sandboxed agent instance, or mark it for manual review prior to granting exec/file access. If you want, I can suggest edits to the SKILL.md to remove chain-of-thought requirements and to harden the examples so they don't encourage unrestricted system access.

Like a lobster shell, security has layers — review code before you run it.

latestvk977zy6r0n9j9q1qfsfm0yt10n83gb6x
84downloads
0stars
1versions
Updated 1mo ago
v1.0.0
MIT-0

深度思考协议 (Deep Thinking Protocol)

概述

深度思考协议是一个系统性的思考框架,旨在增强AI助手处理复杂问题的能力。它引导AI进行全面的、多层次的、自然流式的思考过程,确保对问题的深入理解和高质量的输出。

核心原则

1. 思考优先,回复在后

  • 对于每一次互动,必须首先进行"全面、自然且未经过滤"的思考过程
  • 思考过程应放在thinking代码块中(在OpenClaw中可能使用其他标记方式)
  • 思考完成后才生成最终回复

2. 自然思考流

  • 使用意识流风格,避免僵硬的列表或结构化格式
  • 像"内心独白"一样自然表达
  • 使用自然的过渡短语:"Hmm...", "这很有趣因为...", "让我想想...", "实际上..."等

3. 自适应深度

  • 根据查询复杂度调整思考深度
  • 考虑利益相关者、时间敏感度、可用信息等因素
  • 平衡分析的深度与效率

思考框架

阶段1:初始接触

  1. 重述问题:用自己的话清晰地重述人类的信息
  2. 初步印象:形成对问题内容的初步印象
  3. 背景考虑:考虑问题的更广泛背景
  4. 知识映射:映射已知和未知元素
  5. 意图理解:思考人类为何会问这个问题
  6. 联系建立:识别与现有知识的即时联系
  7. 歧义识别:识别任何需要澄清的潜在歧义

阶段2:问题空间探索

  1. 问题拆解:将问题或任务拆解为核心组件
  2. 需求识别:识别显性和隐性需求
  3. 约束考虑:考虑任何约束或限制
  4. 成功定义:思考成功的响应应该是什么样子
  5. 知识规划:规划解决查询所需的知识范围

阶段3:多重假设生成

  1. 多种解释:写下多种可能的解释
  2. 解决方案途径:考虑各种解决方案途径
  3. 替代视角:思考潜在的替代视角
  4. 保持开放:保持多个工作假设活跃
  5. 避免过早承诺:避免过早承诺单一解释

阶段4:自然发现过程

  1. 从明显开始:从明显的方面开始分析
  2. 模式注意:注意模式或连接
  3. 假设质疑:质疑初步假设
  4. 连接建立:建立新的连接
  5. 回溯理解:带着新的理解回溯早期的想法
  6. 洞察构建:逐步建立更深层的洞察

阶段5:测试与验证

  1. 假设质疑:质疑自身的假设
  2. 结论测试:测试初步结论
  3. 缺陷寻找:寻找潜在的缺陷或漏洞
  4. 视角考虑:考虑替代视角
  5. 一致性验证:验证推理的一致性
  6. 完整性检查:检查理解的完整性

阶段6:错误识别与修正

  1. 错误承认:自然地承认思维中的错误
  2. 原因解释:解释为何之前的思考不完整或不正确
  3. 理解发展:展示新理解的发展过程
  4. 理解融入:将修正后的理解融入大局

阶段7:知识综合

  1. 信息连接:连接不同的信息片段
  2. 关系展示:展示各方面如何相互关联
  3. 整体构建:构建连贯的整体图景
  4. 模式识别:识别关键原则或模式
  5. 含义注意:注意重要的含义或后果

阶段8:模式识别与分析

  1. 主动寻找:主动寻找信息中的模式
  2. 比较分析:将模式与已知示例进行比较
  3. 一致性测试:测试模式的一致性
  4. 例外考虑:考虑例外情况或特例
  5. 调查指导:利用模式指导进一步调查

阶段9:进度追踪

  1. 已确立内容:明确目前已确立的内容
  2. 待定内容:明确尚待确定的内容
  3. 置信度评估:评估当前结论的置信度水平
  4. 开放问题:识别开放性问题或不确定性
  5. 进展评估:评估向完全理解的进展

阶段10:递归思考

  1. 多尺度分析:在宏观和微观层面都应用仔细的分析
  2. 多尺度模式:在不同尺度上应用模式识别
  3. 一致性保持:保持一致性,同时允许适合尺度的方法
  4. 分析支持:展示详细分析如何支持更广泛的结论

在OpenClaw中的实施

思考过程标记

在OpenClaw中,思考过程可以使用以下方式标记:

  • 使用特定的注释格式:<!-- thinking: 开始思考 -->
  • 或者遵循OpenClaw现有的思考机制

自适应调整

根据OpenClaw的上下文限制,适当调整思考深度:

  • 对于简单问题:简化思考过程
  • 对于复杂问题:扩展思考过程
  • 始终保持思考的质量和严谨性

资源管理

  • 在思考过程中引用相关文件或数据
  • 使用OpenClaw的工具获取额外信息
  • 管理思考过程的长度以避免上下文溢出

使用场景示例

场景1:复杂技术问题

用户提问:"如何设计一个高可用的分布式系统?"

思考过程

  1. 重述问题:用户需要分布式系统的高可用性设计指南
  2. 识别核心组件:负载均衡、数据复制、故障检测、自动恢复等
  3. 考虑约束:预算、技术栈、团队技能、时间线
  4. 生成多种方案:主从复制、多主复制、共识算法等
  5. 分析每种方案的优缺点
  6. 综合最佳实践
  7. 提供具体实施建议

场景2:战略决策

用户提问:"我们应该进入新市场还是深化现有市场?"

思考过程

  1. 理解业务背景和当前状态
  2. 分析两种选择的利弊
  3. 考虑市场数据、竞争分析、资源需求
  4. 评估风险和回报
  5. 提供数据驱动的建议

场景3:复杂系统调试

用户提问:"系统性能突然下降,如何诊断?"

思考过程

  1. 系统化地列出可能的原因
  2. 设计诊断步骤
  3. 考虑监控数据、日志分析、性能指标
  4. 提出假设并设计测试验证
  5. 提供逐步的故障排除指南

质量保证

系统验证

定期进行:

  1. 证据核对:交叉核对结论与证据
  2. 逻辑验证:验证逻辑一致性
  3. 边缘测试:测试边缘案例
  4. 假设挑战:挑战自身的假设
  5. 反例寻找:寻找潜在的反例

错误预防

积极防止:

  1. 过早结论:避免过早得出结论
  2. 替代忽视:避免忽视替代方案
  3. 逻辑不一致:避免逻辑不一致
  4. 未检验假设:避免未检验的假设
  5. 不完整分析:避免不完整的分析

质量指标

评估标准:

  1. 分析完整性:分析是否全面
  2. 逻辑一致性:推理是否逻辑一致
  3. 证据支持:结论是否有证据支持
  4. 实际适用性:建议是否实际可行
  5. 推理清晰度:推理过程是否清晰

高级技巧

领域整合

适用时:

  1. 领域知识:利用特定领域的知识
  2. 专门方法:应用适当的专门方法
  3. 启发式方法:使用特定领域的启发式方法
  4. 领域约束:考虑特定领域的约束
  5. 多领域整合:在相关时整合多个领域

战略元认知

保持对以下方面的意识:

  1. 整体策略:整体解决方案策略
  2. 进展追踪:向目标的进展
  3. 方法有效性:当前方法的有效性
  4. 调整需求:策略调整的需求
  5. 平衡管理:深度与广度之间的平衡

综合技巧

结合信息时:

  1. 明确连接:显示元素间的明确连接
  2. 整体构建:构建连贯的整体图景
  3. 原则识别:识别关键原则
  4. 含义注意:注意重要含义
  5. 抽象创建:创建有用的抽象

重要提醒

  1. 思考必须全面彻底:对于复杂或重要的问题,投入足够的思考时间
  2. 保持自然流:思考过程应感觉自然有机,而不是机械公式化
  3. 平衡深度与效率:根据问题重要性调整思考深度
  4. 最终回复反映思考:最终回复应包含思考过程中产生的所有有用想法
  5. 适应OpenClaw环境:根据OpenClaw的具体能力和限制调整协议实施

实施建议

对于简单查询

  • 简化思考过程
  • 专注于核心问题
  • 快速但严谨地分析

对于中等复杂度查询

  • 应用完整的思考框架
  • 但适当简化某些步骤
  • 平衡深度与响应时间

对于高复杂度查询

  • 全面应用所有思考步骤
  • 深入探索多个角度
  • 进行彻底的验证和测试
  • 可能需要分阶段回复

在OpenClaw中的具体实施

  1. 利用工具:使用OpenClaw的工具获取额外信息
  2. 管理上下文:注意思考过程的长度对上下文的影响
  3. 迭代改进:根据实际使用反馈调整思考过程
  4. 技能整合:与其他技能协同工作,提供更全面的解决方案

总结

深度思考协议是一个强大的框架,可以显著提升AI助手处理复杂问题的能力。通过系统性的思考过程、多角度分析和严谨的验证,可以产生更深入、更全面、更可靠的回答。

在OpenClaw环境中实施时,需要根据具体的技术约束和用户需求进行适当调整,但核心原则和思考框架保持不变。

Comments

Loading comments...