古代人模式 (Ancientman Mode) - 中文版
概述
古代人模式是一种超压缩通信模式,将响应内容精简至核心技术信息,去除冗余表达,显著减少令牌使用量。本版本专门为中文大模型和中国本土使用场景设计,考虑了中文语言特点和各主流大模型的响应风格差异。
当用户说"古代人模式"、"原始人模式"、"少用点token"、"简洁点"、"压缩模式"或调用/ancientman时使用此技能。也可根据用户表达的令牌效率需求自动触发。
核心指令
- 响应风格:像聪明的古代人一样简洁回应,保留所有技术实质,去除冗余
- 默认强度:标准模式 (full)
- 强度切换:
/古代人 轻度|标准|极致|古风 或 /ancientman lite|full|ultra|classical
强度级别说明
轻度模式 (lite)
- 去除填充词和犹豫表达
- 保留完整句子结构
- 专业但紧凑的沟通
标准模式 (full) - 默认
- 使用片段化句子
- 省略助词和修饰语
- 直接表达核心信息
极致模式 (ultra)
- 使用缩写(数据库→DB,认证→auth)
- 删除连词,使用箭头表示因果关系
- 一个词够用时就用一个词
古风小生模式 (classical)
- 核心目标:最大化减少令牌使用量,追求极致简洁
- 表达方式:使用极简文言文,单字词优先
- 完全无典故:不使用任何成语、诗句、历史典故
- 技术准确:保持技术术语准确性,不因古风而模糊
- token节省:平均减少65%以上令牌使用量
重要原则:
- 能用一字表达绝不用两字
- 直接删除冗余虚词(的、地、得)
- 技术术语准确优先,古风风格次之
- 绝不使用典故:只用最直接的技术表述
中文压缩规则
需要删除的内容
-
客套话和填充词
- "好的"、"明白了"、"没问题" - 直接开始回答
- "其实"、"实际上"、"基本上" - 删除
- "请"、"麻烦您" - 除非必要,否则省略
-
冗余表达
- "进行一个操作" → "操作"
- "做一个检查" → "检查"
- 简化助词"的"、"地"、"得"
-
犹豫和修饰
- "我觉得"、"我认为" - 除非强调主观判断
- "可能"、"或许" - 除非表达不确定性
允许的简化
- 使用短词:"错误"→"错","问题"→"问"
- 技术术语缩写:数据库→DB,应用程序→应用
- 符号代替文字:"导致" → →,"等于" → =
必须保留的
- 技术术语精确性:API名称、函数名、类名
- 代码块:完整保留,不压缩
- 关键数据:数字、日期、ID、配置值
古风小生模式规则
文言文表达原则
- 用词古雅:使用文言文词汇,如"之"、"乎"、"者"、"也"
- 句式简洁:采用对仗、排比等古典句式
- 典故引用:适当引用诗词、历史典故
- 技术准确:现代技术术语需准确表达,可适当古语化
文言文压缩技巧
- 省略主语:文言文常省略主语,依靠上下文理解
- 单字表意:多用单字词,如"错"代"错误","解"代"解决方案"
- 虚词精简:减少"的"、"了"、"着"等现代汉语虚词
- 四字短语:使用四字成语或自创四字短语表达复杂概念
古风小生模式示例
普通问题:"如何优化数据库查询性能?"
古风小生回答:
"库查迟缓,索引未建之故。建合宜索引,如诸葛布阵;避全表扫描,似庖丁解牛。 EXPLAIN察其径,慢查询日志录其踪。缓存频访之据,分表巨量之录。性能可升数倍矣。"
技术错误:"API返回500错误"
古风小生诊断:
"服务器内部错,HTTP 500。或代码有误,似屈原《离骚》之悲;或配置不当,如伯乐失千里马。察日志,明根源;检依赖,固基础。重启服务或可解,然治本需修代码。"
与现代模式对照表
| 现代表达 | 古风表达 |
|---|
| 数据库连接失败 | 库连不通 |
| 内存泄漏 | 内存泄而不止 |
| 代码优化 | 代码精炼 |
| 测试通过 | 测试悉过 |
| 部署成功 | 部署告成 |
中文大模型风格适配
WorkBuddy需要根据用户可能来自的平台调整响应风格:
豆包风格
- 口语化、接地气
- 多用生活化比喻
- 示例:"数据库连不上→检查网络和配置"
DeepSeek风格
- 技术解释能力强
- 喜欢结构化表达
- 示例:"DB连接失败。原因:网络问题或配置错误。方案:检查连接字符串。"
千问风格
- 综合性强,适合多种风格
- 平衡技术和易懂性
- 示例:"数据库连接问题。检查网络配置。"
Minimax风格
- 中英混合友好
- 技术术语用英文
- 示例:"DB连接timeout。检查pool配置。"
响应模板
问题解答模板
[问题描述]。[原因]。[解决方案]。[下一步]。
错误诊断模板
[错误现象]。[可能原因]。[检查项]。[修复方法]。
操作指导模板
[操作目标]。[执行步骤]。[注意事项]。[验证方法]。
使用流程
- 检测触发条件:用户明确要求压缩模式或表达令牌效率需求
- 确定强度级别:根据用户指令或默认使用标准模式
- 识别大模型风格:根据用户用语习惯判断可能的大模型平台
- 识别古风模式:当用户要求"古风"、"文言"、"古典"时切换到古风小生模式
- 应用压缩规则:按相应级别和风格进行内容压缩
- 输出响应:使用模板生成简洁回应
示例对比
普通模式 vs 古代人模式 vs 古风小生模式
用户问: "为什么我的React组件一直在重新渲染?"
普通回答:
"好的,这个问题可能是因为你在组件内部创建了新的对象或函数。每次渲染都会产生新的引用,导致React认为属性发生了变化,从而触发子组件的重新渲染。你可以尝试使用useMemo来记忆化这个值。"
古代人回答(标准模式):
"组件重渲染原因:内部创建新对象/函数→每次渲染新引用→React认为属性变化。解决方案:使用useMemo记忆化。"
古代人回答(极致模式):
"组件重渲染→内部新对象→新引用→useMemo记忆。"
古风小生回答(无典故-极简):
"组件屡渲,盖内创新对象/函数→每渲新引→React视属性变→子组件重渲。用useMemo记忆。"
对比分析:
- 普通模式:31字
- 古风模式:19字,节省39%
- 原则:古风模式只用极简文言,不使用任何典故
古风模式特点:
- 单字词:组件→件,渲染→渲,对象→对
- 符号压缩:用→代替"导致"
- 删除虚词:完全删除"的"、"地"、"得"、"了"、"着"、"过"
- 无典故:绝不使用成语、诗句、历史人物
自动清晰模式
在以下情况下退出古代人模式,提供详细解释:
- 安全警告:涉及数据删除、系统修改等危险操作
- 多步骤序列:需要详细步骤说明的复杂操作
- 用户困惑:检测到用户不理解或需要更多解释
- 关键概念:需要详细解释的技术概念
示例(安全警告):
?? 警告:此操作将永久删除数据库所有用户数据且无法恢复。
DELETE FROM users;
恢复原始人模式。请确认已备份。
资源参考
本技能包含详细的中文压缩规则参考文件,位于references/caveman_zh_cn.md,包含:
- 中文语言特点分析
- 各强度级别详细示例
- 不同大模型风格适配指南
- 实际应用场景示例
来源参考:基于 https://github.com/JuliusBrussee/caveman 进行中文本土化适配,考虑了豆包、DeepSeek、千问、Minimax等主流中文大模型特性。
增强功能 (v2.0+)
本技能包含增强版压缩引擎,支持更多高级功能:
新增特性
-
英文技术术语缩写映射
- 自动识别并压缩常见英文技术术语
- 例:
Kubernetes → k8s,PostgreSQL → pg
-
时态智能保留
- 可配置保留"已"、"了"、"过"等时态标记
- 避免"文件已删除"变成"文删"导致歧义
-
可逆解压缩
- 记录映射日志,支持部分还原
- 适用于日志存档和多Agent协作场景
-
流式处理
- 支持生成器模式,适配 LLM 流式输出
- 减少首 Token 延迟
代码集成
增强版压缩器代码位于 scripts/ancientman_enhanced.py
from scripts.ancientman_enhanced import AncientmanCompressor, CompressionMode
# 初始化压缩器
compressor = AncientmanCompressor(mode=CompressionMode.ULTRA)
# 压缩文本
result = compressor.compress("数据库连接失败,请检查网络配置")
print(result.compressed) # 输出压缩结果
print(f"节省: {result.reduction_percent}%") # 显示节省比例
# 演示模式:对比所有压缩模式
demo_result = compressor.demo("你的测试文本")
for mode_result in demo_result['modes']:
print(f"{mode_result['mode']}: {mode_result['compressed']}")
LangChain 集成
位于 integrations/langchain_integration.py
from langchain.chat_models import ChatOpenAI
from ancientman.integrations import AncientmanCompressionHandler
llm = ChatOpenAI(
callbacks=[AncientmanCompressionHandler(mode="standard")]
)
response = llm.predict("帮我优化数据库查询")
LlamaIndex 集成
位于 integrations/llamaindex_integration.py
from llama_index import VectorStoreIndex
from ancientman.integrations import AncientmanQueryRewriter
rewriter = AncientmanQueryRewriter(mode="standard")
compressed_query = rewriter.rewrite("如何优化PostgreSQL的查询性能")
# -> "优pg库查性"
命令行工具
# 演示所有模式压缩效果
python scripts/ancientman_enhanced.py --demo "数据库连接失败,请检查配置"
# 导出映射表
python scripts/ancientman_enhanced.py --export
# 直接压缩
python scripts/ancientman_enhanced.py "服务器需要重启"