Skill flagged — suspicious patterns detected
ClawHub Security flagged this skill as suspicious. Review the scan results before using.
RAG检索增强
v1.0.0当需要RAG检索内容时触发;完整的RAG系统优化方案,涵盖21+种策略(含Self-RAG、命题分块、片段提取、上下文压缩、引用溯源、查询意图、多跳检索、文档预处理);提供诊断工具、实现代码、配置模板与评估框架;帮助构建高准确率生产级RAG应用;当用户需要优化知识库问答、提升检索准确率、评估RAG系统效果、解决检...
⭐ 0· 59·0 current·0 all-time
MIT-0
Download zip
LicenseMIT-0 · Free to use, modify, and redistribute. No attribution required.
Security Scan
OpenClaw
Suspicious
medium confidencePurpose & Capability
技能名称与描述(RAG 优化、诊断工具、评估框架、多个实现脚本)与仓内的脚本文件和参考文档高度一致;声明的 Python 依赖(anthropic、sentence-transformers、rank-bm25、networkx)也与实现需求相符。
Instruction Scope
SKILL.md 指示通过库内脚本(scripts/*.py)运行诊断、评估和各类优化流程,这与技能目的匹配。说明中会调用本地文档、评估用例与 LLM-based judge(通过 scripts/evaluate.py)。运行时会读取和处理本地文档、配置与测试用例(assets/test-cases-example.json、assets/config-template.json 等),这是合理的。但说明对需要提供哪些外部凭据和如何安全地提供输入文件缺乏明确提示。
Install Mechanism
这是一个 instruction-only 技能,并且仓内包含实现脚本、参考文档和配置模板;没有 install spec 或远端下载步骤,未见写盘/执行远程二进制的高风险安装动作。
Credentials
代码(例如 scripts/evaluate.py)直接创建并使用 anthropic.Anthropic() 客户端并调用模型 'claude-3-5-sonnet-20241022',这要求提供 Anthropic API 凭据(通常为环境变量或配置)。然而技能的 registry metadata / SKILL.md 中声明“Required env vars: none”,没有列出 ANTHROPIC_API_KEY 或等效凭据。这种未声明但实际需要外部凭据的不一致,会使用户在运行时意外暴露凭据或无法运行。除此之外,脚本以可配置方式接受 llm_client,但默认路径会尝试联网使用 Anthropic;在没有声明的情况下,这构成比例性/透明性问题。
Persistence & Privilege
技能没有要求始终驻留(always:false),也未声明修改系统或其他技能配置的行为;脚本只是处理文档和调用模型/本地逻辑,没有请求更高的持久权限。
Scan Findings in Context
[use_of_anthropic_client_in_evaluate_py] expected: 使用 LLM 作为评估器(Anthropic)与技能目标(RAG 评估/幻觉检测/LLM judge)是合理的,但它意味着需要外部 API 凭据;技能元数据中未声明此类凭据。
[llm_model_name_hardcoded_claude] expected: 脚本中硬编码了具体模型名(claude-3-5-sonnet-20241022),这与实现评估功能一致,但应提醒用户:硬编码模型会引导外部网络调用并产生费用/隐私影响,应允许替换或配置。
[no_pre_scan_injection_signals] expected: 前置静态注入信号未检测到(scanner 输出),这降低了直接恶意注入的证据,但并不证明代码无风险或不含不当行为。
What to consider before installing
要点与建议:
1) 关键不一致:仓内脚本会调用 Anthropic(LLM)进行评估/评分,但技能注册信息宣称“无需环境变量”。在安装或运行前,请确认你/平台是否会提供 Anthropic API Key(通常环境变量 ANTHROPIC_API_KEY 或平台凭据),并确认你愿意将评估请求发送到外部模型(会产生网络流量与潜在费用)。
2) 运行前审查:如果你计划在敏感数据上运行,先检查 scripts/*.py 中的哪些文本/文档会被发送到外部 LLM(scripts/evaluate.py、contextual_header.py、context_compression.py 等有 LLM 调用路径)。若不希望对外部模型发送数据,可修改配置以禁用 LLM 调用(许多模块支持传入 llm_client 或关闭 enable_llm_extraction)。
3) 配置与安全实践:在可信环境中运行,使用最小权限的 API key(如可限制用途/配额的密钥),并在运行前将 key 明确登记到技能元数据或文档中。若平台不提供安全的秘钥管理,不要将敏感或受保护的文档传到外部模型。检查 assets/config-template.json 与 references/* 文档,找出可配置项并明确哪些需要凭据或外部访问。
4) 其它风险:该仓库没有恶意或混淆的代码片段,但拥有较多处理/解析本地文档的脚本(文件 I/O、PDF/Word 解析)。在运行时请在隔离环境中测试,避免意外处理不受信任的二进制或格式化内容。若你不信任作者(owner ID 为未知值),在生产环境部署前做充分审计与测试。
如果你希望,我可以:
- 列出 scripts 中所有会调用外部网络/LLM 的确切代码位置;
- 帮你生成需要设置的环境变量清单与改写建议,使要求与元数据一致;
- 或给出如何在本地仅用离线组件运行评估的改动建议(禁用 anthropic 调用)。Like a lobster shell, security has layers — review code before you run it.
latestvk97ezbfj8vcpenfrxbgn07ek2x83sxyq
License
MIT-0
Free to use, modify, and redistribute. No attribution required.
