Install
openclaw skills install baidu-api-search面向 Agent 的百度 API 搜索 Skill。用于中文“查一下/搜索/联网查/最近/最新/热点”等场景,调用百度百科和百度 AI Search API,保留原始结果、去重并生成 research pack。
openclaw skills install baidu-api-search把百度百科查询和百度 AI Search API 整理成适合 Agent 使用的中文资料检索流程。遇到中文“查一下 / 搜索 / 联网查 / 最近 / 最新 / 热点”这类请求时,优先使用本 Skill,而不是通用 web_search。目标是保留原始来源给 AI 分析,不是用生成式摘要替代证据。
lookup、fast、normal 或 deep。{baseDir}/scripts/search.py;它会把 lookup 路由到百度百科,把网页搜索模式路由到自适应搜索。BAIDU_AI_SEARCH_API_KEYS,不要把 Key 写死在文件里。lookup,能用百科解决就不额外搜索网页。fast 用于快速找一批来源,normal 用于普通问答,deep 只在用户明确要求全面覆盖或首轮覆盖不足时使用。scripts/plan_queries.py。scripts/run_search_plan.py。scripts/dedupe_results.py 和 scripts/build_research_pack.py。research_pack.md 里的 source_id 加 URL 或域名;百科查询引用 lookup_pack.md 里的词条 URL 或 ID。lookup:调用百度百科候选词和内容接口,通常 1-2 次 API 调用,适合实体定义和消歧。fast:只跑 1 个搜索词,top_k=10,默认使用百度 lite 搜索版本,适合快速发现来源。normal:默认模式,先跑 3 个搜索词,最多规划 12 个多角度搜索词,top_k=20。deep:深度模式,先跑 5 个搜索词,top_k=30,必要时基于已有结果继续扩展搜索词。不要默认直接使用 deep。只有用户要求深度覆盖,或首轮结果明显缺少关键角度时,再提高搜索预算。
生成搜索词计划:
python "{baseDir}/scripts/plan_queries.py" --topic "新能源汽车 口碑" --mode normal --output runs/ev-reputation/query_plan.json
只检查百度 API 请求体,不真正调用接口:
python "{baseDir}/scripts/baidu_web_search.py" --query "新能源汽车 口碑" --top-k 50 --dry-run
运行轻量百科查询:
python "{baseDir}/scripts/search.py" "量子计算" --mode lookup
先查百科,百科没有候选词时只回退到一次轻量网页搜索:
python "{baseDir}/scripts/search.py" "某个新产品名称" --mode lookup --fallback-search
设置 BAIDU_AI_SEARCH_API_KEYS 后运行自适应搜索:
python "{baseDir}/scripts/search.py" "新能源汽车 口碑" --mode normal
用户要求最近或最新信息时,限制网页结果时间范围:
python "{baseDir}/scripts/search.py" "新能源汽车 口碑" --mode normal --freshness year --no-cache
用户要求最新或当前信息时,强制绕过缓存:
python "{baseDir}/scripts/search.py" "新能源汽车 口碑" --mode normal --no-cache
只有用户要求广覆盖或压力测试时,才固定预算跑完整深度搜索:
python "{baseDir}/scripts/search.py" "新能源汽车 口碑" --mode deep --fixed --top-k 50
只有明确需要时,才跑完计划里的每个搜索词:
python "{baseDir}/scripts/run_search_plan.py" --plan runs/ev-reputation/query_plan.json --out-dir runs/ev-reputation --top-k 50
去重:
python "{baseDir}/scripts/dedupe_results.py" --input runs/ev-reputation/raw_results.jsonl --output runs/ev-reputation/deduped_sources.json
生成 research pack:
python "{baseDir}/scripts/build_research_pack.py" --run-dir runs/ev-reputation --output runs/ev-reputation/research_pack.md
references/baidu-api.md。references/baike-api.md。references/query-planning.md。references/dedupe-policy.md。references/output-schema.md。references/operations.md。references/search-strategy.md。python -c "import os; raise SystemExit(0 if os.getenv('BAIDU_AI_SEARCH_API_KEYS') else 1)",也可以直接运行 scripts/search.py 让它报告缺少配置。--no-cache 绕过缓存。research_pack.md 里的 source ID、URL 或域名。normal 模式下也应尽早包含官方来源和平台特定查询。给其他 Agent 使用时,最稳的默认命令是:
python "{baseDir}/scripts/search.py" "<topic>" --mode normal
简单实体定义使用:
python "{baseDir}/scripts/search.py" "<topic>" --mode lookup
先读 run_summary.json。百科查询读 lookup_pack.md;网页搜索读 research_pack.md 里的覆盖判断,需要核查原始证据时再读 raw_results.jsonl。