Install
openclaw skills install image-downloader当用户需要按关键词批量下载图片、从 Bing 或多个图片来源收集候选、保存图片到本地目录、避免重复下载,或希望复用当前仓库里的现成图片下载流程时使用。遇到类似“帮我按关键词下载 10 张图片”“批量抓取 Bing 图片并保存到本地”“从多个来源收集图片候选再下载”“需要下载摘要和保存目录”这类请求时,应主动使用这...
openclaw skills install image-downloader这个 skill 用于复用当前目录中的 scripts/bing_image_downloader.py 脚本,让其他 agent 能稳定完成“按关键词从多个来源收集候选并下载图片到本地”的任务。
当用户明确提出以下类型需求时,优先使用本 skill:
如果用户要的是:
则这个 skill 不是最佳选择。
scripts/bing_image_downloader.pytests/test_bing_image_downloader.pytests/test_integration_multisource.py按下面顺序执行:
--pages 3--pages 5--pages 10uv,使用 uv run --with requests python 运行。uv(例如服务器、容器、OpenClaw Agent),直接使用 python3 运行,需确保 requests 已安装。uv run --with requests python "scripts/bing_image_downloader.py" "cat" --limit 10 --pages 3
uv run --with requests python "scripts/bing_image_downloader.py" "cat" --limit 50 --pages 5
uv run --with requests python "scripts/bing_image_downloader.py" "cat" --limit 100 --pages 10
python3 "scripts/bing_image_downloader.py" "cat" --limit 10 --pages 3
--limit 10--limit 50--limit 100--pages脚本会把结果保存到:
downloads/<关键词>/
例如关键词 cat 会保存到:
downloads/cat/
文件名按顺序编号,例如:
001.jpg002.jpg003.png此外,脚本会记录下载元数据与历史索引,用于后续运行时跳过已下载过的候选内容。
因为搜索结果中的原图通常来自第三方网站,不是都由当前来源自己托管。第三方站点可能拒绝脚本访问,常见错误:
403 Forbidden--pages 后下载数量会提高?因为脚本会抓更多结果页,收集更大的候选链接池。即使其中一部分链接失效,仍然可以用后面的候选补位。
完成后可按下面结构回复用户:
已执行关键词图片批量下载。
- 关键词:<关键词>
- 目标数量:<limit>
- 抓取页数:<pages>
- 候选总数:<候选数量>
- 去重后数量:<去重后数量>
- 实际成功下载:<成功数量>
- 来源统计:<来源统计>
- 保存目录:downloads/<关键词>/
如果存在失败链接,通常是第三方图片源拒绝访问、超时或链接失效,不影响脚本继续补充后续候选。
--pages 或扩大候选池,而不是先改成并发下载。本 skill 已在 OpenClaw Agent 上完成实际验证,支持通过 cron 定时任务自动下载图片并发送到飞书。
PATH 和 bash 严格模式requests 环境openclaw message send 发送到飞书openclaw message send \
--channel feishu \
--target “<飞书接收人 open_id>” \
--media “/path/to/downloads/关键词/001.jpg” \
--json
demo 来源的 NameResolutionError 报错是正常现象,可忽略PATH,避免找不到 python3 或 openclaw详细部署步骤和脚本模板见 README.md 的”OpenClaw Agent 部署与定时任务”章节。