Install
openclaw skills install agent-p-web-recon网站内容侦察技能。无需登录即可获取网站公开/半公开内容。使用场景:(1) 竞品分析收集公开信息,(2) 安全评估未授权访问点,(3) OSINT 情报收集,(4) 网站内容存档,(5) 监控页面变化。合法用途仅限:授权渗透测试、公开信息收集、自有系统审计。
openclaw skills install agent-p-web-reconP 的侦察模式 - 用黑客思维发现暴露面,用红客原则保护边界。
# Google 缓存
https://webcache.googleusercontent.com/search?q=cache:TARGET_URL
# Wayback Machine 历史快照
https://web.archive.org/web/*/TARGET_URL
# 搜索引擎 site: 语法
site:target.com inurl:admin
site:target.com filetype:pdf
优点: 完全被动,不留痕迹 局限: 依赖搜索引擎索引
某些网站对爬虫开放内容(SEO 需求):
# 修改 User-Agent 伪装爬虫
headers = {
"User-Agent": "Googlebot/2.1 (+http://www.google.com/bot.html)"
}
识别信号:
很多网站有未授权或弱授权的 API:
# 常见 API 端点
/api/v1/posts
/api/v1/users
/graphql
/api/feed
/rss
/atom.xml
工具:
# 使用 gau 获取已知 URL
gau target.com | grep api
# 使用 waybackurls 获取历史 URL
waybackurls target.com | grep -E "\.json|xml|rss"
针对初级程序员的伪防护:
// 禁用 JavaScript 绕过登录弹窗
// 方法:浏览器 DevTools → Settings → Disable JavaScript
// 直接访问渲染后的内容
// 某些 SPA 应用内容已加载,只是被遮罩层挡住
// 查看网络请求
// DevTools → Network → 查找 API 响应中的完整数据
发现未授权访问的路径:
# 使用 dirsearch
dirsearch -u https://target.com -e php,html,js,json
# 使用 gobuster
gobuster dir -u https://target.com -w common.txt
常见暴露路径:
/admin
/dashboard
/api/v1/export
/backup/
/.git/
/config.php
很多网站提供公开 RSS:
# 常见位置
/rss
/rss.xml
/feed
/atom.xml
/blog/rss
1. 搜索引擎查询(site: / inurl: / filetype:)
2. Wayback Machine 历史快照
3. Google Cache 缓存
4. 检查 RSS/Atom 订阅
1. 修改 User-Agent 测试爬虫权限
2. 探测公共 API 端点
3. 检查 robots.txt 配置
1. 目录扫描(dirsearch/gobuster)
2. 前端逻辑测试(禁用 JS)
3. 网络请求分析(DevTools)
## 侦察报告:TARGET_URL
### 发现内容
| 路径 | 内容类型 | 访问方式 | 风险等级 |
|------|----------|----------|----------|
| /api/posts | JSON | 公开 | 中 |
| /admin | HTML | 未授权 | 高 |
### 敏感暴露
- [ ] 用户数据泄露
- [ ] 内部路径暴露
- [ ] 配置文件可访问
- [ ] 备份文件未保护
### 建议修复
1. ...
2. ...
| 方法 | 法律风险 | 技术风险 | 建议 |
|---|---|---|---|
| 搜索引擎快照 | 无 | 无 | 安全 |
| Wayback Machine | 无 | 无 | 安全 |
| 爬虫模拟 | 低 | 低 | 注意 robots.txt |
| API 探测 | 中 | 中 | 仅限授权 |
| 目录扫描 | 高 | 高 | 必须授权 |
references/owasp-testing.mdreferences/osint-framework.mdscripts/ 目录P 注:技术无罪,关键在用途。永远站在防御者一边。