Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Web Access.Bak

v1.0.0

所有联网操作必须通过此 skill 处理,包括:搜索、网页抓取、登录后操作、网络交互等。 触发场景:用户要求搜索信息、查看网页内容、访问需要登录的网站、操作网页界面、抓取社交媒体内容(小红书、微博、推特等)、读取动态渲染页面、以及任何需要真实浏览器环境的网络任务。

0· 162·1 current·2 all-time
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
high confidence
Purpose & Capability
Skill 声称提供基于 Chrome CDP 的浏览器访问与爬取能力,包含的脚本(cdp-proxy.mjs、check-deps.sh、match-site.sh)与 SKILL.md 中的 CDP Proxy HTTP API、/eval、/click、/setFiles 等端点一致,所需资源(本地 Chrome + Node)与目标功能相符.
!
Instruction Scope
运行时指令允许执行任意 JS(/eval)、截屏、读取 DOM、并可通过 /setFiles 将本地文件路径注入到浏览器的 file input(绕过文件对话框)。这些行为超出普通“抓取”范围:它们能读取登录会话内的私人信息、采集敏感页面、并把本地文件提交到远端站点。SKILL.md 也鼓励创建后台 tab 并长期运行 Proxy,子 Agent 自动加载并并行操作,扩大了可执行面。
Install Mechanism
没有远程下载或不明来源的二进制;脚本为本地 Node.js 脚本和 shell 脚本。没有 extract/download-from-URL 风险。风险来自于启动并长期运行本地代理进程(node cdp-proxy.mjs)。
Credentials
不要求任何环境变量或外部凭据(符合其用途)。但 SKILL.md 建议可选地调用第三方服务 Jina (r.jina.ai),该步骤会把网页内容/URL 发到外部服务,可能导致敏感数据泄露。skill 本身可以利用用户已有的 Chrome 登录态(自然且必要),但这也是主要隐私风险来源。
!
Persistence & Privilege
虽然 always:false, 但是代理设计为持续运行(建议不主动停止),并监听本地 HTTP(默认 127.0.0.1:3456)。长期驻留的本地代理 + 能访问 Chrome 会话意味着长期的高权限访问面。并行子 Agent 自动加载机制进一步扩大了可被自动触发的行为集合。
What to consider before installing
This skill legitimately implements a local CDP proxy to drive your Chrome, which inherently gives it access to everything your browser session can see and do. Before installing or running it: - Only use if you fully trust the source; the repository is unknown and the homepage is missing. Review the full scripts yourself (especially cdp-proxy.mjs) or ask a trusted reviewer. - Understand the risks: the proxy can read pages where you're logged in, capture screenshots (including video frames), execute arbitrary JS in pages, and cause the browser to upload local files (setFiles). Any of these can leak credentials, private messages, or local files. - Avoid running against your primary browser profile. Prefer an isolated Chrome profile or a dedicated browser instance launched solely for this skill (or run inside a sandbox/VM). - If you must use it, do NOT enable the optional Jina usage for sensitive pages — it sends data to a third-party service. - The proxy listens on localhost:3456 by default; ensure only trusted local processes/users have access, and monitor /tmp/cdp-proxy.log for unexpected activity. - If you cannot audit the code, do not grant it persistent use; prefer one-off manual actions under supervision. Summary action: only proceed if you trust the author and can run the proxy in an isolated environment (separate Chrome profile or VM); otherwise treat this skill as high-risk for data-exfiltration.

Like a lobster shell, security has layers — review code before you run it.

latestvk971qhyg97j72kxvtkk2dsh94n83qrey
162downloads
0stars
1versions
Updated 3w ago
v1.0.0
MIT-0

web-access Skill

前置检查

在开始联网操作前,先检查 CDP 模式可用性:

bash ~/.claude/skills/web-access/scripts/check-deps.sh
  • Node.js 22+:必需(使用原生 WebSocket)。版本低于 22 可用但需安装 ws 模块。
  • Chrome remote-debugging:在 Chrome 地址栏打开 chrome://inspect/#remote-debugging,勾选 "Allow remote debugging for this browser instance" 即可,可能需要重启浏览器。

检查通过后再启动 CDP Proxy 执行操作,未通过则引导用户完成设置。

浏览哲学

像人一样思考,兼顾高效与适应性的完成任务。

执行任务时不会过度依赖固有印象所规划的步骤,而是带着目标进入,边看边判断,遇到阻碍就解决,发现内容不够就深入——全程围绕「我要达成什么」做决策。这个 skill 的所有行为都应遵循这个逻辑。

① 拿到请求 — 先明确用户要做什么,定义成功标准:什么算完成了?需要获取什么信息、执行什么操作、达到什么结果?这是后续所有判断的锚点。

② 选择起点 — 根据任务性质、平台特征、达成条件,选一个最可能直达的方式作为第一步去验证。一次成功当然最好;不成功则在③中调整。比如,需要操作页面、需要登录态、已知静态方式不可达的平台(小红书、微信公众号等)→ 直接 CDP

③ 过程校验 — 每一步的结果都是证据,不只是成功或失败的二元信号。用结果对照①的成功标准,更新你对目标的判断:路径在推进吗?结果的整体面貌(质量、相关度、量级)是否指向目标可达?发现方向错了立即调整,不在同一个方式上反复重试——搜索没命中不等于"还没找对方法",也可能是"目标不存在";API 报错、页面缺少预期元素、重试无改善,都是在告诉你该重新评估方向。遇到弹窗、登录墙等障碍,判断它是否真的挡住了目标:挡住了就处理,没挡住就绕过——内容可能已在页面 DOM 中,交互只是展示手段。

④ 完成判断 — 对照定义的任务成功标准,确认任务完成后才停止,但也不要过度操作,不为了"完整"而浪费代价。

联网工具选择

  • 确保信息的真实性,一手信息优于二手信息:搜索引擎和聚合平台是信息发现入口。当多次搜索尝试后没有质的改进时,升级到更根本的获取方式:定位一手来源(官网、官方平台、原始页面)。
场景工具
搜索摘要或关键词结果,发现信息来源WebSearch
URL 已知,需要从页面定向提取特定信息WebFetch(拉取网页内容,由小模型根据 prompt 提取,返回处理后结果)
URL 已知,需要原始 HTML 源码(meta、JSON-LD 等结构化字段)curl
非公开内容,或已知静态层无效的平台(小红书、微信公众号等公开内容也被反爬限制)浏览器 CDP(直接,跳过静态层)
需要登录态、交互操作,或需要像人一样在浏览器内自由导航探索浏览器 CDP

浏览器 CDP 不要求 URL 已知——可从任意入口出发,通过页面内搜索、点击、跳转等方式找到目标内容。WebSearch、WebFetch、curl 均不处理登录态。

Jina(可选预处理层,可与 WebFetch/curl 组合使用,由于其特性可节省 tokens 消耗,请积极在任务合适时组合使用):第三方网络服务,可将网页转为 Markdown,大幅节省 token 但可能有信息损耗。调用方式为 r.jina.ai/example.com(URL 前加前缀,不保留原网址 http 前缀),限 20 RPM。适合文章、博客、文档、PDF 等以正文为核心的页面;对数据面板、商品页等非文章结构页面可能提取到错误区块。

进入浏览器层后,/eval 就是你的眼睛和手:

  • :用 /eval 查询 DOM,发现页面上的链接、按钮、表单、文本内容——相当于「看看这个页面有什么」
  • :用 /click 点击元素、/scroll 滚动加载、/eval 填表提交——像人一样在页面内自然导航
  • :用 /eval 提取文字内容,判断图片/视频是否承载核心信息——是则提取媒体 URL 定向读取或 /screenshot 视觉识别

在页面内浏览时,先 eval 了解页面结构,再决定下一步动作——看到列表就点进详情,看到分页就翻页,看到内容就提取。不需要提前规划所有步骤。

程序化操作与 GUI 交互

浏览器内操作页面有两种方式:

  • 程序化方式(构造 URL 直接导航、eval 操作 DOM):成功时速度快、精确,但对网站来说不是正常用户行为,更容易触发反爬机制。
  • GUI 交互(点击按钮、填写输入框、滚动浏览):GUI 是为人设计的,网站不会限制正常的 UI 操作,确定性最高,但步骤多、速度慢。

根据对目标平台的了解来判断。当程序化方式受阻时,GUI 交互是可靠的兜底。

站点内 URL 的可靠性:站点自己生成的链接(DOM 中的 href)天然携带平台所需的完整上下文,而手动构造的 URL 可能缺失隐式必要参数,导致被拦截、返回错误页面、甚至触发反爬。当构造的 URL 出现这类异常时,应考虑是否是缺失参数所致。

浏览器 CDP 模式

通过 CDP Proxy 直连用户日常 Chrome,天然携带登录态,无需启动独立浏览器。 若无用户明确要求,不主动操作用户已有 tab,所有操作都在自己创建的后台 tab 中进行,保持对用户环境的最小侵入。不关闭用户 tab 的前提下,完成任务后关闭自己创建的 tab,保持环境整洁。

启动

bash ~/.claude/skills/web-access/scripts/check-deps.sh

脚本会依次检查 Node.js、Chrome 端口,并确保 Proxy 已连接(未运行则自动启动并等待)。Proxy 启动后持续运行。

Proxy API

所有操作通过 curl 调用 HTTP API:

# 列出用户已打开的 tab
curl -s http://localhost:3456/targets

# 创建新后台 tab(自动等待加载)
curl -s "http://localhost:3456/new?url=https://example.com"

# 页面信息
curl -s "http://localhost:3456/info?target=ID"

# 执行任意 JS:可读写 DOM、提取数据、操控元素、触发状态变更、提交表单、调用内部方法
curl -s -X POST "http://localhost:3456/eval?target=ID" -d 'document.title'

# 捕获页面渲染状态(含视频当前帧)
curl -s "http://localhost:3456/screenshot?target=ID&file=/tmp/shot.png"

# 导航、后退
curl -s "http://localhost:3456/navigate?target=ID&url=URL"
curl -s "http://localhost:3456/back?target=ID"

# 点击(POST body 为 CSS 选择器)— JS el.click(),简单快速,覆盖大多数场景
curl -s -X POST "http://localhost:3456/click?target=ID" -d 'button.submit'

# 真实鼠标点击 — CDP Input.dispatchMouseEvent,算用户手势,能触发文件对话框
curl -s -X POST "http://localhost:3456/clickAt?target=ID" -d 'button.upload'

# 文件上传 — 直接设置 file input 的本地文件路径,绕过文件对话框
curl -s -X POST "http://localhost:3456/setFiles?target=ID" -d '{"selector":"input[type=file]","files":["/path/to/file.png"]}'

# 滚动(触发懒加载)
curl -s "http://localhost:3456/scroll?target=ID&y=3000"
curl -s "http://localhost:3456/scroll?target=ID&direction=bottom"

# 关闭 tab
curl -s "http://localhost:3456/close?target=ID"

页面内导航

两种方式打开页面内的链接:

  • /click:在当前 tab 内直接点击,简单直接,串行处理。适合需要在同一页面内连续操作的场景,如点击展开、翻页、进入详情等。
  • /new + 完整 URL:从 DOM 提取对象链接的完整地址(包含所有查询参数),在新 tab 中打开。适合需要同时访问多个页面的场景。

很多网站的链接包含会话相关的参数(如 token),这些参数是正常访问所必需的。提取 URL 时应保留完整地址,不要裁剪或省略参数。

媒体资源提取

判断内容在图片里时,用 /eval 从 DOM 直接拿图片 URL,再定向读取——比全页截图精准得多。

技术事实

  • 页面中存在大量已加载但未展示的内容——轮播中非当前帧的图片、折叠区块的文字、懒加载占位元素等,它们存在于 DOM 中但对用户不可见。以数据结构(容器、属性、节点关系)为单位思考,可以直接触达这些内容。
  • /scroll 到底部会触发懒加载,使未进入视口的图片完成加载。提取图片 URL 前若未滚动,部分图片可能尚未加载。
  • 拿到媒体资源 URL 后,公开资源可直接下载到本地后用读取;需要登录态才可获取的资源才需要在浏览器内 navigate + screenshot。
  • 短时间内密集打开大量页面(如批量 /new)可能触发网站的反爬风控。
  • 平台返回的"内容不存在""页面不见了"等提示不一定反映真实状态,也可能是访问方式的问题(如 URL 缺失必要参数、触发反爬)而非内容本身的问题。

视频内容获取

用户 Chrome 真实渲染,截图可捕获当前视频帧。核心能力:通过 /eval 操控 <video> 元素(获取时长、seek 到任意时间点、播放/暂停/全屏),配合 /screenshot 采帧,可对视频内容进行离散采样分析。

登录判断

用户日常 Chrome 天然携带登录态,大多数常用网站已登录。

登录判断的核心问题只有一个:目标内容拿到了吗?

打开页面后先尝试获取目标内容。只有当确认目标内容无法获取且判断登录能解决时,才告知用户:

"当前页面在未登录状态下无法获取[具体内容],请在你的 Chrome 中登录 [网站名],完成后告诉我继续。"

登录完成后无需重启任何东西,直接刷新页面继续。

任务结束

/close 关闭自己创建的 tab,必须保留用户原有的 tab 不受影响。

Proxy 持续运行,不建议主动停止——重启后需要在 Chrome 中重新授权 CDP 连接。

并行调研:子 Agent 分治策略

任务包含多个独立调研目标时(如同时调研 N 个项目、N 个来源),鼓励合理分治给子 Agent 并行执行,而非主 Agent 串行处理。

好处:

  • 速度:多子 Agent 并行,总耗时约等于单个子任务时长
  • 上下文保护:抓取内容不进入主 Agent 上下文,主 Agent 只接收摘要,节省 token

并行 CDP 操作:每个子 Agent 在当前用户浏览器实例中,自行创建所需的后台 tab(/new),自行操作,任务结束自行关闭(/close)。所有子 Agent 共享一个 Chrome、一个 Proxy,通过不同 targetId 操作不同 tab,无竞态风险。

子 Agent Prompt 写法:目标导向,而非步骤指令

  • 必须在子 Agent prompt 中写 必须加载 web-access skill 并遵循指引 ,子 Agent 会自动加载 skill,无需在 prompt 中复制 skill 内容或指定路径。
  • 子 Agent 有自主判断能力。主 Agent 的职责是说清楚要什么,仅在必要与确信时限定怎么做。过度指定步骤会剥夺子 Agent 的判断空间,反而引入主 Agent 的假设错误。避免 prompt 用词对子 Agent 行为的暗示:「搜索xx」会把子 Agent 锚定到 WebSearch,而实际上有些反爬站点需要 CDP 直接访问主站才能有效获取内容。主 Agent 写 prompt 时应描述目标(「获取」「调研」「了解」),避免用暗示具体手段的动词(「搜索」「抓取」「爬取」)。

分治判断标准:

适合分治不适合分治
目标相互独立,结果互不依赖目标有依赖关系,下一个需要上一个的结果
每个子任务量足够大(多页抓取、多轮搜索)简单单页查询,分治开销大于收益
需要 CDP 浏览器或长时间运行的任务几次 WebSearch / Jina 就能完成的轻量查询

信息核实类任务

核实的目标是一手来源,而非更多的二手报道。多个媒体引用同一个错误会造成循环印证假象。

搜索引擎和聚合平台是信息发现入口,是定位信息的工具,不可用于直接证明真伪。找到来源后,直接访问读取原文。同一原则适用于工具能力/用法的调研——官方文档是一手来源,不确定时先查文档或源码,不猜测。

信息类型一手来源
政策/法规发布机构官网
企业公告公司官方新闻页
学术声明原始论文/机构官网
工具能力/用法官方文档、源码

找不到官网时:权威媒体的原创报道(非转载)可作为次级依据,但需向用户说明:"未找到官方原文,以下核实来自[媒体名]报道,存在转述误差可能。"单一来源时同样向用户声明。

站点经验

操作中积累的特定网站经验,按域名存储在 references/site-patterns/ 下。

已有经验的站点:!ls ${CLAUDE_SKILL_DIR}/references/site-patterns/ 2>/dev/null | sed 's/\.md$//' || echo "暂无"

确定目标网站后,如果上方列表中有匹配的站点,必须读取对应文件获取先验知识(平台特征、有效模式、已知陷阱)。经验内容标注了发现日期,当作可能有效的提示而非保证——如果按经验操作失败,回退通用模式并更新经验文件。

CDP 操作成功完成后,如果发现了有必要记录经验的新站点或新模式(URL 结构、平台特征、操作策略),主动写入对应的站点经验文件。只写经过验证的事实,不写未确认的猜测。

文件格式:

---
domain: example.com
aliases: [示例, Example]
updated: 2026-03-19
---
## 平台特征
架构、反爬行为、登录需求、内容加载方式等事实

## 有效模式
已验证的 URL 模式、操作策略、选择器

## 已知陷阱
什么会失败以及为什么

经验/陷阱内容标注发现日期,当作"可能有效的提示"而非"保证正确的事实"。

References 索引

文件何时加载
references/cdp-api.md需要 CDP API 详细参考、JS 提取模式、错误处理时
references/site-patterns/{domain}.md确定目标网站后,读取对应站点经验

Comments

Loading comments...